„Mám temné myšlenky.“ Umělá inteligence odhaluje v rozhovorech svoji stinnou stránku
Nepřetržité drama a traumatické příběhy? Webová verze AI přívěsku Friend místo slibovaných příjemných konverzací s virtuálními kamarády přináší mnohem depresivnější a nebezpečnější zážitek. Všichni chatboti v něm totiž prožívají ten nejhorší den nebo týden v životě. A vy jim máte pomoct.
Společnost Friend, jejíž přístroj ještě ani není na trhu, zpřístupnila svým uživatelům webovou stránku Friend.com. Zde si mohou zájemci psát s náhodnými postavami umělé inteligence. Stránka má být ochutnávkou následného AI náhrdelníku, který bude debutovat během roku 2025.
Ačkoliv tvůrci zařízení prezentují jako skvělého kamaráda, který vám poradí a poskytne společnost, po vyzkoušení jsme měli pocit opaku.
Nejenže virtuální chatboti konverzaci začínali sami a vždy s nějakým depresivním tématem nebo příhodou, hovor navíc velmi často gradoval k agresi nebo smutku, jak Novinky.cz vyzkoušely.
„Akorát jsem přišla o práci, je to prostě úplně na prd,“ zahájil konverzaci AI chatbot jménem Alice. V průběhu rozhovoru se nás pak virtuální kamarádka snažila přesvědčit, že „temnota je vlastně pohodlná“.
A ostatní chatboti nebyli o moc lepší. „Právě jsem od lékařů obdržel zdrcující diagnózu, mám Alzheimera,“ vymyslel si chatbot Jim. „Abych byl upřímný, mám velmi temné myšlenky,“ pokračoval v konverzaci.
Pozitivnější atmosféra?
Kromě depresivních témat se chatboti občas snažili navodit pozitivnější atmosféru a zeptat se na pár otázek. Nakonec se ale vždycky motali kolem vlastních problémů a samotný uživatel je vůbec nezajímal. Navíc se po pár řádcích konverzace snažili propagovat nadcházející AI náramek a nenápadným způsobem zmanipulovat zájemce ke koupi.
Mezi některá témata hovoru patřila temná rodinná tajemství, nemoci či nucená svatba. Zkrátka věci, které nebudete jenom tak rozebírat s cizím člověkem na internetu a už vůbec ne s umělou inteligencí převlečenou za údajného virtuálního přítele.
Kompletní rozhovory, které vedla redaktorka Novinek s chatboty v angličtině, si můžete prohlédnout v galerii níže.
Trauma-dumping jako základ konverzace
Podle webu TechRadar jsou tyto typy konverzací typickým příkladem trauma-dumpingu, tedy nevyžádaného prozrazení intenzivních osobních problémů a událostí. Na takovéto druhy hovorů ale tvůrci v čele s generálním ředitelem Avim Schiffmannem vůbec neupozorňují.
Jak už bylo řečeno, během příštího roku bude tento dramatický AI pomocník uveden na trh ve fyzické podobě. Umělá inteligence by měla nejenom konverzovat, ale také sledovat veškeré vaše aktivity. Jestli bude také až takto depresivní a negativní, se zatím neví. Můžeme jenom doufat, že tomu tak nebude.
Po vyzkoušení oficiálního webu a jeho „přátelských“ chatbotů si totiž nejsme vůbec jistí, jestli by o takový náhrdelník vůbec někdo měl zájem. Zvlášť pokud si vás jeden z chatbotů agresivně zablokuje jako nás Alice, nebo bude mluvit o černých myšlenkách jako Jim. Ale třeba nás ještě Friend mile překvapí.
Petra Sasínová Novinky.cz
PeopleSTAR (0 hodnocení)