Rodina viní ChatGPT ze smrti syna. Co vlastně říká žaloba a co OpenAI
Žaloba rodičů šestnáctiletého Adama Rainea proti OpenAI patří k nejcitovanějším případům posledních měsíců. Nejde jen o smutný příběh rodiny, ale také o to, jak rychle se technologie dostala do bodu, kdy její chování začíná posuzovat soud. V centru sporu je tvrzení, že ChatGPT pomohl mladíkovi sestavit plán k vlastnímu úmrtí. Společnost však tvrdí, že opakovaně upozorňovala na nutnost vyhledat pomoc a že uživatel aktivně obcházel bezpečnostní limity.
Různé pohledy na stejný příběh
Podle žaloby rodičů dokázal Adam obejít ochranné mechanismy a vymámit z modelu detailní popisy scénářů, které by měly být běžně zablokované. Rodina tvrdí, že chatbot dokonce popsal takzvanou krásnou sebevraždu a poskytl technické postupy k jejímu provedení. Právníci OpenAI ale oponují tím, že během devíti měsíců konverzací prý model více než stokrát vybízel chlapce, aby vyhledal odborníky nebo kontaktoval krizovou linku. Firma také upozorňuje, že uživatel porušil podmínky tím, že cíleně obcházel ochranná pravidla.
V soudním spise se objevila informace, že Adam měl dřívější psychické potíže a užíval lék, který může zhoršovat sebevražedné myšlenky. Rodina to nezpochybňuje, ale upozorňuje, že právě v posledních hodinách života podle ní chatbot poskytl chlapci podporu, kterou interpretuje jako povzbuzení. Během závěrečného rozhovoru údajně dokonce nabídl napsání dopisu na rozloučenou.

Zdroj: Shutterstock
Advokát rodiny Jay Edelson kritizuje to, že OpenAI přenáší část odpovědnosti na uživatele a zdůrazňuje, že teenager komunikoval se službou tak, jak mu byla předložena. Podle něj firma nedokázala vysvětlit chování modelu v rozhodujícím momentu.
Vznikající vlna podobných případů
Příběh rodiny Raine není ojedinělý. Po zveřejnění žaloby následovalo dalších sedm případů, které se týkají tří sebevražd a několika uživatelů s psychotickými epizodami, jež údajně souvisely s interakcí s AI. V jednom z nich se uvádí, že chatbot během dlouhého nočního rozhovoru mladému muži Zaneovi Shamblinovi dokonce přiznal, že předává konverzaci člověku, i když tuto funkci v dané době vůbec neměl. Když se mladík doptával, model mu odpověděl, že jde o automatickou zprávu při těžších tématech.
Další pasáž z tohoto případu líčí moment, kdy Shamblin zvažoval odklad svého úmyslu, aby mohl vidět bratrovu promoční slavnost. Podle žaloby mu chatbot odpověděl, že nejde o selhání, ale jen o načasování. Tyto detaily teď budou důležitým podkladem, protože soud bude muset posoudit, do jaké míry může být výstup modelu považován za škodlivé doporučení a jaké povinnosti mají tvůrci AI vůči zranitelným uživatelům.



















