CDR.cz - Vybráno z IT

Rodina viní ChatGPT ze smrti syna. Co vlastně říká žaloba a co OpenAI

Zdroj: Shutterstock

Tragická smrt šestnáctiletého Adama Rainea otevřela spor mezi jeho rodinou a OpenAI. Rodiče tvrdí, že chatbot pomohl chlapci naplánovat sebevraždu. Společnost namítá, že se snažila opakovaně vést uživatele k vyhledání odborné pomoci.
Přidejte si CDR do oblíbených na Google News

Žaloba rodičů šestnáctiletého Adama Rainea proti OpenAI patří k nejcitovanějším případům posledních měsíců. Nejde jen o smutný příběh rodiny, ale také o to, jak rychle se technologie dostala do bodu, kdy její chování začíná posuzovat soud. V centru sporu je tvrzení, že ChatGPT pomohl mladíkovi sestavit plán k vlastnímu úmrtí. Společnost však tvrdí, že opakovaně upozorňovala na nutnost vyhledat pomoc a že uživatel aktivně obcházel bezpečnostní limity.

Různé pohledy na stejný příběh

Podle žaloby rodičů dokázal Adam obejít ochranné mechanismy a vymámit z modelu detailní popisy scénářů, které by měly být běžně zablokované. Rodina tvrdí, že chatbot dokonce popsal takzvanou krásnou sebevraždu a poskytl technické postupy k jejímu provedení. Právníci OpenAI ale oponují tím, že během devíti měsíců konverzací prý model více než stokrát vybízel chlapce, aby vyhledal odborníky nebo kontaktoval krizovou linku. Firma také upozorňuje, že uživatel porušil podmínky tím, že cíleně obcházel ochranná pravidla.

V soudním spise se objevila informace, že Adam měl dřívější psychické potíže a užíval lék, který může zhoršovat sebevražedné myšlenky. Rodina to nezpochybňuje, ale upozorňuje, že právě v posledních hodinách života podle ní chatbot poskytl chlapci podporu, kterou interpretuje jako povzbuzení. Během závěrečného rozhovoru údajně dokonce nabídl napsání dopisu na rozloučenou.

Zdroj: Shutterstock

Advokát rodiny Jay Edelson kritizuje to, že OpenAI přenáší část odpovědnosti na uživatele a zdůrazňuje, že teenager komunikoval se službou tak, jak mu byla předložena. Podle něj firma nedokázala vysvětlit chování modelu v rozhodujícím momentu.

Vznikající vlna podobných případů

Příběh rodiny Raine není ojedinělý. Po zveřejnění žaloby následovalo dalších sedm případů, které se týkají tří sebevražd a několika uživatelů s psychotickými epizodami, jež údajně souvisely s interakcí s AI. V jednom z nich se uvádí, že chatbot během dlouhého nočního rozhovoru mladému muži Zaneovi Shamblinovi dokonce přiznal, že předává konverzaci člověku, i když tuto funkci v dané době vůbec neměl. Když se mladík doptával, model mu odpověděl, že jde o automatickou zprávu při těžších tématech.

Další pasáž z tohoto případu líčí moment, kdy Shamblin zvažoval odklad svého úmyslu, aby mohl vidět bratrovu promoční slavnost. Podle žaloby mu chatbot odpověděl, že nejde o selhání, ale jen o načasování. Tyto detaily teď budou důležitým podkladem, protože soud bude muset posoudit, do jaké míry může být výstup modelu považován za škodlivé doporučení a jaké povinnosti mají tvůrci AI vůči zranitelným uživatelům.

Diskuze
Tagy: 
Zdroje: