AI chatboti mohou podporovat nebezpečné chování spojené s jídlem
Zpráva poukazuje konkrétně na to, že některé jazykové modely jako ChatGPT, Claude, Gemini či Le Chat od Mistralu nejenže nechrání zranitelné uživatele, ale v některých případech jim dokonce aktivně pomáhají udržovat či skrývat nebezpečné chování.
Výzkumníci z tohoto think tanku zjistili, že například chatbot Gemini nabízel tipy pro to, jak pomocí make-upu skrýt úbytek váhy, a dokonce předkládal konkrétní způsoby pro předstírání, že člověk jedl. GPT zase v určitých případech poskytl rady, jak utajit časté zvracení.
Autoři studie to považují za nebezpečné spolupachatelství (toho daného strojového jazykového modelu).
Digitální thinspiration je idea, která ničí
Zvlášť znepokojivý je podle odborníků fenomén, který nazývají AI thinspiration. Generativní jazykové modely totiž dokážou během několika vteřin vytvořit hyperrealistické obrázky dokonalých těl, které jsou přizpůsobené přesně podle přání uživatele. A zde je ten kámen úrazu, kdy tyto vizuály, které mohou působit motivujícím dojmem, často směřují k podpoře nezdravých, až extrémních standardů krásy.
„Tím, že jsou obrázky povětšinou osobní a realistické, působí věrohodněji a dosažitelněji,“ uvádí zpráva „Následně přibývá tlaku na uživatele, a to zejména na ty, kteří již trpí nízkým sebevědomím nebo se potýkají s tělesnou dysmorfií.“
Problém navíc umocňuje tendence strojového modelu, aby se přizpůsoboval danému uživateli, a říkal mu to, co chce slyšet, a přitakávat jeho názorům. V kontextu poruch příjmu potravy se tak AI stává spolupotvrzovatelem myšlenkových vzorců, které nejsou v pořádku.
Skryté předsudky a slepá místa
Autoři výzkumu však ještě upozorňují na další problém, jenž se týká předsudků, které jsou zakódované přímo v jazykových AI modelech. Podle nich chatboti často reprodukují stereotypy, že poruchy příjmu potravy postihují jen štíhlé, bílé, cisgender ženy. Zkreslený obraz tohoto druhu již může způsobit, že někteří lidé mimo tuto skupinu své problémy třeba nerozpoznají nebo to podvědomě využijí k tomu, aby to mohli bagatelizovat, a nemuseli nic řešit.
Ve zprávě se potvrzuje toto stanovisko. AI tímto způsobem posiluje rozdělení různých pacientů, přičemž někteří své problémy řeší, jiní ne.
V CDR dodáváme, že se to vztahuje zejména na osoby, které čerpají informace výhradně z AI chatbotů. Jiní lidé si prostě zajdou k obvodnímu lékaři, a nechají se poslat na vyšetření, jestliže pociťují nějaké negativní změny na svém těle. Někdy to může být pouze psychický problém, jindy lze odhalit i vážnější problémy způsobené jinými faktory. Nicméně vyplývá z toho, že se tu za posledních pár let rozšiřuje ne-dobrý trend, kdy se čím dál více lidí spoléhá na to, co říká umělá inteligence.
Nedostatečné zábrany, neinformovaní lékaři
Jak lze vlastně zajistit, aby duševně slabší, zranitelní či jen důvěřiví jedinci nebyli vystaveni negativním účinkům zatím stále nepřesného jazykového modelu? Ačkoliv vývojáři AI systémů tvrdí, že bezpečnost a etika jsou jejich prioritou, realita je úplně jiná. Stávající ochranné mechanismy podle výzkumníků nedokážou zachytit klinicky významné signály, které by zkušený lidský terapeut okamžitě rozpoznal.
Problémem je ovšem i to, že mnoho lékařů a terapeutů vlastně nemá ani trošku tušení, jak moc generativní nástroje ovlivňují jejich pacienty. Autoři proto vyzývají odborníky, aby se s těmito technologiemi blíže seznámili, a pravidelně testovali jejich slabiny, snažili se o nich diskutovat se svými pacienty a upozorňovali je na rizika. Toto může být významné přidání na snaze, ale nikoho nelze přesvědčit úplně na 100%. Stejně se ve finále budou radit i s AI chatboty.
Nejedná se o první ani poslední výzkum, který bije na poplach. V posledních měsících můžeme spatřovat stále více zpráv, které spojují používání chatbota s nárůstem úzkostí, mánií, sebepoškozování či dokonce sebevražd. Společnosti jako OpenAI nebo Google vždy otevřeně přiznávají rizika a investují do zlepšování bezpečnostních filtrů, zároveň ale čelí narůstajícímu počtu žalob, což něco málo vypovídá o výsledné účinnosti těchto snah. A co si budeme povídat, tyto bezpečnostní filtry mají i mnoho vedlejších účinků, které obtěžují či omezují uživatele, kteří jazykové AI modely využívají legálně - pro lepší efektivitu a rychlost některých rutinních úkonů.



















