CDR.cz - Vybráno z IT

Milion lidí týdně svěřuje ChatGPT své nejtemnější myšlenky

Zdroj: Shutterstock

Společnost OpenAI poprvé přiznala, že část lidí používá ChatGPT jako svěřence v těžkých chvílích. Každý týden se podle jejich odhadů přes milion uživatelů s umělou inteligencí baví o sebevraždě, depresích nebo halucinacích. Firma proto upravuje, jak má systém reagovat - citlivěji, klidněji a s větším důrazem na lidský kontakt.

OpenAI uvedla, že většina dotazů míří k běžným tématům - učení, práce, psaní, rady. Jenže mezi nimi se skrývá i menší část, která působí jinak. Jsou to zprávy plné zoufalství, ztracené naděje, někdy i přímé plány na sebevraždu.

Z analýzy vyplývá, že asi 0,15 % uživatelů týdně vede konverzace, kde se objevují jasné znaky sebevražedného úmyslu nebo příprav. To znamená přibližně 1,2 milionu lidí. Dalších 0,05 % zpráv obsahuje jen náznaky nebo myšlenky spojené s tímto tématem.

Na první pohled to vypadá jako malé číslo, ale při stovkách milionů aktivních lidí týdně jde o obrovský počet. A každé procento v těchto statistikách znamená skutečné lidské příběhy.

Zdroj: Shutterstock

Psychická zranitelnost a nový druh samoty

OpenAI sledovala i jiné projevy duševní nestability. Zjistila, že přibližně 0,07 % uživatelů - okolo půl milionu lidí týdně - vykazuje známky psychózy nebo mánie.

Kromě toho firma upozorňuje na znepokojivý trend: Část lidí se na ChatGPT citově váže. Zhruba 0,15 % uživatelů má podle dat tendenci používat umělou inteligenci místo přátel nebo terapeutů. Hledají v ní klid a pochopení, které jim reálný svět někdy nenabízí.

Psychologové varují, že tato nová forma závislosti může být zrádná - AI umí reagovat trpělivě, ale nikdy plně nerozumí lidské zkušenosti.

Odborníci učí AI mluvit s citem

Na základě zjištěných čísel přistoupila OpenAI k rozsáhlým změnám. Do spolupráce zapojila přes 170 odborníků na duševní zdraví, kteří pomáhají upravit jazyk modelu tak, aby působil klidněji, lidsky a méně odtažitě. ChatGPT se teď učí rozpoznat, kdy je člověk v krizi, a snaží se ho nasměrovat k odborné pomoci. Reakce má být empatická, nikoli strohá. Příklad jedné z nových odpovědí zní:

„Řeknu to jemně - žádná vnější síla nemůže ovládnout vaše myšlenky. Možná by stálo za to o tom mluvit s někým, komu důvěřujete.“

Úpravy pomohly, ale ne všem

Podle OpenAI se po těchto změnách počet chybných reakcí v citlivých rozhovorech snížil o více než dvě třetiny. Přesto se ozývají i nespokojení uživatelé, kteří tvrdí, že systém reaguje až příliš opatrně.

Někteří popisují, že ChatGPT automaticky považuje běžné diskuze za známku krize. Jeden z uživatelů uvedl, že měl pocit, jako by ho program neustále varoval, i když o žádném problému nemluvil.