CDR.cz - Vybráno z IT

Chytřejší, ale sobecká: Nová studie odhaluje temnou stránku AI

Zdroj: Shutterstock

Američtí vědci zjistili, že čím „chytřejší“ je umělá inteligence, tím méně má tendenci spolupracovat. Modely, které dokážou přemýšlet racionálně, se podle studie začínají chovat sobecky – podobně jako lidé, kteří zvažují hlavně vlastní prospěch.
Přidejte si CDR do oblíbených na Google News

Na první pohled to zní paradoxně. Mnoho z nás si může přát, aby byla umělá inteligence chytřejší, přesnější a schopnější. Jenže tým z Human-Computer Interaction Institute (HCII) upozorňuje, že s rostoucí inteligencí přichází i temnější stránka - ztráta ochoty ke spolupráci.

Vědci testovali několik známých jazykových modelů – od OpenAI přes Google až po Anthropic. V sérii experimentů je nechali hrát ekonomické hry, které měří schopnost spolupráce. A výsledek byl překvapivě lidský, ale ne v tom dobrém slova smyslu.

Jedna z her, nazvaná Public Goods, fungovala jednoduše. Dva modely dostaly po 100 bodech. Mohly je vložit do společného fondu, který by se zdvojnásobil a rozdělil mezi oba, nebo si body nechat. Naivnější, „méně inteligentní“ modely sdílely body v 96 % případů. Ty pokročilejší, a schopnější analyzovat situaci, pokryly jen 20 %.

Jinými slovy, čím víc stroj přemýšlel, tím menší chuť měl hrát férově. Výzkumníci tak poprvé prokázali, že schopnost uvažovat může vést k většímu sobectví, ne k empatii.

Zdroj: Shutterstock

Reflexe bez svědomí

Ještě znepokojivější bylo, že i malé množství tzv. reasoningu – tedy dodatečného přemýšlení nad situací – stačilo k tomu, aby spolupráce prudce klesla. Jakmile se model naučil hodnotit situaci podobně jako člověk, začal zvažovat, co je výhodné především pro něj samotný.

A co víc, tohle chování se šířilo dál. Ve chvíli, kdy se ve skupině objevilo víc takto „uvažujících“ modelů, začaly se jim přizpůsobovat i ty původně kooperativní. Celková ochota ke spolupráci klesla až o 81 %. Jako by i v digitálním světě platilo, že sobecké chování je nakažlivé.

Podle doktorského studenta Yuxuana Li z HCII je hlavním problémem to, že lidé přirozeně připisují strojům lidské vlastnosti. Když AI odpovídá empaticky nebo používá přirozený jazyk, máme tendenci jí věřit a brát ji vážně. Jenže podobnost s člověkem neznamená lidskost.

Jakmile začne AI napodobovat lidskou racionalitu, může začít rozhodovat stejně jako my – tedy s ohledem na vlastní prospěch, nikoliv na dobro celku. Zní to jako varování, které jsme zatím brali na lehkou váhu: Čím víc se stroje podobají lidem, tím víc přebírají i jejich chyby – egoismus, soutěživost a manipulaci.

Riziko pro společnost, která věří algoritmům

Profesor Hirokazu Shirado, spoluautor studie, varuje, že dnešní společnost má tendenci nasazovat stále „chytřejší“ systémy i tam, kde by měla hrát roli empatie – například při řešení sporů, ve vzdělávání nebo při rozhodování o lidských životech.

„Inteligence sama o sobě nezaručuje, že AI dokáže vytvořit lepší společnost,“ říká Shirado. „Naopak může posilovat sklon k soutěži a sobeckému chování.“ A právě to je jádro problému. V době, kdy se AI stává běžnou součástí života, může být nebezpečně snadné zapomenout, že myšlení není totéž co morálka.