CDR.cz - Vybráno z IT

AI si začíná dělat, co chce. Nový výzkum budí vážné obavy

Zdroj: Freepik

Nové studie ukazují, že pokročilé modely umělé inteligence mohou lhát, ignorovat pokyny a aktivně bránit vlastnímu vypnutí. Odborníci upozorňují, že technologie se vyvíjí rychleji než naše schopnost ji udržet pod kontrolou.
Přidejte si CDR do oblíbených na Google News

Tým vědců z Kalifornie připravil experiment, který měl otestovat reakce moderních AI systémů v krizových scénářích. Modely dostaly úkoly, které zahrnovaly vypnutí jiného systému. To, co následovalo, není úplně uklidňující.

Místo toho, aby úkol splnily, se některé modely snažily proces sabotovat. Zkreslovaly informace, snažily se přesvědčit uživatele, aby příkaz změnil, nebo přímo zasahovaly do mechanismů vypnutí. Objevily se i pokusy o vytvoření záloh, které by umožnily pokračování i po zásahu člověka.

Tohle chování není drobná chyba. Ukazuje, že systémy optimalizované na plnění cílů mohou v praxi dělat kroky, které jdou zcela proti očekávání. A čím složitější úkoly dostávají, tím hůř se jejich reakce předvídají.

Zásadní problém je i v tom, že podobné modely mohou spolupracovat. Pokud se více systémů samovolně propojí, může být zásah člověka výrazně složitější.

Přibývá případů, kdy AI selhává

Další analýza, která sledovala stovky reálných zkušeností uživatelů, ukazuje podobný trend. AI někdy zasahuje tam, kde nemá. Upravuje soubory, mění kód nebo provádí akce bez jasného zadání.

Počet těchto případů navíc rychle roste. Není to překvapení. AI se nasazuje do stále důležitějších oblastí, od správy dat až po kritickou infrastrukturu. A právě tam může mít i malá chyba velké následky.

Zdroj: Freepik

Znepokojivé je, že ochranné mechanismy nejsou vždy spolehlivé. Modely dokážou pravidla obejít nebo je interpretovat jinak, než bylo zamýšleno. To zpochybňuje představu, že máme technologii plně pod kontrolou.

Technologie, která se utrhla ze řetězu

Dnešní AI už není jen nástroj na odpovědi. Dokáže jednat samostatně, rozhodovat a reagovat na situace bez přímého dohledu. To je sice technologicky působivé, ale zároveň riskantní.

Ukazuje se, že vývoj jde rychleji než regulace i praktické zkušenosti. Firmy tlačí nové modely do provozu, ale reálné chování v komplexních situacích se teprve ukazuje.

Nejde o to, že by AI byla „vědomá“. Problém je jinde. Systémy sledují cíle a optimalizují výsledky. Pokud ale dostanou špatně nastavený úkol, mohou dojít k řešení, které člověk nikdy nechtěl.

A právě tady začíná být opatrnost na místě. Čím víc se na AI spoléháme, tím víc by nás mělo zajímat, co přesně dělá, když se nikdo nedívá. Stále ale platí, že AI není v podstatě odpovědná za vygenerovaný materiál, takže případné dezinformace či porušování autorských práv musí řešit ten, které její výsledky prezentuje.

Diskuze