CDR.cz - Vybráno z IT

Microsoft potichu přiznal problém: Copilot je pouze pro srandu králíků

Zdroj: Freepik

Microsoft čelí kritice kvůli formulaci v podmínkách služby Copilot. Ta upozorňuje, že nástroj slouží jen pro zábavu a může chybovat. Firma tvrdí, že jde o starší text, který už neodpovídá realitě. Diskuse o důvěře v AI tím ale znovu zesílila.
Přidejte si CDR do oblíbených na Google News

Na první pohled jde o nenápadnou větu v dokumentu, který většina lidí ani nečte. Jenže právě podobné detaily někdy odhalí víc než samotné reklamy. V případě Copilotu se objevilo upozornění, že služba je určená pro zábavní účely, může se mýlit a neměla by být používána pro zásadní rozhodnutí.

Z právního hlediska to není nic neobvyklého. Podobné formulace se objevují i u jiných služeb, zejména tam, kde výstup není stoprocentně kontrolovatelný. Jenže Copilot už dávno není jen doplněk k vyhledávání. Microsoft ho aktivně tlačí do pracovního prostředí, kancelářských aplikací i firemních nástrojů.

A právě tady vzniká napětí. Zatímco marketing mluví o produktivitě a úspoře času, právní texty připomínají, že jde o technologii, která může udělat chybu kdykoliv.

Starý text v nové době

Microsoft na kritiku reagoval poměrně rychle. Podle vyjádření firmy jde o pozůstatek z doby, kdy byl Copilot spíš experimentem navázaným na Bing. Tehdy dávalo podobné upozornění větší smysl. Dnes už ale Copilot funguje jinak a používá se v úplně jiném kontextu.

Firma zároveň naznačila, že formulaci upraví. Ne proto, že by se samotná technologie zásadně změnila, ale protože způsob jejího využití se posunul dál. To je důležitý detail. AI se neproměnila ze dne na den v "bezchybný nástroj". Jen se přesunula z okraje do centra dění. A s tím roste i očekávání uživatelů.

Zdroj: ChatGPT

Kde je hranice mezi pomocníkem a rizikem

Celá situace ukazuje něco, co se v debatách o umělé inteligenci objevuje čím dál častěji. Lidé ji začínají používat jako oporu při rozhodování, i když k tomu ve skutečnosti není určená. Copilot dokáže zrychlit práci, pomoct s textem nebo vysvětlit složitější téma. Zároveň ale nemá přehled o kontextu, nenese odpovědnost a může generovat nepřesnosti. To není chyba konkrétního produktu, ale vlastnost celé technologie.

Právě proto se firmy chrání formulacemi, které na první pohled působí přehnaně opatrně. Ve skutečnosti tím jen říkají nahlas to, co uživatelé často přehlížejí. Debata kolem Copilotu tak není jen o jedné větě v podmínkách. Spíš připomíná, že mezi tím, co AI slibuje, a tím, co opravdu umí, je pořád znatelný rozdíl. A ten se nedá vyřešit jednou aktualizací textu. V konečném důsledku je za vygenerovaný text odpovědný autor a nikoliv AI.

To si mnozí neuvědomují a prezentují výtvory AI za vlastní, jako například studenti na univerzitách, kteří generují celé diplomové práce, což je obecně známo, že se děje. Odpovědnost za správnost ale nesou oni. Microsoft tak přiznává, že AI je spíš takovou "hračkou" nebo malým pomocníkem pro vysvětlení neznámých formulací, ale rozhodně by neměla být používána k těm účelům, ke kterým ji většina bohužel používá. Pak by ji na druhou stranu neměl na sílu vnucovat lidem na každém kroku.

Diskuze
Zdroje: