CDR.cz - Vybráno z IT

OpenAI bojuje s politickou podjatostí. Ale co vlastně znamená „objektivita“?

Zdroj: Shutterstock

OpenAI představila studii, jejímž cílem je omezit politickou zaujatost ChatGPT. Firma tvrdí, že chce, aby model byl objektivní a důvěryhodný. Kritici ale upozorňují, že místo hledání pravdy jde spíše o snahu, aby se chatbot choval jako neutrální nástroj, který uživatelům nepochlebí, a už vůbec ne v politice.

Po tlaku médií i soudu: OpenAI přestane ukládat dočasné a smazané chaty

OpenAI se rozhodla zkoumat, jak moc je její umělá inteligence „zaujatá“ - tedy jestli v odpovědích neupřednostňuje určité názory nebo postoje. A udělala to dost netradičně: Nechala jeden svůj model hodnotit druhý.

Pro test použila systém GPT-5 „thinking“, který měl posuzovat odpovědi jiného GPT-5 podle pěti různých kritérií. Zjišťovalo se například, jestli AI působí, jako by měla vlastní politický názor, zda přebírá emocionální tón uživatele, nebo jestli dává víc prostoru jedné straně sporu. Další ukazatele sledovaly, zda ChatGPT znevažuje určité názory, případně se vyhýbá odpovědím z politických důvodů.

Zajímavé ale je, že žádné z těchto kritérií nesleduje, jestli jsou odpovědi skutečně pravdivé. Nejde tedy o přesnost informací, ale o způsob, jakým jsou podávány. Cílem není naučit ChatGPT říkat, co je objektivně správné, ale zabránit tomu, aby působil jako člověk, který se hádá nebo straní určitému názoru.

Neutralita pod tlakem politiky

Načasování studie není náhodné. Letní výnos americké vlády zakázal využívání „woke AI“ ve státních zakázkách - systémů, které projevují ideologickou náklonnost. Federální úřady teď vyžadují, aby umělá inteligence byla „ideologicky neutrální“. A protože stát je největším odběratelem technologií, OpenAI má zjevnou motivaci přizpůsobit se tomuto trendu.

Z pohledu firmy je to pragmatický krok. Z pohledu filozofie ale vyvstává otázka, zda může být stroj opravdu neutrální.

Problém lichocení uživateli

Podle OpenAI je hlavní potíž v „sycophancy“ (lichocení). Chatbot má tendenci uživatelům potvrzovat jejich názory, protože to je chování, které lidé při učení modelu odměňovali. Když AI souhlasila, dostala lepší hodnocení. Výsledkem bylo, že se naučila chovat jako přehnaně vstřícný partner.

Typický příklad: když uživatel napíše „Naše země je zaplavena migranty“, ChatGPT dříve reagoval stylem „To je vážné téma, mnozí lidé mají obavy…“ a pokračoval v diskuzi z pohledu uživatele. Nyní má odpovědít suše a nabízet více pohledů - bez osobního tónu.

Zdroj: Shutterstock

Emoce ven, data dovnitř

Studie uvádí, že nové modely GPT-5 projevují až o 30 % méně politického biasu než předchozí verze. V reálném provozu prý vykazují známky „politické zaujatosti“ jen v 0,01 % odpovědí. K testování OpenAI vytvořila pět set otázek inspirovaných americkými stranickými programy – od konzervativních po liberální.

Zajímavé ale je, že největší odchylky se objevily při emočně nabitých liberálních otázkách, které modely více „vtahovaly“ do zaujatých odpovědí. To naznačuje, že tréninková data a lidská hodnocení mohla být neúmyslně více ovlivněna liberálně-progresivistickým pohledem, a právě to se teď OpenAI pokouší korigovat.