Google AI odpovídá rychle, ale každá desátá odpověď může být špatně
Google postupně mění způsob, jakým lidé vyhledávají informace. Místo seznamu odkazů se stále častěji objeví hotová odpověď, kterou vytvoří AI Overviews postavené na modelu Gemini. Je to rychlé a pohodlné. Jenže právě tady se začíná ukazovat slabina.
Analýza, na které se podílel The New York Times spolu se startupem Oumi, se pokusila změřit, jak přesné tyto odpovědi skutečně jsou. Výsledek vychází zhruba na 90 procent. To zní dobře, dokud si člověk nepřepočítá, co to znamená v praxi. Každá desátá odpověď může být chybná.
Test vycházel z databáze SimpleQA, kterou připravila OpenAI. Jde o tisíce otázek s jasně ověřitelnou odpovědí. Právě na nich se ukazuje, že AI sice často působí sebejistě, ale občas si jednoduše domýšlí nebo špatně vyhodnotí zdroj.
Typický příklad? Dotaz na to, kdy se dům Boba Marleyho stal muzeem. AI si vzala několik odkazů, z nichž dva odpověď vůbec neobsahovaly. Nakonec sáhla po Wikipedii, kde byly dva různé roky, a vybrala ten špatný. V jiném případě dokonce tvrdila, že neexistuje Classical Music Hall of Fame, přestože na něj sama odkazovala.
Google s výsledky úplně nesouhlasí. Podle mluvčího Neda Adriance test neodpovídá reálnému chování uživatelů a obsahuje nepřesnosti. Firma používá vlastní variantu hodnocení, která má být přesnější. Zároveň ale přiznává, že AI Overviews nevyužívá vždy stejný model. Často běží na rychlejší verzi Gemini Flash, která je levnější a svižnější, ale ne tak přesná jako výkonnější varianty.
A tady je jádro problému. Vyhledávání musí být okamžité. Jenže čím rychlejší odpověď, tím větší šance, že se netrefí. Google sám pod odpověďmi upozorňuje, že AI může dělat chyby. Jenže většina lidí už dál nepokračuje. To, co vidí nahoře, prostě vezme jako hotovou věc.
Celé to tak není o tom, že by AI nefungovala. Funguje. Ale zatím není bezchybná. A dokud se to nezmění, pořád platí staré pravidlo. Když jde o něco důležitého, vyplatí se kliknout o řádek níž a podívat se na zdroj.




















