Odhalení: Soudní dokument v Minnesotě obsahuje AI text s falešnými citacemi
Generální prokurátor Minnesoty Keith Ellison požádal Jeffa Hancocka, zakladatele a ředitele Stanford Social Media Lab, aby vypracoval prohlášení na podporu zákona. Avšak dokument předložený soudu obsahuje odkazy na studie, které podle všeho neexistují. Jedna z citovaných prací, údajně publikovaná v roce 2023 v časopise Journal of Information Technology & Politics pod názvem "The Influence of Deepfake Videos on Political Attitudes and Behavior", nebyla v žádném archivu tohoto či jiného časopisu nalezena. Další citovaný zdroj "Deepfakes and the Illusion of Authenticity: Cognitive Processes Behind Misinformation Acceptance" rovněž není dohledatelný.
Advokáti zastupující státní poslankyni Mary Franson a youtubera Christophera Kohlse, známého jako Mr. Reagan, ve svém podání uvedli: "Tato citace nese znaky 'halucinace' umělé inteligence, což naznačuje, že byla generována velkým jazykovým modelem, jako je ChatGPT." Dále dodali, že tato skutečnost zpochybňuje celý dokument, zejména když jeho obsah postrádá jasnou metodologii či analytický rámec.
Jeff Hancock se k těmto obviněním zatím veřejně nevyjádřil. Pokud by se potvrdilo, že dokument obsahuje text vytvořený AI s falešnými citacemi, mohlo by to mít závažné důsledky pro právní proces a důvěryhodnost důkazů předložených soudem. V právním prostředí, kde je přesnost a spolehlivost informací klíčová, může taková chyba podkopat celý případ.
Tato situace poukazuje na širší problém spojený s používáním umělé inteligence v profesionálních oblastech. Velké jazykové modely, jako je ChatGPT, jsou známé tím, že mohou vytvářet přesvědčivě znějící, avšak smyšlené informace—a tento jev je označován jako "halucinace" AI. V kontextu právních dokumentů může takové selhání vést k vážným nedorozuměním a narušit důvěru v předložené argumenty.
Zákon v Minnesotě, který zakazuje použití deepfake technologie k ovlivnění voleb, je předmětem intenzivních debat. Zastánci tvrdí, že je nezbytný pro ochranu integrity volebního procesu, zatímco kritici upozorňují na omezování svobody projevu a riziko zneužití zákona k potlačení legitimního politického vyjádření. Nynější odhalení ohledně možného použití AI v klíčovém soudním dokumentu přidává další vrstvu složitosti a nejistoty.
Zdroj: Shutterstock
Experti varují před nekritickým přijímáním informací generovaných umělou inteligencí. "Umělá inteligence je mocný nástroj, ale není neomylná," říká technologická analytička Jana Novotná. "Je nezbytné pečlivě ověřovat všechny informace, zejména v oblastech, kde mohou mít reálné dopady na životy lidí a fungování společnosti."
Tento případ v Minnesotě slouží jako varovný příklad toho, jak může neuvážené použití AI vést k vážným problémům. Zdůrazňuje potřebu zavedení jasných pravidel a standardů pro používání umělé inteligence v právním a jiném profesionálním kontextu. Také připomíná důležitost lidského faktoru při ověřování a interpretaci informací v době, kdy technologie stále více pronikají do všech oblastí našeho života.
Jak se situace vyvine, zůstává otázkou. Jasné však je, že důvěryhodnost a přesnost informací musí zůstat v centru pozornosti, a to i (nebo zvláště) v éře rychle se rozvíjející umělé inteligence. Právní systém se bude muset adaptovat na nové výzvy, které tyto technologie přinášejí, a zajistit, aby byly používány odpovědně a eticky.