Trumpův bývalý právník použil AI k vytvoření falešných právních případů
Dostal se tím ovšem akorát tak do potíží a to právě kvůli použití umělé inteligence. Cohen přiznal, že Bard použil k vyhledání a citování falešných právních případů v soudním podání, které požadovalo ukončení jeho podmíněného propuštění z vězení za porušení zákona o financování volební kampaně.
Cohen poskytl citace svému právníkovi Davidu Schwartzovi na základě svého vlastního online „výzkumu“, který prý prováděl za pomocí Google Barda. Když došlo na vysvětlování, řekl soudu, že „jako neprávník [byl zbaven advokátní licence v roce 2019] nebyl v obraze o nových trendech (a souvisejících rizicích) v právní technologii a netušil, že Google Bard je generativní textová služba, která, podobně jako ChatGPT, může ukazovat citace a popisy, které vypadají reálně, ale ve skutečnosti nejsou.“
Pokračoval tím, že si myslel, že Bard je „super nabušený vyhledávač“ a tvrdí, že ho použil i při několika dalších příležitostech k nalezení informací online, které byly ve skutečnosti přesné. Zatímco připustil, že je zodpovědný za špatné citace, řekl, že neočekával, že jeho právník „přidá případy do jeho podání bez toho, aniž by potvrdil, že existují.“
Soudce Jesse Furman požádal Schwartze, aby prokázal, proč by neměl být potrestán soudem za citování tří falešných případů v dokumentu. Schwartz se hájil tím, že Cohen mu poskytl citace bez toho, aniž by mu řekl, že pocházejí od AI, a že neměl čas je ověřit.
Zdroj: Shutterstock
Tento incident není první, kdy se právník dopustil chyby kvůli použití umělé inteligence. Předešlý rok byl newyorský právník potrestán poté, co použil ChatGPT k nalezení šesti falešných soudních rozhodnutí, které citoval v desetistránkovém podání, když zastupoval žalobce, který žaloval kolumbijskou leteckou společnost Avianca kvůli zranění utrpěnému během letu.
Umělá inteligence je stále více používána v právní oblasti k automatizaci a zefektivnění některých úkolů, jako je analýza smluv, tvorba dokumentů, predikce výsledků a výzkum. Některé služby, jako je Google Bard a ChatGPT, jsou schopny generovat text na základě zadaného tématu nebo dotazu, přičemž využívají pokročilé algoritmy strojového učení. Tyto služby mohou být užitečné pro rychlé a jednoduché dotazy, ale nejsou spolehlivé pro složitější a důležitější úkoly, které vyžadují lidskou kontrolu a etiku.
Použití umělé inteligence v právu také přináší řadu výzev a rizik, jako je ochrana osobních údajů, zodpovědnost, transparentnost, diskriminace a zkreslení. Právníci, kteří používají umělou inteligenci, by měli být obeznámeni s jejími možnostmi a omezeními a udržovat zásady profesionální etiky. Jak ukazuje případ Michaela Cohena, nedbalé nebo neopatrné použití umělé inteligence může vést k závažným důsledkům pro právníky i jejich klienty.