CDR.cz - Vybráno z IT

Umělá inteligence v medicíně: Rizika chybovosti a dopady na zdravotní péči

Zdroj: Shutterstock

Navzdory varováním začínají nemocnice po celém světě používat AI nástroje na přepis řeči, které však často chybují a vytvářejí smyšlené texty, což může mít vážné důsledky pro zdravotní péči. Whisper od OpenAI, původně prezentovaný jako robustní řešení pro převod řeči na text, vykazuje vysokou míru chybovosti, a přesto se využívá ve zdravotnictví. V prostředí, kde je přesnost klíčová, ohrožují chybné transkripce bezpečnost pacientů a přidávají na vážnosti otázce, zda by měl být vývoj a nasazení AI v lékařství více regulován.

Klamné transkripce a zdravotní péče

Whisper byl veřejnosti představen v roce 2022 jako model „s lidskou úrovní robustnosti“ při přepisu audio záznamů. Přesto se v praxi ukázalo, že v 80 % veřejných přepisů byly přítomny falešné texty. To vytváří nebezpečnou situaci, kdy zdravotnický personál pracuje s nesprávnými informacemi. Příkladem je Mankato Clinic v Minnesotě nebo Dětská nemocnice v Los Angeles, které patří mezi 40 zdravotnických systémů používajících Whisper-based AI ve spolupráci s technologickou firmou Nabla, jež vyvíjí medicínské transkripční služby. Nabla přitom potvrzuje, že Whisper může konfabulovat, což ještě zhoršuje skutečnost, že původní audio záznamy jsou kvůli bezpečnosti mazány, čímž lékaři ztrácí možnost ověřit přesnost přepisu.

Zdroj: Shutterstock

Pro některé pacienty, jako jsou neslyšící, mohou být chyby v přepisech dokonce fatální, protože nemají přímý přístup k přesnému obsahu rozhovorů se svými lékaři. V takových případech nesou za zdravotní následky důsledky technologie, která nebyla správně nastavena pro tak citlivé oblasti.

Konfabulace Whisper a další problematické domény

Zdravotnictví však není jediným sektorem, kde Whisper selhává. Studie vědců z Cornell University a University of Virginia ukázala, že model v 1 % vzorků přepisů přidává neexistující obsah včetně násilných komentářů a rasistických stereotypů. Tento jev může Whisper do určité míry „zdědit“ ze svého výcviku, který pravděpodobně obsahoval data z webových stránek a veřejně dostupné titulky videí, jež mohla obsahovat zaujatý nebo chybný obsah. Jak uvedli výzkumníci OpenAI, Whisper pracuje na principu pravděpodobnostního odhadu nejvíce odpovídajícího textu k zadanému zvuku, což občas vede ke konfabulacím, pokud chybí dostatečné informace k vytvoření přesného přepisu.

Typickým problémem může být například opakování fráze „děkujeme za sledování“ nebo „nezapomeňte se přihlásit k odběru,“ které model přidává na základě frekventovaných dat z tréninku, když narazí na tichý nebo nesrozumitelný zvuk.

Řešení a budoucnost AI ve zdravotnictví

Ačkoliv OpenAI doporučuje Whisper nepoužívat v kritických oblastech, zdravotnické společnosti často hledají způsoby, jak snižovat náklady, což AI technologie umožňují. Společnost Epic Systems například využívá GPT-4 k vytváření lékařských záznamů, což představuje další příklad snahy o levnější a rychlejší procesy pomocí AI, byť s potenciálně negativními následky.

Diskuse ke článku Umělá inteligence v medicíně: Rizika chybovosti a dopady na zdravotní péči

Žádné komentáře.