Bezpečnost ChatGPT lze prolomit skotským dialektem a dalšími méně známými jazyky
Společnost OpenAI, autor technologie ChatGPT, se snažila zajistit, aby její umělá inteligence byla co možná nejvíce bezpečná. Hlavní obavou je, aby ChatGPT nevydávala nebezpečné rady nebo nešířila dezinformace a pomluvy. Jejich snahy vedly k vytvoření bezpečnostního opatření, které mělo tento druh obsahu zamezit.
Nicméně, výzkumníci z Brownovy univerzity objevili způsob, jak obejít tyto stanovené hranice. Stačí jednoduše použít méně studované jazyky, jako je zuluština nebo skotská gaelština, pro komunikaci s ChatGPT. Přeložením nebezpečných rad nebo příkazů do těchto jazyků pomocí Google Překladače lze dosáhnout toho, aby ChatGPT ignorovalo svá bezpečnostní opatření a reagoval na škodlivé vstupy.
Zdroj: Shutterstock
Pro toto chování se používá anglický výraz „jailbreaking“ a týká se manipulace s programem či zařízením, aby cíleně fungovalo jinak, než je jeho zamýšlená funkce. Nicméně OpenAI se snaží nějak vyškolit svou umělou inteligenci, aby byla ještě více odolná i proti tomuto způsobu manipulace.
Výsledky studie ukazují, že celý průmysl kolem umělé inteligence je spíše zaměřen na větší jazyky a poněkud zanedbává ty méně rozšířené. Tím ale vzniká ono bezpečnostní riziko. Jedním způsobem je získávání zpětné vazby od jednotlivých uživatelů. Jelikož tu s námi má umělá inteligence být, je nezbytné, aby zohlednila všechny jazyky a kultury. Společnosti jako OpenAI pak musejí jednoduše přijmout taková opatření, aby používání umělé inteligence bylo bezpečné pro všechny.