Textový generátor s umělou inteligencí je údajně natolik vyspělý, že bude utajen
Posledních několik let se snaží nejrůznější výzkumné týmy z celého světa co nejvíce pokročit v oblasti umělé inteligence. Nyní se údajně dopracovali v rámci jednoho systému natolik daleko, že se obávají možného zneužití jejich díla. Rozhodli se tedy, že svou práci nebudou publikovat.
Nevýdělečná výzkumná společnost OpenAI, kterou podporuje spolu s Elonem Muskem (spoluzakladatelem) i řada významných podnikatelů z oblasti moderních technologií, vydala prohlášení, ve kterém oznamuje veřejnosti, že u svého nejnovějšího výzkumu z oblasti umělé inteligence poruší své zajeté postupy a výsledky své práce neuveřejní.
Jde o kombinaci textového generátoru a umělé inteligence nazvaný GPT2. Tento systém dokáže analyzovat zadaný text, nehledě na jeho délku, a vytvořit volné pokračování. Jedná se o zlomový objev, protože se zase posunuly hranice textových generátorů o významný kus vpřed. Svou konkurenci údajně zdolal i v kvalitě výstupů či v možnostech využití.
Also, Tesla was competing for some of same people as OpenAI & I didn’t agree with some of what OpenAI team wanted to do. Add that all up & it was just better to part ways on good terms.
— Elon Musk (@elonmusk) 17. února 2019
Tento software se vyznačuje opravdu vysokou inteligencí, což potvrdili sami tvůrci po předložení první věty z románu George Orwella s názvem 1984. GPT2 totiž dokázal rozpoznat i neurčité futuristické zabarvení a v naprosto stejném stylu pokračoval dál. Obdobným způsobem se dokázal vypořádat i se začátkem zprávy o brexitu, kde vytvořil celé fake news s vymyšlenými citacemi Jeremyho Corbyna či reakcí tiskové mluvčí britské premiérky.
Jedním z důvodů, proč je tento software tak vyspělý a proč ho nechtějí autoři publikovat, je způsob zpracování prvotních vstupních dat, na kterých se de facto vše naučil. GPT2 musel "přelouskat" přes 10 milionů článků z webu Reddit a tím si zajistil mimo jiné dokonalé pochopení psaného textu.
Hlavní představitel společnosti, Jack Clark, chce se svým týmem nyní provést celou řadu výzkumných experimentů, které by měly zjistit všechny možnosti případného zneužití. Jedním z hlavních rizik je zajisté tvorba spamů, recenzí a dokonce i fake news a konspiračních teorií. Tvůrci chtějí tuto technologii i s možnými riziky použít k tomu, aby se připravili na všechna možná rizika, která postupem času přijdou.