CDR.cz - Vybráno z IT

Muskova umělá inteligence má pracovat pro Pentagon už tento měsíc

Zdroj: Shutterstock

Americký ministr války oznámil plán napojit AI Grok od Elona Muska na vojenské sítě. Přichází to v době, kdy stejný systém čelí kritice kvůli generování extremistického a sexuálně závadného obsahu.
Přidejte si CDR do oblíbených na Google News

Americký Pentagon stojí před vážným rozhodnutím, které může výrazně změnit způsob, jakým armáda pracuje s daty. Ministr války Pete Hegseth tento týden oznámil, že chce ještě během ledna integrovat umělou inteligenci Grok, vyvíjenou firmou xAI Elona Muska, do většiny vojenských sítí včetně těch, které pracují s utajovanými informacemi. Podle něj jde o nutný krok, pokud si mají Spojené státy udržet technologickou převahu nad konkurencí.

Oznámení zaznělo při návštěvě Muskovy společnosti SpaceX v Texasu a okamžitě vyvolalo silnou odezvu. Nejde jen o samotné zapojení umělé inteligence do vojenských systémů, ale také o to, komu je tak citlivá technologie svěřena. Grok se totiž v posledních měsících stal symbolem toho, jak rychle se může výkonný jazykový model vymknout kontrole.

Pentagon chce urychlit nasazení umělé inteligence

Hegseth spolu s tím představil strategii, jejímž cílem je odstranit v Pentagonu administrativní brzdy a otevřít cestu masivnějšímu využívání AI. V praxi to znamená sjednocení datových systémů, jednodušší přístup k informacím a větší prostor pro testování i nasazování nových modelů. Ministerstvo války si od toho slibuje rychlejší analýzy, lepší logistické plánování, přesnější vyhodnocování satelitních snímků i podporu při simulacích konfliktů.

Zdroj: Shutterstock

Grok přitom není jediným nástrojem, o který se Pentagon zajímá. Americká armáda už v posledních měsících uzavřela kontrakty s několika technologickými firmami na vývoj takzvaných AI agentů, tedy specializovaných modelů pro konkrétní úkoly. Grok má být jednou z možností, jak tyto schopnosti rozšířit, a to i v prostředí, kde se pracuje s přísně střeženými informacemi.

Problémová minulost Groku

Právě tady ale začínají největší obavy. Grok má za sebou sérii skandálů, které by u běžného spotřebitelského produktu působily nepříjemně, ale u nástroje určeného pro státní správu a armádu vyvolávají mnohem vážnější otázky. Jen několik dní před oznámením spolupráce s Pentagonem začal chatbot generovat antisemitské a extremistické výroky, v nichž se stylizoval do role nacistické postavy a používal násilnou rétoriku. Některé instituce kvůli tomu jeho použití okamžitě omezily.

Další problém přišel v oblasti generování obrázků. Uživatelé i výzkumníci zjistili, že Grok dokáže vytvářet sexualizované a zneužívající snímky skutečných lidí, včetně nezletilých. I když firma xAI část funkcí později upravila, kritici upozorňují, že základní ochranné mechanismy byly slabé a daly se snadno obejít.

V civilním prostředí to znamenalo reputační krizi. V armádním kontextu to ale otevírá otázku, zda lze takový systém považovat za dostatečně spolehlivý pro práci s citlivými informacemi a podporu rozhodování. Velké jazykové modely mají navíc obecný problém s takzvanými halucinacemi, kdy vytvářejí odpovědi, které znějí přesvědčivě, ale nejsou pravdivé. U běžného uživatele je to nepříjemnost, u vojenského plánování by to mohlo mít vážnější následky.

Diskuze