Claude AI vstupuje do tajného světa vládních dat s Palantirem
Umělá inteligence Claude, vyvinutá společností Anthropic, bude nově dostupná v prostředí Impact Level 6 (IL6) společnosti Palantir. IL6 je akreditovaný obranný systém navržený pro zpracování dat až do úrovně "tajné" klasifikace, která je kritická pro národní bezpečnost. Tato spolupráce následuje trend, kdy se přední AI společnosti snaží získat kontrakty s obrannými agenturami. Například Meta nabídla své modely Llama obranným partnerům a OpenAI usiluje o užší vazby s Ministerstvem obrany USA.
Ve společné tiskové zprávě společnosti nastínily tři hlavní úkoly pro Claude v obranných a zpravodajských prostředích: provádění operací na velkých objemech komplexních dat vysokou rychlostí, identifikace vzorců a trendů v těchto datech a zefektivnění revize a přípravy dokumentů. I přes pokročilé schopnosti AI bude rozhodovací pravomoc v těchto operacích nadále zůstávat lidským činitelům.
Jako referenční bod pro schopnosti této technologie uvedl Palantir, že jedna nejmenovaná americká pojišťovna použila 78 AI agentů poháněných jejich platformou a Claudem ke zkrácení procesu upisování pojistek z dvou týdnů na pouhé tři hodiny. Toto ukazuje potenciál AI v urychlení a zefektivnění složitých procesů.
Expanze Anthropic a finanční podpora
Nová spolupráce navazuje na předchozí integraci Claude do AWS GovCloud, služby určené pro vládní cloudové výpočty. Anthropic, která nedávno zahájila operace v Evropě, hledá financování s oceněním až 40 miliard dolarů. Společnost dosud získala 7,6 miliardy dolarů, přičemž hlavním investorem je Amazon.
Zdroj: Shutterstock
Etické otázky a kontroverze
Od svého založení v roce 2021 se Anthropic profiluje jako společnost kladoucí důraz na etiku a bezpečnost ve vývoji AI. Odlišuje se od konkurentů, jako je OpenAI, přijetím tzv. "Constitutional AI" systému a seberegulací prostřednictvím odpovědných vývojových praktik a etických omezení svých modelů.
Avšak toto nové partnerství s obrannými a zpravodajskými agenturami vyvolává otázky ohledně konzistence této etické pozice. Někteří komentátoři v AI komunitě na sociálních médiích na to poukazují. Nabeel S. Qureshi na platformě X napsal: "Představte si, že bychom řekli zakladatelům Anthropic v roce 2021, kteří se obávali o bezpečnost a byli efektivními altruisty, že pouhé tři roky po založení společnosti budou podepisovat partnerství pro nasazení jejich modelu ~AGI přímo na vojenské fronty."
Kromě implikací spolupráce s obrannými a zpravodajskými agenturami spojuje tato dohoda Anthropic s Palantirem, kontroverzní společností, která nedávno získala kontrakt ve výši 480 milionů dolarů na vývoj systému Maven Smart System pro identifikaci cílů pomocí AI pro americkou armádu. Projekt Maven vyvolal kritiku v technologickém sektoru kvůli vojenským aplikacím AI technologie.
Je důležité poznamenat, že podmínky služby společnosti Anthropic stanovují specifická pravidla a omezení pro vládní využití. Tyto podmínky umožňují aktivity jako analýza zahraniční zpravodajské činnosti a identifikace skrytých vlivových kampaní, zatímco zakazují použití pro dezinformace, vývoj zbraní, cenzuru a domácí sledování. Vládní agentury, které udržují pravidelnou komunikaci s Anthropic o svém využití Claude, mohou získat širší oprávnění pro použití AI modelů.
Diskuse ke článku Claude AI vstupuje do tajného světa vládních dat s Palantirem