Google mění etické zásady pro AI: Cesta k vojenskému využití?
Původní etické zásady Googlu, poprvé zveřejněné v roce 2018, obsahovaly jednoznačné odmítnutí vývoje zbraní a sledovacích technologií na bázi AI. Nyní však Google tyto závazky vypustil a místo nich se soustředí na tři nové hlavní principy: inovaci, spolupráci a odpovědný vývoj. Problémem je, že "odpovědný vývoj" se v oficiálních vyjádřeních Googlu vyhýbá konkrétním závazkům a nabízí pouze obecné fráze o podpoře demokracie a lidských práv.
Demis Hassabis, šéf Google DeepMind, a James Manyika, viceprezident Googlu pro technologie a společnost, změny obhajují jako nutné přizpůsobení se geopolitické realitě. Ve svém blogovém příspěvku uvedli:
"Probíhá globální závod o vedoucí postavení v oblasti umělé inteligence v čím dál složitějším geopolitickém prostředí. Věříme, že demokratické státy by měly stát v čele vývoje AI, vedeny klíčovými hodnotami, jako jsou svoboda, rovnost a respekt k lidským právům."
Tento výrok naznačuje, že Google se chce aktivně podílet na formování AI v souladu s geopolitickými zájmy demokratických států – což znamená i možné zapojení do vojenských projektů.
Zdroj: Shutterstock
Google a armádní zakázky: Už dříve překročil etické hranice
Přestože Google dříve tvrdil, že jeho AI technologie nebudou sloužit k vojenským účelům, realita je jiná. Společnost se již dříve zapojila do několika kontroverzních projektů, které vyvolaly vlnu nesouhlasu mezi zaměstnanci i veřejností.
- Project Maven (2018) – Pentagon využíval AI od Googlu k analýze záběrů z dronů. Tato spolupráce vedla k protestům uvnitř společnosti, včetně hromadných výpovědí zaměstnanců. Google nakonec oznámil, že smlouvu neobnoví.
- Project Nimbus (2021) – V rámci této dohody poskytl Google cloudové služby izraelské vládě a armádě. Dohoda vyvolala kontroverze kvůli použití AI při monitorování palestinského obyvatelstva.
Změna etických zásad Googlu tak nemusí být jen formální úpravou, ale spíše pragmatickým krokem směrem k oficiálnímu přijetí spolupráce s armádními a bezpečnostními složkami.
Zdroj: Shutterstock
Konkurenční tlak a přizpůsobení se trhu
Google není jedinou firmou, která se angažuje v oblasti vojenského využití AI. Konkurenti jako Meta, OpenAI nebo Amazon již mají dohody s vládami a bezpečnostními agenturami.
- Meta umožňuje využití svého modelu LLaMA pro určité vojenské aplikace.
- OpenAI (výrobce ChatGPT) má smlouvy, které umožňují nasazení jejich AI pro bezpečnostní účely.
- Amazon skrze dohodu s Palantirem umožňuje prodej modelu Claude AI americké armádě a zpravodajským službám.
V tomto kontextu se zdá, že Google nechce zůstat pozadu a přizpůsobuje své zásady tomu, co je dnes v technologickém světě běžnou praxí.
Co to znamená pro budoucnost AI?
Tento vývoj vyvolává obavy ohledně etiky a regulace umělé inteligence. Pokud i Google – firma, která se dlouho prezentovala jako lídr odpovědné AI – přestává stavět etiku nad obchodní a geopolitické zájmy, můžeme očekávat další posun směrem k militarizaci AI.
Regulace v této oblasti zůstává stále nejasná a tempo vývoje AI předbíhá jakoukoli legislativu. Otázkou zůstává, zda budou technologické firmy samy schopny udržet AI v mezích odpovědného využití, nebo zda bude nutný zásah státních a mezinárodních regulátorů.
Jisté je, že Google tímto krokem mění pravidla hry – a svět AI nikdy nebude stejný jako dřív.
Diskuse ke článku Google mění etické zásady pro AI: Cesta k vojenskému využití?