CDR.cz - Vybráno z IT

Google mění etické zásady pro AI: Cesta k vojenskému využití?

Zdroj: Shutterstock

Společnost Google provedla nenápadnou, avšak zásadní změnu ve svých zásadách týkajících se vývoje umělé inteligence. Odstranila závazek, že nebude vyvíjet ani nasazovat AI pro sledování, zbraně či technologie určené k poškozování lidí. Tento posun, který jako první zaznamenal deník The Washington Post, vzbuzuje otázky o budoucím směřování jedné z největších technologických firem na světě.

Původní etické zásady Googlu, poprvé zveřejněné v roce 2018, obsahovaly jednoznačné odmítnutí vývoje zbraní a sledovacích technologií na bázi AI. Nyní však Google tyto závazky vypustil a místo nich se soustředí na tři nové hlavní principy: inovaci, spolupráci a odpovědný vývoj. Problémem je, že "odpovědný vývoj" se v oficiálních vyjádřeních Googlu vyhýbá konkrétním závazkům a nabízí pouze obecné fráze o podpoře demokracie a lidských práv.

Demis Hassabis, šéf Google DeepMind, a James Manyika, viceprezident Googlu pro technologie a společnost, změny obhajují jako nutné přizpůsobení se geopolitické realitě. Ve svém blogovém příspěvku uvedli:

"Probíhá globální závod o vedoucí postavení v oblasti umělé inteligence v čím dál složitějším geopolitickém prostředí. Věříme, že demokratické státy by měly stát v čele vývoje AI, vedeny klíčovými hodnotami, jako jsou svoboda, rovnost a respekt k lidským právům."

Tento výrok naznačuje, že Google se chce aktivně podílet na formování AI v souladu s geopolitickými zájmy demokratických států – což znamená i možné zapojení do vojenských projektů.

Zdroj: Shutterstock

Google a armádní zakázky: Už dříve překročil etické hranice

Přestože Google dříve tvrdil, že jeho AI technologie nebudou sloužit k vojenským účelům, realita je jiná. Společnost se již dříve zapojila do několika kontroverzních projektů, které vyvolaly vlnu nesouhlasu mezi zaměstnanci i veřejností.

  • Project Maven (2018) – Pentagon využíval AI od Googlu k analýze záběrů z dronů. Tato spolupráce vedla k protestům uvnitř společnosti, včetně hromadných výpovědí zaměstnanců. Google nakonec oznámil, že smlouvu neobnoví.
  • Project Nimbus (2021) – V rámci této dohody poskytl Google cloudové služby izraelské vládě a armádě. Dohoda vyvolala kontroverze kvůli použití AI při monitorování palestinského obyvatelstva.

Změna etických zásad Googlu tak nemusí být jen formální úpravou, ale spíše pragmatickým krokem směrem k oficiálnímu přijetí spolupráce s armádními a bezpečnostními složkami.

Zdroj: Shutterstock

Konkurenční tlak a přizpůsobení se trhu

Google není jedinou firmou, která se angažuje v oblasti vojenského využití AI. Konkurenti jako Meta, OpenAI nebo Amazon již mají dohody s vládami a bezpečnostními agenturami.

  • Meta umožňuje využití svého modelu LLaMA pro určité vojenské aplikace.
  • OpenAI (výrobce ChatGPT) má smlouvy, které umožňují nasazení jejich AI pro bezpečnostní účely.
  • Amazon skrze dohodu s Palantirem umožňuje prodej modelu Claude AI americké armádě a zpravodajským službám.

V tomto kontextu se zdá, že Google nechce zůstat pozadu a přizpůsobuje své zásady tomu, co je dnes v technologickém světě běžnou praxí.

Co to znamená pro budoucnost AI?

Tento vývoj vyvolává obavy ohledně etiky a regulace umělé inteligence. Pokud i Google – firma, která se dlouho prezentovala jako lídr odpovědné AI – přestává stavět etiku nad obchodní a geopolitické zájmy, můžeme očekávat další posun směrem k militarizaci AI.

Regulace v této oblasti zůstává stále nejasná a tempo vývoje AI předbíhá jakoukoli legislativu. Otázkou zůstává, zda budou technologické firmy samy schopny udržet AI v mezích odpovědného využití, nebo zda bude nutný zásah státních a mezinárodních regulátorů.

Jisté je, že Google tímto krokem mění pravidla hry – a svět AI nikdy nebude stejný jako dřív.

Diskuse ke článku Google mění etické zásady pro AI: Cesta k vojenskému využití?

Čtvrtek, 6 Únor 2025 - 09:19 | RedMaX | Za mě ok. Technologické firmy by mohly vyvinout...