Kód vygenerovaný AI má spoustu zranitelností: Odpovědnost padá na lidské týmy
Výzkum to krásně zdůrazňuje, kdy až 69 % organizací našlo ve strojově generovaném kódu bezpečnostní chyby, které mohou vést k útokům, únikům dat či právním sporům. A ještě horší na tom je to, že málokdo tuší, kdo za tyto chyby skutečně odpovídá.
Chaos v odpovědnosti: Když AI selže, ukazují všichni prstem na ostatní
I přestože jazykové modely umělé inteligence vytváří část kódu automaticky, ve chvíli, kdy se v něm objeví zranitelnost nebo dojde k bezpečnostnímu incidentu, praxe říká jasně, že vina padá jednoznačně na lidské týmy. Zde jsou ohledně toho všeobecné statistiky:
53 % incidentů je přisuzováno bezpečnostním oddělením
45 % je přisuzováno vývojářům
a 42 % je přisuzováno oddělením zodpovědným za fúze a akvizice
Jenže jak upozorňuje Mike Wilkes, CISO Aikido:
„Vývojáři ten kód fyzicky nenapsali, bezpečnostní týmy jej nikdy neschválily a právní oddělení nedokáže určit, kdo je vinen, pokud se něco pokazí. Je to opravdová noční můra rizik.“
Je to skutečně jako v absurdním dramatu, jelikož umělá inteligence má v tomto případě existovat a sloužit k tomu, aby urychlovala vývoj, ale namísto toho vytváří právní a bezpečnostní šedou zónu, která může firmám způsobit katastrofální škody. To je kontrast toho, co je hlavním motivem těchto firem, aby ji používaly k realizaci některých svých projektů. Slouží jim jedině k tomu, aby je vlastně ještě více zatěžovala, a aby zvyšovala rizika, která by za normálních okolností byla zanedbatelná. Člověk zdaleka nedělá tolik hloupých chyb během psaní kódu, oproti dnešním AI jazykovým modelům.
Evropa vs. USA: Rozdílné přístupy, rozdílné následky
Rozdíly mezi těmito dvěma kontinenty jsou dosti výrazné. Například Evropské firmy hlásí 20 % vážných incidentů, zatímco v USA jde o 43 % - více než dvojnásobek. Zkusme si říct, proč tomu tak je - opět dle všeobecných statistik.
Američtí vývojáři mají vyšší tendence obcházet bezpečnostní pravidla (72 % v USA ku 61 % v Evropě)
Evropa má znatelně přísnější legislativu a vyšší úroveň compliance
Nicméně to nijak nesnižuje vážnost tohoto trendu - i zde přiznává přibližně 53 % firem, že byly blízko špatným koncům. Minimálně se velmi těsně přiblížili nebezpečné situaci při využívání AI kódu.
Více nástrojů, více problémů
Firmy také často chybují v tom, že kombinují několik AI nástrojů najednou v domnění, že tím zvýší efektivitu. Ale to je chyba lávky. Data hovoří jasně o tom, že je tomu úplně opačně:
90 % firem používajících 6 a více AI nástrojů si prošlo bezpečnostními incidenty
U firem, které používaly maximálně 2 umělo-inteligenční nástroje, to bylo jen 64 %
A k tomu všemu ještě dochází k dramatickému prodloužení doby nápravy škod. Firmám, které používají maximálně 2 AI nástroje, trvá náprava škod v průměru 3 až 4 dny, zatímco u 5 a více nástrojů náprava zabere téměř 8 dní.
Komplexita tak nepřináší žádnou konkurenceschopnost, jak je nám často podsouváno. Přináší chaos a nepříjemné obtíže, které následně bolí po finanční i časové stránce.
Nicméně, abychom nejeli pouze na vlně pesimismu a negativních dat, je určitě vhodné říci, že se odborníci současně domnívají, že toto je možné změnit do 5 až 10 let s tím, že mohou existovat různé provázané vrstvy, nikoliv je samostatné nástroje AI. Tyto nové součásti jazykových modelů by musely zvládat i penetrační testování kódu bez kopírování stejných vzorců kódu ze stejných zdrojů. Nicméně je očekávatelné, že ještě velmi dlouho bude zapotřebí silná převaha lidského faktoru v této oblasti, a žádné stoprocentně autonomní, dokonalé dokonalosti nás zatím nečekají.



















