AI končí a začíná superinteligence. Microsoft s ní míří rovnou do medicíny
Zatímco většina technologických firem se žene za vytvořením tzv. AGI (obecné umělé inteligence, která má myslet podobně jako člověk), Microsoft míří jinam. Ve svém novém projektu, označovaném jako Humanist Superintelligence (HSI), se snaží o model, který je sice vysoce inteligentní, ale zůstává ukotvený v lidském zájmu a etice.
Cílem je podle vedení firmy „nechat stroje pomáhat lidem, nikoliv je nahradit“. HSI by tak neměla mít vlastní vůli nebo cíle, ale měla by se zaměřit na řešení konkrétních civilizačních problémů – především v lékařství a školství.
První cíl: Přesnější lékařská diagnostika
Microsoft začíná tam, kde mají algoritmy největší šanci zlepšit lidské životy – ve zdravotnictví. Firma testuje systém MAI-DxO, který údajně dosahuje až 85 % úspěšnosti při rozpoznávání složitých diagnóz, čímž překonává i výsledky zkušených specialistů.

Zdroj: Shutterstock
Nejde přitom jen o rychlost, ale i o dostupnost. HSI by mohla zpřístupnit expertní lékařské znalosti tam, kde chybí specialisté – například v rozvojových zemích nebo odlehlých regionech.
V praxi by to mohlo vypadat tak, že pacient popíše své symptomy a systém vyhodnotí možné příčiny, včetně doporučení na vhodná vyšetření. Lékař pak dostane podklady, které mu mohou pomoci potvrdit nebo vyvrátit diagnózu.
Druhý pilíř: Revoluce ve vzdělávání
Další oblastí, kterou chce Microsoft prostřednictvím HSI proměnit, je školství. Superinteligence by se mohla stát jakýmsi osobním učitelem – přizpůsobovala by tempo i způsob výuky konkrétnímu žákovi, sledovala jeho pokroky a pomáhala pedagogům tvořit individuální studijní plány. Namísto anonymních testů by tak žáci dostávali úkoly odpovídající jejich silným i slabým stránkám. V ideálním případě by HSI pomáhala rozvíjet potenciál každého studenta, ne jen průměrnou úroveň třídy.
Otázky, které nezmizí: Soukromí a závislost
Nadšení z nové technologie ale střídá i obezřetnost. Kritici upozorňují, že HSI bude potřebovat obrovské množství osobních dat, včetně zdravotních záznamů nebo vzdělávacích profilů dětí. Zda dokáže Microsoft zajistit jejich bezpečí, zůstává velkou otázkou.
Dalším problémem je závislost na algoritmech. Pokud se zdravotnictví či školství začnou příliš spoléhat na strojové hodnocení, může dojít k postupnému oslabování lidské zodpovědnosti a empatie. Odborníci proto zdůrazňují nutnost transparentních pravidel: Jasně definovat, kdo nese odpovědnost za chyby systému, jak budou data anonymizována a kdo bude kontrolovat výsledky algoritmů v praxi.



















