ChatGPT poprvé vyřešil nevyřešený matematický problém. Vědci mluví o průlomu
Dlouho platilo, že umělá inteligence zvládá především opakovat a kombinovat to, co už zná. Pomáhá s texty, programováním nebo analýzou dat. Nový výzkum ale naznačuje, že se její role mění.
Tým z Data Analytics Lab při Vrije Universiteit Brussel přišel s výsledkem, který posouvá hranice toho, co od jazykových modelů čekáme. Podle jejich studie dokázal model ChatGPT ve verzi 5.2 vytvořit vlastní matematický důkaz k problému, který dosud neměl formální řešení.
Šlo o takzvanou domněnku z roku 2024 od matematiků Rana a Tenga. Podobné domněnky vznikají na základě pozorovaných vzorců, ale dokud nejsou přesně dokázány, zůstávají jen hypotézou. V okamžiku, kdy se podaří najít logicky správný důkaz, mění se v matematickou větu.
Právě tady sehrála umělá inteligence klíčovou roli. Výsledný důkaz nevznikl jedním pokusem, ale postupně. Sedm samostatných konverzací a několik verzí argumentace vedlo k finální podobě. Model přicházel s návrhy postupů, zkoušel různé směry a pomáhal strukturovat myšlenky. Lidé pak kontrolovali, zda jednotlivé kroky dávají smysl a drží logiku.
„Vibe-proving“ jako nový přístup
Výzkumníci pro tento způsob spolupráce zavedli termín vibe-proving. Jde o analogii k vibe-codingu, který se už používá při programování, kdy AI pomáhá vytvářet a upravovat kód.
V matematice to znamená něco podobného. Model není jen nástroj na výpočet, ale aktivní partner při hledání řešení. Pomáhá zkoumat možné cesty, navrhuje strukturu důkazu a urychluje proces, který by jinak trval výrazně déle.
Podle autorů studie jde o jeden z prvních případů, kdy komerčně dostupný jazykový model vytvořil originální matematický důkaz. Nešlo tedy o skládání známých postupů, ale o reálný příspěvek k řešení konkrétního problému.
Zároveň tím padá častý argument, že AI pouze přeskupuje data, na kterých byla natrénovaná. Výsledek ukazuje, že při správném vedení dokáže generovat nové myšlenkové konstrukce, které mají vědeckou hodnotu.
Bez lidí to zatím nejde
I přes silný výkon modelu zůstává lidská role zásadní. Každý krok důkazu musel projít kontrolou, aby bylo jisté, že je správný a bez logických chyb. Právě ověřování se ukazuje jako nejslabší místo celého procesu.
Zatímco AI dokáže rychle generovat návrhy a varianty řešení, jejich ověření je pomalé a vyžaduje zkušeného matematika. Paradoxně se tak úzkým hrdlem výzkumu stává právě lidská kapacita. Výzkumníci ale naznačují, že i tato část se může postupně zrychlit. Jazykové modely by totiž v budoucnu mohly pomáhat nejen s tvorbou důkazů, ale i s jejich kontrolou.




















