Článek
Generální ředitel společnosti Anthropic to uvedl ve svém proslovu, v němž mimo jiné zdůraznil, že halucinace umělé inteligence nepředstavují překážku na cestě firmy k AGI (Artificial General Intelligence, česky obecná umělá inteligence) – tedy systémům s inteligencí na úrovni člověka či vyšší, píše web TechCrunch.
Obecnou umělou inteligenci by chtěla společnost spustit už v roce 2026. Právě Amodei je jedním z nejnadšenějších lídrů v oboru, pokud jde o vyhlídky na to, že modely umělé inteligence dosáhnou AGI.
AGI bude dle Amodeia schopna ovládat jakýkoli myslitelný software nebo hardware, včetně průmyslových strojů, a v podstatě vykonávat většinu prací, které dnes dělají lidé – ale lépe.
„Věřím, že ani halucinování umělé inteligence není překážkou pro vytvoření AGI. Navíc mám podezření, že naše AI modely halucinují méně než lidé,“ řekl Amodei v odpovědi na otázku serveru TechCrunch.
„Moje základní předpověď je, že biologie a medicína s využitím umělé inteligence nám umožní stlačit pokrok, kterého by lidští biologové dosáhli v příštích 50 až 100 letech, do 5 až 10 let,“ dodal.
Halucinace jako velká překážka pro dosažení AGI
Jiní představitelé umělé inteligence se ale domnívají, že halucinace představují velkou překážku pro dosažení AGI. Například podle generálního ředitele společnosti Google DeepMind Demise Hassabise mají dnešní AI modely příliš mnoho děr a velké množství zřejmých otázek chápou špatně.
„U chatbotů s umělou inteligencí můžete snadno během několika minut najít zjevné nedostatky – nějakou věc ze středoškolské matematiky, kterou neumí vyřešit, nějakou základní hru, kterou neumí hrát,“ vysvětlil Hassabis.
„Není příliš obtížné tyto díry v systému najít. Aby se něco mohlo nazývat AGI, muselo by to podle mě být mnohem konzistentnější ve všech oblastech,“ dodal.
Amodeiho tvrzení je tak obtížné ověřit. Zejména proto, že většina srovnávacích testů halucinací staví modely umělé inteligence proti sobě a tím pádem nesrovnávají modely s lidmi.
Podle webu TechCrunch se ale zdá, že určité techniky pomáhají snižovat míru halucinací –například umožnění přístupu AI modelů k vyhledávání na webu. Některé modely umělé inteligence, jako například GPT-4.5 společnosti OpenAI, tak mají v porovnání s prvními generacemi systémů výrazně nižší míru halucinací v benchmarcích.
Zhoršování halucinací u pokročilých modelů
Existují však také důkazy, že halucinování u pokročilých modelů umělé inteligence se skutečně zhoršuje. Modely o3 a o4-mini společnosti OpenAI mají vyšší míru halucinací než modely předchozí generace a vývojáři vlastně nevědí proč.
Společnost OpenAI zjistila, že model o3 halucinoval v odpovědích na 33 % otázek v testu PersonQA, což je interní měřítko společnosti pro měření přesnosti znalostí modelu o lidech, píše web TechCrunch v dalším článku.
To je zhruba dvojnásobek míry halucinací oproti předchozím modelům společnosti OpenAI, o1 a o3-mini, které dosáhly 16 %. Model o4-mini si v testu PersonQA vedl ještě hůře – halucinoval ve 48 % případů.
Navíc se ukázalo, že model o3 má tendenci vymýšlet si akce, které provedl v procesu získávání odpovědí. V jednom z příkladů nezisková výzkumná laboratoř Transluce zaznamenala tvrzení modelu, že spustil kód na MacBooku Pro 2021 mimo ChatGPT a pak zkopíroval číslo do své odpovědi. Ačkoli má o3 přístup k některým nástrojům, takovou akci udělat nemůže.
„Naše hypotéza spočívá v tom, že druh posilovacího učení používaný pro modely o-series může zesílit problémy, které jsou obvykle zmírněny (ale ne zcela odstraněny) standardními posttréninkovými procesy,“ uvedl Neil Chowdhury, výzkumník společnosti Transluce a bývalý zaměstnanec OpenAI, v e-mailu pro TechCrunch.
„Je zapotřebí dalšího výzkumu, abychom zjistili důvody, proč se halucinace zhoršují, když naše modely vylepšujeme,“ dodala společnost OpenAI ve své technické zprávě.
Zda se tvrzení generálního ředitele Daria Amodeie potvrdí, ukáže až čas. Jeho komentáře však naznačují, že společnost Anthropic může považovat modely umělé inteligence za AGI, nebo dokonce za inteligenci rovnocennou té lidské, přestože stále vykazují známky halucinací.