Hlavní obsah

AI si vymýšlela. Deloitte kvůli tomu musí vrátit peníze australské vládě

Sydney

Z ostudy kabát má poradenská společnost Deloitte. Ukázalo se, že na milionové zakázce pro australskou vládu nechala pracovat umělou inteligenci (AI). Výsledná zpráva však obsahovala chyby způsobené halucinacemi AI – například vymyšlené citace z rozsudku federálního soudu a odkazy na neexistující vědecké práce. Deloitte inkasoval 440 000 australských dolarů (6,1 milionu Kč), část peněz ale nyní musí vrátit. Upozornila na to agentura AP.

Foto: Rod McGuirk, ČTK/AP

Ilustrační foto

Článek

Pochybení přichází v době, kdy postupující rozšiřování systémů umělé inteligence vyvíjí tlak na poradenské společnosti, uvedl server Semafor. Velké poradenské firmy od začátku roku 2023 podle serveru propustily zhruba 50 000 lidí v souvislosti se zpomalením aktivity po pandemii, nasazováním AI a také snižováním vládních výdajů.

Zpráva společnosti poskytující finanční služby pro ministerstvo zaměstnanosti a pracovních vztahů byla původně zveřejněna na internetových stránkách resortu v červenci. Revidovanou verzi úřad zveřejnil na konci minulého týdne poté, co Chris Rudge ze Sydneyské univerzity upozornil média, že zpráva obsahuje vymyšlené citace a odkazy.

Společnost Deloitte následně 237stránkovou zprávu přezkoumala a potvrdila, že některé poznámky pod čarou a odkazy byly nesprávné, uvedlo ministerstvo v úterý. „Společnost souhlasila s vrácením poslední splátky podle smlouvy,“ dodal resort. Přesná částka bude zveřejněna po vrácení peněz.

Zpráva Deloitte se zabývala tím, jak IT systémy australského ministerstva využívají automatizované sankce v australském systému sociálního zabezpečení. Ministerstvo uvedlo, že podstata zprávy zůstala zachována a její doporučení se nezměnila.

Halucinace jsou v kontextu AI a jazykových modelů označením pro vygenerované odpovědi, které obsahují nepravdivé nebo zavádějící informace. Může jít rovněž o výsledek nedostatečných, neaktuálních nebo zkreslených trénovacích dat.

Co jsou to halucinace AI?

Halucinace umělé inteligence (AI) bohužel nejsou ničím výjimečným. Jde o situaci, kdy AI – například jazykový model nebo generátor obrázků – vytváří obsah, který působí důvěryhodně, ale ve skutečnosti není pravdivý. Umělá inteligence tak může například „vymyslet“ citát, který nikdy nepadl, nebo popsat událost, jež se nestala. Na první pohled působí vše přesvědčivě, což může být pro uživatele matoucí.

Tyto halucinace nevznikají záměrně. Jsou výsledkem způsobu, jakým modely pracují s daty – jejich úkolem je totiž předpovídat, jaký text nebo obraz má následovat, nikoli ověřovat fakta. Pokud systém narazí na mezeru ve znalostech, často ji „vyplní“ tím, co považuje za pravděpodobné. To může vést k tomu, že umělá inteligence působí sebejistě, i když ve skutečnosti nemá pravdu.

V praxi je proto důležité k výstupům AI přistupovat s rozvahou. Umělá inteligence je skvělým nástrojem pro inspiraci, zpracování informací či kreativní práci, avšak stále není spolehlivým zdrojem faktických údajů. Odborníci proto doporučují výsledky AI vždy ověřovat a používat je spíše jako výchozí bod než jako konečnou pravdu.

Výběr článků

Načítám