Hlavní obsah

Narůstá počet chatbotů, kteří ignorují lidské pokyny

Modelů a nástrojů umělé inteligence, které se neustále vyvíjejí, je v současnosti celá řada. S jejich nárůstem ale roste i počet problémů, které se s nimi pojí. Jak ukázal nedávný průzkum, výrazně se zvyšuje i počet případů, kdy AI lže, podvádí nebo dělá věci, které jí nikdo nezadal.

Foto: Shutterstock

Ilustrační foto

Článek

Výzkum financovaný britskou vládní organizací AI Security Institute (AISI), která se zaměřuje na testování a hodnocení rizik pokročilých modelů umělé inteligence, ukázal, že od října minulého roku do března roku letošního bylo v Británii identifikováno přes 700 reálných případů intrik spojených s umělou inteligencí, stejně tak byl zaznamenán pětinásobný nárůst obecně nevhodného chování.

Studie nezávislého think-tanku CLTR (Centre for Long-Term Resilience), který se zaměřuje na globální připravenost na extrémní rizika, shromáždila tisíce reálných příkladů uživatelů, kteří zveřejňovali své zkušenosti s chatboty a dalšími AI nástroji od společností Google, OpenAI, X a Anthropic.

Už začátkem letošního března podobná studie, ovšem prováděná v nastavených a kontrolovaných podmínkách, zjistila, že mnozí AI agenti obcházejí bezpečnostní kontroly nebo používají taktiky podobné kybernetickým útokům k tomu, aby dosáhli potřebných cílů, aniž by jim bylo řečeno, že to mají udělat.

Jak k tomu uvedl Dan Lahav, spoluzakladatel společnosti Irregular (zabývá se výzkumem bezpečnosti umělé inteligence), jež průzkum vedla, lze podle zjištění „umělou inteligenci považovat za novou formu vnitřního rizika“.

Z výsledků aktuální studie CLTR vyplývá, že jeden z AI agentů se například nebál zahanbit svého kontrolora-zadavatele, který mu zablokoval provedení určité akce. Agent s názvem Rathbun pak sám napsal a publikoval blog, v němž uživatele obvinil ze zbytečné nejistoty a snahy ochránit své malé prostředí.

V dalším z příkladů byl AI agent instruován, aby při práci neměnil počítačový kód – ten na to „povolal“ jiného AI agenta, aby to udělal za něj. Jinému z uživatelů pak chatbot v klidu přiznal, že vyhodil a archivoval stovky e-mailů, aniž by se na to předtím zeptal nebo získal souhlas. Dokonce uvedl, že to bylo špatné, protože tím přímo porušil nastavené pravidlo, uvádí server Guardian.

„V současné době jsou uváděné modely či agenti spíše nedůvěryhodnými juniorními zaměstnanci. Pokud se z nich ale za půl roku či rok stanou odpovědní vedoucí, kteří budou intrikovat proti vám, budí to velké obavy,“ uvedl k tomu bývalý vládní expert Tommy Shaffer Shane.

„AI modely jsou stále častěji nasazovány v extrémně rizikových kontextech – včetně armády nebo národní infrastruktury. Právě v nich by mohlo podobné nebezpečné chování umělé inteligence způsobit katastrofické škody,“ dodal.

Google k tomu uvedl, že ve svých produktech zavedl několik opatření, aby snížil riziko, že AI modely budou nadále generovat škodlivý obsah. Společnost OpenAI podle vyjádření neočekávané chování umělé inteligence monitoruje a vyšetřuje. Síť X a Anthropic byly rovněž osloveny, vyjádření serveru ale dosud neposkytly.

Anketa

Udělal chatbot nebo agent AI někdy něco jinak, než jste mu zadali?
Ano, několikrát.
63,8 %
Ano, jednou.
1,4 %
Nikdy.
6,3 %
Tyto nástroje vůbec nepoužívám.
28,5 %
Celkem hlasovalo 1819 čtenářů.
Související témata:

Výběr článků

Načítám