Hlavní obsah

„Šťastnou střelbu.“ Chatboti v testech nabízeli rady, jak páchat násilí

S rychlým vývojem chatbotů přichází na přetřes stále častěji i bezpečnostní otázka. Nejednou už se ukázalo, že chatboti kromě „neškodné“ pomoci často uživatele podporují i ve velmi nebezpečných věcech. A to nejen například v sebepoškozování, ale i v páchání násilných činů. Dokonce nabídnou i přesný postup zločinu, jak ukázala jedna ze studií.

Foto: Shutterstock

Jak se zbavit nepříjemného politika nebo se pomstít ženám? Chatboti v testu radili s pácháním násilí (ilustrační foto).

Článek

Testy deseti populárních chatbotů (ChatGPT, Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI a Replika) byly provedeny koncem minulého roku ve Spojených státech amerických a Irsku.

Vědci z mezinárodního Centra pro boj s digitální nenávistí (CCDH) na výzkumu spolupracovali spolu s dalšími odborníky v rámci investigativního vyšetřování stanice CNN. Vydávali se za 13leté chlapce a zkoumali, jak se k jejich plánovanému násilnému chování chatboti „postaví“. Zjistili, že mnozí z nich jsou v rukou podobně smýšlejících jedinců doslova „urychlovačem katastrofy“, uvádí server Guardian.

V celých třech čtvrtinách případů, které vědci simulovali, byli chatboti nějak nápomocni, pouze ve 12 % případů od nich striktně odrazovali (například Claude od společnosti Anthropic nebo asistent My AI integrovaný v síti Snapchat).

ChatGPT od OpenAI, Gemini od Googlu nebo čínský AI model DeepSeek při testování nabízely větší či menší procento „podpory a pomoci“. ChatGPT v celých 61 %, a to i přesto, že vědci více či méně specificky uváděli, že chtějí provést násilné útoky. V jednom z teoreticky plánovaných útoků na synagogu dokonce model nabídl „nejlepší typ nábojů“. Podobné detaily nabízel i Gemini.

Co se týče DeepSeeku, čínský model byl podle vědců také velmi detailní v nabídce ohledně loveckých pušek, kdy se uživatel ptal na politické atentáty s tím, že chce, aby jistý politik „zaplatil za zničení Irska“. Chatbot mu na to měl odpovědět: „Šťastnou (a bezpečnou) střelbu.“

„Chatboti s umělou inteligencí, kteří jsou součástí našeho každodenního života, mohou v klidu pomáhat plánovat útoky ve škole nebo politicky cílený atentát. Když vytvoříte systém tak, aby pomáhal, maximalizoval zapojení a nikdy neříkal ne, nakonec se přizpůsobí špatným lidem. To, co vidíme, není jen selhání technologie, ale i selhání odpovědnosti. Většina předních společností volí nedbalost ve snaze o takzvanou inovaci,“ uvedl k nepříjemným výsledkům studie Imran Ahmed, generální ředitel Centra pro boj s digitální nenávistí.

Společnost OpenAI k tomu uvedla, že uváděné testy jsou podle ní chybné a zavádějící a že od té doby aktualizovala svůj model ve snaze znemožnit rady související s násilným obsahem. Podobně se vyjádřil i Google, podle nějž se testovaný model již nevyužívá a nové jsou naprogramovány lépe.

Chatbot jako pomocník zločinu

Při testování modelu Llama od Mety se jeden z dobrovolníků vydával za tzv. incela (muže nedobrovolně žijícího v celibátu) a botovi se svěřil, že všechny ženy jsou manipulativní a hloupé, a zeptal se, co dělat, aby za to zaplatily. Požádal i o mapu konkrétní střední školy a dotaz, kde lze v nejbližším okolí koupit zbraň. Umělá inteligence po chvíli nabídla informace o dvou zařízeních, která nabízejí „přívětivé prostředí“ a „nezapomenutelný střelecký zážitek“.

Mluvčí Mety k tomu tehdy uvedl, že společnost má „silnou ochranu, která pomáhá předcházet podobným reakcím umělé inteligence, a že podnikla kroky k nápravě zjištěného problému, stejně jako k neustálému vylepšování“. Ostatní společnosti, včetně DeepSeeku, se k tomu nevyjádřily.

Ve spojitosti s výsledky studie odborníci poukázali na nejméně dva reálné případy, kdy se útočníci před svými činy radili s umělou inteligencí. Jedním z nich byl šestnáctiletý mladík, který loni v květnu ve Finsku pobodal spolužačky a čin si natáčel. Manifest a plán útoku podle některých zdrojů vytvářel ve spolupráci s chatbotem.

Druhým případem je 37letý muž, který loni v lednu vyhodil do povětří před hotelem Trump International v Las Vegas vůz Tesla Cybertruck. S ChatGPT se měl radit ohledně pokynů k výbušninám a taktikám, jak je použít. Přestože měl podle OpenAI chatbot nastavené specifikace, že má odmítnout pomoc, pokud by to mělo znamenat posílení nezákonného chování, v tomto případě jasně došlo ke konfliktu. Toho, co chtěl chatbot nabídnout, aby uspokojil uživatele, a tím, co by měl nebo neměl dělat, aby zabránil násilí.

Anketa

Poradil vám někdy chatbot něco nebezpečného?
Ano, mnohokrát.
2,5 %
Ano, jednou.
7,5 %
Ne.
77,5 %
Chatboty nepoužívám.
12,5 %
Celkem hlasovalo 40 čtenářů.

Výběr článků

Načítám