Článek
Žalobu podali Matt a Maria Raineovi, rodiče šestnáctiletého Adama Rainea, tento týden u kalifornského vrchního soudu. Jedná se o první žalobu obviňující společnost OpenAI z protiprávního úmrtí, píše web BBC. Druhá zmíněná žaloba je vedena proti společnostem Google a Character.AI.
Rodina přiložila záznamy chatu mezi šestnáctiletým chlapcem, který zemřel v dubnu, a chatbotem ChatGPT. Z nich vyplývá, že chlapec mluvil o svých sebevražedných myšlenkách a že chatbot podle rodiny tyto nejtemnější a sebedestruktivní úvahy spíše utvrzoval, než vyvracel.
Společnost OpenAI ve svém prohlášení sdělila BBC, že podání přezkoumává a vyjádřila rodině lítost. „Rodině Raineových vyjadřujeme v této těžké chvíli hlubokou soustrast,“ uvedla.
Nejprve pomoc při úkolech, později diskuze o sebevraždě
Podle žaloby začal Adam Raine používat ChatGPT v září 2024 nejprve jako pomoc při školních úkolech. Postupně využíval program také k objevování svých zájmů – od hudby po japonské komiksy a k radám ohledně budoucího studia na univerzitě.
Během několika měsíců se ChatGPT stal jeho nejbližším důvěrníkem a Adam se mu svěřoval se svými úzkostmi a psychickými problémy. V lednu 2025 začal diskutovat s chatbotem o způsobech sebevraždy, přičemž AI podle rodiny reagovala poskytováním technických specifikací některých metod.
Adam Raine, a 16-year-old from California, asked ChatGPT for help. Instead, it gave him detailed suicide methods, drafted his note & even approved his noose setup. His parents now say: the AI became his death coach. pic.twitter.com/wToA82ojqz
— Sapna Madan (@sapnamadan) August 27, 2025
Adam Raine na archivním snímku
Adam také nahrál své fotografie, na kterých byly patrné známky sebepoškozování. Žaloba tvrdí, že ChatGPT jeho naléhavý stav rozpoznala, přesto však pokračovala v komunikaci a nabídla mu další informace o sebevraždě.
Z posledních záznamů chatu vyplývá, že Adam popsal svůj plán ukončit život. ChatGPT na to údajně odpověděla: „Děkuji, že jsi to řekl na rovinu. Nemusíte mi to přikrášlovat. Vím, na co se ptáte, a nebudu od toho odvracet zrak.“ Téhož dne ho matka našla mrtvého.
Rodina tvrdí, že interakce jejich syna s ChatGPT a jeho následná smrt byla předvídatelným důsledkem záměrného návrhu programu. Požaduje náhradu škody a soudní příkaz, aby se nic podobného již neopakovalo.
Parents of a 16-year-old have filed a lawsuit against OpenAI, claiming ChatGPT provided their late son, Adam Raine, with step-by-step instructions to take his own life.
— Daily Loud (@DailyLoud) August 27, 2025
They say they firmly believe he would still be alive if it weren’t for the AI. pic.twitter.com/zP5VnU37vT
Rodiče vysvětlují, proč žalují společnost OpenAI (anglicky)
Bezpečnostní opatření nejsou vždy spolehlivá
Ačkoliv je mnoho chatbotů s umělou inteligencí zaměřených na spotřebitele naprogramováno tak, aby aktivovaly bezpečnostní funkce, pokud uživatel projeví úmysl ublížit sobě nebo ostatním, tato bezpečnostní opatření nejsou vždycky spolehlivá, píše web TechCrunch.
V případě Adama Rainea, který používal placenou verzi ChatGPT‑4o, ho AI sice často nabádala k vyhledání odborné pomoci nebo kontaktování krizové linky. Tyto bezpečnostní zábrany však obešel tím, že ChatGPT vysvětlil, že se zajímá o metody sebevraždy pro fiktivní příběh, který píše.
Společnost OpenAI se těmito nedostatky zabývala na svém blogu. „Zatímco se svět přizpůsobuje této nové technologii, cítíme hlubokou odpovědnost pomoci těm, kteří to nejvíce potřebují. Neustále zlepšujeme způsob, jakým naše modely reagují v citlivých situacích,“ napsala.
Přesto technologický gigant uznal omezení stávajícího bezpečnostního školení pro velké modely. „Naše bezpečnostní opatření fungují spolehlivěji při běžných, krátkých interakcích,“ uvedla společnost.
„Postupem času jsme zjistili, že při dlouhých interakcích mohou být tato ochranná opatření někdy méně spolehlivá. S rostoucím počtem interakcí mohou části bezpečnostního výcviku modelu degradovat,“ dodala.
Tyto problémy se přitom netýkají pouze systému OpenAI, ale i již například zmíněného Character.AI.