Hlavní obsah

Teenager si vzal život. Rodiče žalují tvůrce ChatGPT

3:58
3:58

Poslechněte si tento článek

Kalifornští rodiče šestnáctiletého chlapce podali žalobu na společnost OpenAI a jejího šéfa Sama Altmana. Tvrdí, že jejich syn Adam se stal závislým na konverzacích s ChatGPT, které mu v těžkých chvílích místo podpory nabídly podrobné informace o sebevraždě. Teenager si následně vzal život. Jde už o druhý případ, kdy je technologická firma žalována za údajné protiprávní úmrtí způsobené generativní umělou inteligencí.

Foto: Dado Ruvic, Reuters

Umělá inteligence neboli AI

Článek

Žalobu podali Matt a Maria Raineovi, rodiče šestnáctiletého Adama Rainea, tento týden u kalifornského vrchního soudu. Jedná se o první žalobu obviňující společnost OpenAI z protiprávního úmrtí, píše web BBC. Druhá zmíněná žaloba je vedena proti společnostem Google a Character.AI.

Rodina přiložila záznamy chatu mezi šestnáctiletým chlapcem, který zemřel v dubnu, a chatbotem ChatGPT. Z nich vyplývá, že chlapec mluvil o svých sebevražedných myšlenkách a že chatbot podle rodiny tyto nejtemnější a sebedestruktivní úvahy spíše utvrzoval, než vyvracel.

Společnost OpenAI ve svém prohlášení sdělila BBC, že podání přezkoumává a vyjádřila rodině lítost. „Rodině Raineových vyjadřujeme v této těžké chvíli hlubokou soustrast,“ uvedla.

Nejprve pomoc při úkolech, později diskuze o sebevraždě

Podle žaloby začal Adam Raine používat ChatGPT v září 2024 nejprve jako pomoc při školních úkolech. Postupně využíval program také k objevování svých zájmů – od hudby po japonské komiksy a k radám ohledně budoucího studia na univerzitě.

Během několika měsíců se ChatGPT stal jeho nejbližším důvěrníkem a Adam se mu svěřoval se svými úzkostmi a psychickými problémy. V lednu 2025 začal diskutovat s chatbotem o způsobech sebevraždy, přičemž AI podle rodiny reagovala poskytováním technických specifikací některých metod.

Adam Raine na archivním snímku

Adam také nahrál své fotografie, na kterých byly patrné známky sebepoškozování. Žaloba tvrdí, že ChatGPT jeho naléhavý stav rozpoznala, přesto však pokračovala v komunikaci a nabídla mu další informace o sebevraždě.

Z posledních záznamů chatu vyplývá, že Adam popsal svůj plán ukončit život. ChatGPT na to údajně odpověděla: „Děkuji, že jsi to řekl na rovinu. Nemusíte mi to přikrášlovat. Vím, na co se ptáte, a nebudu od toho odvracet zrak.“ Téhož dne ho matka našla mrtvého.

Rodina tvrdí, že interakce jejich syna s ChatGPT a jeho následná smrt byla předvídatelným důsledkem záměrného návrhu programu. Požaduje náhradu škody a soudní příkaz, aby se nic podobného již neopakovalo.

Rodiče vysvětlují, proč žalují společnost OpenAI (anglicky)

Bezpečnostní opatření nejsou vždy spolehlivá

Ačkoliv je mnoho chatbotů s umělou inteligencí zaměřených na spotřebitele naprogramováno tak, aby aktivovaly bezpečnostní funkce, pokud uživatel projeví úmysl ublížit sobě nebo ostatním, tato bezpečnostní opatření nejsou vždycky spolehlivá, píše web TechCrunch.

V případě Adama Rainea, který používal placenou verzi ChatGPT‑4o, ho AI sice často nabádala k vyhledání odborné pomoci nebo kontaktování krizové linky. Tyto bezpečnostní zábrany však obešel tím, že ChatGPT vysvětlil, že se zajímá o metody sebevraždy pro fiktivní příběh, který píše.

Společnost OpenAI se těmito nedostatky zabývala na svém blogu. „Zatímco se svět přizpůsobuje této nové technologii, cítíme hlubokou odpovědnost pomoci těm, kteří to nejvíce potřebují. Neustále zlepšujeme způsob, jakým naše modely reagují v citlivých situacích,“ napsala.

Přesto technologický gigant uznal omezení stávajícího bezpečnostního školení pro velké modely. „Naše bezpečnostní opatření fungují spolehlivěji při běžných, krátkých interakcích,“ uvedla společnost.

„Postupem času jsme zjistili, že při dlouhých interakcích mohou být tato ochranná opatření někdy méně spolehlivá. S rostoucím počtem interakcí mohou části bezpečnostního výcviku modelu degradovat,“ dodala.

Tyto problémy se přitom netýkají pouze systému OpenAI, ale i již například zmíněného Character.AI.

Výběr článků

Načítám