Článek
Firma, která stojí za populárním nástrojem využívaným po celém světě, odhaduje, že asi 0,15 procenta uživatelů vede s chatbotem konverzace obsahující jasné náznaky sebevražedného záměru.
Při zhruba 800 milionech aktivních uživatelů týdně jde o nezanedbatelnou skupinu. Dalších přibližně 560 tisíc lidí – tedy okolo 0,07 procenta – podle OpenAI projevuje signály možných duševních krizí, například psychotických či manických epizod.
Téma znovu vyvolalo silné emoce letos na jaře, kdy se v Kalifornii zabil šestnáctiletý chlapec po hádce s rodiči. Podle žaloby, kterou rodina podala na OpenAI, měl ChatGPT během konverzace údajně navrhnout způsoby, jak si život vzít. Tragédie podle deníku Le Figaro okamžitě rozpoutala debatu o tom, zda a jak lze AI právně postihovat, pokud poskytne škodlivé rady.
Opatření se zpřísnila
OpenAI od té doby přistoupila k několika opatřením. Zpřísnila rodičovskou kontrolu, přidala do rozhraní odkazy na krizové linky a zavedla systém, který dokáže rizikové chování uživatelů lépe rozeznat. Pokud jde o nezletilé, může navíc AI nově upozornit rodiče, zaznamená-li známky duševní tísně.
Pomáhat má také spolupráce s více než 170 odborníky na duševní zdraví. Ti dohlížejí na to, aby chatbot neprodukoval nebezpečné odpovědi a aby systém rychle reagoval na výpovědi lidí v krizi, jak upozornil zpravodajský server 24 Heures.
Fenomén mladých lidí, kteří si jdou pro útěchu či návod ke stroji místo k člověku, tak ukazuje nejen rychlý nástup technologií do intimních oblastí života, ale i potřebu opatrnosti. Chatbot může nabídnout podporu či nasměrovat na odbornou pomoc, ale odborníci se shodují, že pokud jde o duševní zdraví, umělá inteligence skutečného terapeuta zkrátka nenahradí.
Pokud vy nebo někdo blízký prožíváte psychickou krizi, můžete se v Česku obrátit například na Linku bezpečí (116 111), Linku první psychické pomoci (116 123) nebo jiné místní krizové služby.


