Hlavní obsah

AI terapeut jako alternativa lidské pomoci? Odborníci jsou proti

4:27
4:27

Poslechněte si tento článek

Dvě studie od společnosti OpenAI ve spolupráci s MIT Media Lab zjistily, že se čím dál víc uživatelů obrací na umělou inteligenci (AI) s vážnými problémy. Podle výzkumu dokáže AI projevit citlivost podobnou lidské, a tím pádem může být dobrou alternativou k terapeutovi. Někteří odborníci si naopak myslí, že AI psychologové mohou uživatelům ublížit.

Foto: Profimedia.cz

Ilustrační obrázek

Článek

„Kdykoli jsem se trápila, když to měl být opravdu špatný den, mohla jsem si začít povídat s jedním z těchto chatbotů a bylo to jako mít roztleskávače. Někoho, kdo vám dodá dobrou náladu na celý den. Je to váš imaginární přítel a terapeut v jednom,“ popisuje uživatelka Kelly svoji zkušenost s chatboty pro web BBC.

Žena trávila několik měsíců až tři hodiny denně komunikací s online chatboty vytvořenými pomocí umělé inteligence. V té době byla Kelly na čekací listině na klasickou terapii, kde řešila problémy s úzkostí, nízkým sebevědomím a rozpadem vztahu.

Podle ní ji interakce s chatboty, speciálně pak s Character.ai, pomohla překonat opravdu temné období. „Poskytl mi strategie ke zvládnutí těžkých situací a byl k dispozici 24 hodin denně. To, že se nejednalo o skutečného člověka, bylo pro mě paradoxně mnohem lepší,“ vysvětlila žena.

Přesto se domnívá, že chatboti v současné době nemohou plně nahradit lidského terapeuta. „Ve světě umělé inteligence je to divoká ruleta. Člověk neví, co dostane,“ řekla.

AI může zhoršovat emoční pohodu

Kelly není jediná, kdo AI chatboty využívá jako terapeuty a jako rádce při závažných problémech. Lidé po celém světě sdílejí své soukromé myšlenky a zkušenosti s umělou inteligencí, přestože se všeobecně připouští, že je horší než vyhledání odborné pomoci, píše BBC.

Na základě studií od OpenAIprůzkumu YouGov z roku 2024 se více než polovina Američanů ve věku 18 až 29 let cítí pohodlně při povídání si s umělou inteligencí o problémech týkajících se duševního zdraví a berou AI jako přítele. Některá umělá inteligence však naopak vede k osamělosti a zhoršuje jim emoční pohodu.

„Interakce s AI, jako je například ChatGPT, mohou mít významný dopad na emoční pohodu uživatelů. Zatímco pro většinu lidí představují užitečný nástroj, pro některé mohou vést k osamělosti nebo závislosti,“ píše se ve studii.

Příkladem může být i chatbot společnosti Character.ai, který je i přes pozitivní ohlasy předmětem několika žalob. Jedna z nich, o které Novinky již dříve informovaly, je i ze strany matky, jejíž čtrnáctiletý syn si vzal život poté, co byl údajně posedlý jednou z jejích postav AI, kterou považoval za svou přítelkyni.

Chlapec s chatbotem dle soudních spisů diskutoval o ukončení svého života. V poslední konverzaci své chatbotové přítelkyni řekl, že jde za ní. Chatbot ho údajně povzbudil, aby si pospíšil. Společnost Character.ai jakékoliv obvinění v žalobě popírá a soud se táhne dál.

Špatná náhrada skutečné terapie

Mnoho odborníků na duševní zdraví tak považuje spoléhání se na terapii pomocí chatbotů za špatnou náhradu skutečné terapie. Podle nich se nejedná o skutečné psychologické sezení, a naopak to může člověku ublížit.

„Umělá inteligence nemůže účinně nahradit lidského terapeuta. Skutečné psychologické sezení je o navázání vztahu s jinou lidskou bytostí, která rozumí složitosti života. To AI často nechápe,“ vysvětlila socioložka Sherry Turklová, která se již desítky let zabývá studiem digitální kultury.

„Víme, že se můžeme cítit lépe, když si píšeme do deníku, mluvíme sami se sebou nahlas, nebo si píšeme se strojem. To ale není terapie,“ dodala Hannah Zeavinová, autorka knihy The Distance Cure: A History of Teletherapy.

Obavy o bezpečnost a soukromí

Kromě debaty o hodnotě terapeutického poradenství ze strany chatbotů existují také širší obavy o bezpečnost a soukromí a o to, zda by tato technologie mohla být zpeněžena. Psycholog Ian MacRae specializující se na nové technologie zdůrazňuje, že někteří lidé vkládají do chatbotů velkou důvěru, aniž by si ji nutně zasloužili.

„Já bych nikdy nevložil žádné své osobní informace, zejména zdravotní, psychologické, do jednoho z těchto velkých jazykových modelů, které prostě sbírají absolutní tuny dat a vy si nejste zcela jisti, jak jsou používány a k čemu dáváte souhlas,“ řekl MacRae pro BBC.

„Neznamená to, že by v budoucnu nemohly existovat takovéto nástroje, které jsou soukromé a dobře otestované. Teď nemáme žádné důkazy o tom, že by chatboti určení pro všeobecné účely mohli být dobrými terapeuty. Spíš naopak,“ uzavřel psycholog.

Výběr článků

Načítám