Hlavní obsah

Místo soli bromid. Muž kvůli umělé inteligenci skončil v nemocnici

3:38
3:38

Poslechněte si tento článek

Lidé se stále častěji obracejí na ChatGPT pro rady týkající se zdraví – občas však může dojít k tragickým omylům. V nedávném případě si muž záměrně nahradil běžnou kuchyňskou sůl (chlorid sodný) toxickým bromidem sodným poté, co mu to údajně doporučil chatbot. Pozdější komplikace vedly ke vzniku vzácné formy otravy zvané bromismus, psychóze i hospitalizaci.

Foto: Profimedia.cz

Ilustrační obrázek

Článek

Podle případové studie publikované minulý týden v časopise Annals of Internal Medicine se šedesátiletý muž, který chtěl ze zdravotních důvodů omezit kuchyňskou sůl ve své stravě, obrátil na velký jazykový model (LLM) pro tipy na náhradu, píše web Fox News.

ChatGPT mu doporučil nahradit běžnou kuchyňskou sůl (chlorid sodný) bromidem sodným, muž tento postup dodržoval po dobu tří měsíců.

Bromid sodný je chemická látka podobná běžné soli, která je však pro lidskou konzumaci ve větším množství jedovatá. V minulosti se využívala jako antikonvulzivum (pomocník při léčbě záchvatů, například u epilepsie - pozn. red.) a sedativum, dnes se podle National Institutes of Health používá hlavně k průmyslovému čištění, ve výrobě a zemědělství.

Známky paranoie, sluchové a zrakové halucinace

Muž se kvůli příznakům nespavosti, únavě, špatné koordinaci, červeným hrbolkům na kůži a nadměrné žízni rozhodl navštívit nemocnici. Tam po několika testech zjistili, že se jedná o bromismus, což je stav způsobený dlouhodobým působením bromidu sodného.

Šedesátník také vykazoval známky paranoie, byly u něj zjištěny sluchové a zrakové halucinace, nakonec byl po pokusu o útěk umístěn na psychiatrii.

Doktoři mu podávali tekutiny, elektrolyty, a také mu byla nasazena antipsychotika. Po třech týdnech sledování byl z nemocnice propuštěn.

„Tento případ ukazuje, jak může používání umělé inteligence potenciálně přispět ke vzniku nepříznivých zdravotních následků, kterým lze předcházet,“ napsali výzkumníci v případové studii.

„Je důležité vzít v úvahu, že ChatGPT a další systémy umělé inteligence mohou generovat vědecké nepřesnosti, postrádají schopnost kriticky diskutovat o výsledcích a v konečném důsledku podporují šíření dezinformací,“ dodali výzkumníci.

Umělá inteligence není lékař

Doktor Harvey Castro, certifikovaný lékař urgentní medicíny a národní řečník o umělé inteligenci z amerického Dallasu, zdůraznil, že umělá inteligence je nástroj a ne lékař.

„Velké jazykové modely vytvářejí text předpovídáním statisticky nejpravděpodobnějšího pořadí slov, nikoli ověřováním faktů,“ řekl pro Fox News.

„Bromidový omyl společnosti ChatGPT ukazuje, proč je kontext ve zdravotních radách nejdůležitější. Umělá inteligence nenahrazuje profesionální lékařský úsudek, což je v souladu s prohlášením společnosti OpenAI,“ doplnil.

Aby se předešlo případům, jako je tento, Castro vyzval k zavedení více ochranných opatření pro velké jazykové modely (LLM), jako jsou integrované databáze lékařských znalostí, automatické označování rizik, kontextové výzvy a kombinace dohledu člověka a umělé inteligence.

„S cílenými ochrannými opatřeními se mohou LLM vyvinout z rizikových univerzálních nástrojů v bezpečnější specializované nástroje. Nicméně bez regulace a dohledu se budou vzácné případy, jako je tento, pravděpodobně opakovat,“ dodal Castro.

Firma OpenAI poskytla společnosti Fox News následující prohlášení. „V našich podmínkách je uvedeno, že ChatGPT není určen k léčbě jakéhokoli zdravotního stavu a nenahrazuje odborné poradenství. Máme bezpečnostní týmy, které pracují na snižování rizik a vycvičili jsme naše systémy umělé inteligence, aby lidem doporučily vyhledat odborné poradenství,“ napsala společnost.

Výběr článků

Načítám