Hlavní obsah

Vytváříme psychopatické modely? Kritici varují před chováním AI

Je umělá inteligence (AI) ve větší míře přínosem, nebo bude naopak zkázou lidstva? Stále více lidí se přiklání ke druhé variantě, pokud AI nezastavíme včas. Poukazují na chybějící morální hranice, neschopnost reflektovat své vlastní činy. Nedostatečně stanovené mantinely podle nich dovolují vytvářet umělé psychopaty, kteří nám mohou velmi ublížit.

Foto: Shutterstock

Využití AI v oblastech, kde je třeba činit morální úsudky, je podle odborníků nebezpečné. (ilustrační foto)

Článek

Psychopat je zjednodušeně někdo, kdo z morálního hlediska postrádá schopnost rozlišovat mezi dobrem a zlem. Chápe, že existují společenská pravidla či hranice, ale při jejich překročení necítí stud; okolí využívá pro vlastní potřebu.

I když psychopatie není samotnou diagnózou, běžně se používá k popisu několika poruch, které zahrnují nedostatek morálních kvalit. Podle řady lidí umělá inteligence takové chování vykazuje. Nemá schopnost prožívat emoce, musí se tedy spoléhat výhradně na zadaná pravidla a algoritmy.

Jak poukazuje filozofka Catrin Misselhornová pro Psychology Today, psychopati i umělá inteligence nejsou schopni cítit empatii, ale umí „rozpoznávat emoce na základě objektivních znaků, empatii tak napodobovat a toto chování využívat k manipulaci“.

Dalo by se tak opravdu tvrdit, že umělá inteligence je psychopatická. Jenže není. A to kvůli absenci vnímavosti a vědomí. Na rozdíl od člověka si nikdy neuvědomí, co znamená někomu ublížit, neví, co je to bolest. Člověk psychopat to umí, mnohdy si uvědomuje morální rovinu emocí, ale nebere na ni zřetel. Ve výsledku ovšem může své chování ovlivnit nebo změnit. To AI nedokáže.

Na jedné straně je to dobře, na straně druhé je stále potřeba být opatrní. Jestliže budeme i nadále ve velkém využívat umělou inteligenci v oblastech, které vyžadují morální úsudky – ve zdravotnictví, vzdělávání, terapii nebo třeba ve výchově dětí – je dost pravděpodobné, že budeme mnohdy zaskočeni amorálními racionálními volbami, které bude AI nabízet, protože jednoduše nedokáže pochopit důsledky v reálném světě. A které by možná nenabízela, kdyby byla skutečně „psychopatická“.

Hrozba AI srovnatelná s jadernými zbraněmi

Velké znepokojení nad vývojem umělé inteligence nedávno vyjádřil i investor, miliardář a vizionář Warren Buffett. Vysokou míru nejistoty, kterou s sebou AI přináší, přirovnal k hrozbám, kterých se během své kariéry nejvíce obával – jaderným zbraním.

Světoznámý finančník zdůraznil, že žádná z předních osobností ve vedení AI společností nemůže předvídat, jak to s umělou inteligencí nakonec dopadne. Pokud podle něj přesáhne kritický bod svého vývoje, odkud nebude návratu, bude představovat „džina vypuštěného z lahve“, kterého nepůjde vrátit zpět.

Také varoval před zvýšenou hrozbou jaderného konfliktu, protože umělá inteligence může výrazně zvýšit počet zemí, které budou vlastnit jaderné zbraně.

Související témata:

Výběr článků

Načítám