Hlavní obsah

Tlak na vývoj AI roste. Hrozí katastrofa podobná Hindenburgu, varuje odborník

S nástupem umělé inteligence (AI) a jejím rozšířením mezi běžné uživatele se mnohé zrychlilo. Nejen věci, které díky AI lze vykonávat snáze a s menšími náklady, ale i neustálý vývoj umělé inteligence samotné. Jakkoli to může být přínosné, stále více odborníků varuje, že AI bublina může jednou prasknout a následky mohou být katastrofické, podobně jako byla ve své době třeba zkáza vzducholodi Hindenburg.

Foto: Getty Images

Očekávaný scénář přistání. Vzducholoď měla spustit lana a být přitažena na zem, přímo v Lakehurstu už to měli nacvičené z minulého roku. S žádným požárem se nepočítalo.

Článek

Hindenburg patřil ve své době k výdobytkům moderní technologie, šlo o největší létající stroj a pýchu nacistického Německa. Po rychlém nástupu a slávě ale přišel i rychlý konec, v roce 1937 došlo totiž při přistání na letišti Lakehurst v americkém New Jersey k požáru, který si vyžádal 36 lidských životů.

Rychlost, s jakou začala vzducholoď hořet a následně se zřítila na přistávací plochu, byla děsivá. Vše umocnila i přítomnost štábů na místě, tragédie tak byla velmi podrobně zdokumentována.

A právě podobnou rychlostí může prasknout i přespříliš nafouknutá bublina kolem umělé inteligence, jak tvrdí odborník na AI Michael Wooldridge, profesor na Oxfordské univerzitě. Tlak nejen na zařazení, ale i na neustálý vývoj nových systémů umělé inteligence je natolik velký, že případné problémy s tím spojené by mohly ve velkém měřítku otřást celým světem, podobně jako zkáza Hindenburgu otřásla ve své době světem technologickým, uvádí Guardian.

Nárůst chatbotů a dalších služeb s umělou inteligencí je tak velký, že i přes ochranné bariéry se dá mnohé obejít a zneužít. Což podle odborníků jasně ukazuje, že komerční využití je upřednostňováno před opatrným vývojem a bezpečnostním testováním.

„Je to klasický scénář. Máte technologii, která je velmi slibná, ale není natolik prověřená, jak byste si přáli. Jenže je tu nesnesitelný komerční tlak,“ popisuje Wooldridge s tím, že řada společností tak i přes možná rizika produkty na trh dodá, co nejdříve to jde. V tu chvíli nastává prostor pro možné selhání, jako v případě Hindenburgu.

„Katastrofa Hindenburgu zničila celosvětový zájem o vzducholodě. Od té doby je to mrtvá technologie – podobné riziko, a to opravdu velké, hrozí i u umělé inteligence,“ dodává s tím, že AI je již dnes součástí tolika programů a pracovních procesů, že by případná katastrofa zasáhla téměř všechny sektory.

Lidskost není AI vlastní.
Michael Wooldridge, odborník na AI

Podle něj existují mnohé katastrofické scénáře, jak by se mohlo něco pokazit – hackerské útoky poháněné umělou inteligencí, špatná aktualizace autonomních vozidel nebo třeba kolaps bankovnictví, protože AI udělá něco špatně.

Přestože jsou některé hrozby opravdu reálné, i tak nabádá, že útočit proti umělé inteligenci jako takové nemá smysl. Spíš je důležité si udělat reálný obrázek toho, co se od AI očekávalo a co opravdu umí. „Současná umělá inteligence není ani tak spolehlivá, ani kvalitní a neomylná, jak se očekávalo. V mnohém se tomu stále jen přibližuje,“ poznamenal Wooldridge.

Riziko podle něj spočívá také v tom, že řada společností se snaží služby umělé inteligence prezentovat přátelsky, takže s ní lidé začínají zacházet tak, jako by byla opravdu lidská. „Toto je velmi nebezpečná cesta. Lidskost není AI vlastní. Musíme pochopit, že jde stále jen o nástroje a procesy, nic víc,“ dodal k tomu odborník.

Výběr článků

Načítám