Hlavní obsah

Závod o obecnou umělou inteligenci běží naplno. Opatření pro její kontrolu ale chybí

3:04
3:04

Poslechněte si tento článek

Podle přední organizace Future of Life Institute (FLI) nejsou společnosti vyvíjející umělou inteligenci připravené na důsledky systémů s intelektem srovnatelným s lidským. Chybí jim také věrohodné plány, jak zajistit bezpečnost těchto technologií. V jejich indexu bezpečnosti AI totiž žádná firma nezískala lepší hodnocení než C v oblasti plánování pro zvládání existenčních rizik.

Foto: Profimedia.cz

Ilustrační obrázek

Článek

Jeden z pěti recenzentů zprávy Future of Life Institute upozornil, že i přes snahy o vývoj obecné umělé inteligence (AGI) žádná z hodnocených společností nepředložila nic, co by připomínalo soudržný a proveditelný plán pro zajištění bezpečnosti a kontroly nad těmito systémy, píše web The Guardian.

„Odvětví není na své vlastní deklarované cíle v zásadě připraveno. Společnosti tvrdí, že do deseti let dosáhnou obecné umělé inteligence, ale žádná z nich nezískala v plánování existenční bezpečnosti známku vyšší než C,“ uvádí se ve zprávě.

Samotná AGI označuje teoretickou fázi vývoje umělé inteligence, kdy je systém schopen zvládat jakýkoli intelektuální úkol stejně dobře jako člověk.

Například společnost OpenAI uvedla, že jejím posláním je zajistit, aby AGI přinesla prospěch celému lidstvu. Aktivisté v oblasti bezpečnosti ale varují, že obecná umělá inteligence by mohla představovat existenční riziko, pokud by se vymkla lidské kontrole a způsobila katastrofické následky.

Bezpečnostní index umělé inteligence

Index sestavený organizací Future of Life Institute hodnotil sedm společností vyvíjejících umělou inteligenci – Google DeepMind, OpenAI, Anthropic, Meta, xAI a čínské firmy Zhipu AI a DeepSeek – ve třech oblastech, mezi nimiž byly i aktuální škody a opatření proti existenčním hrozbám.

Anthropic získal nejvyšší celkové hodnocení bezpečnosti C+, následovaný OpenAI s C a Google DeepMind s C-.

Hodnocení bezpečnosti bylo také přiděleno a zkontrolováno panelem odborníků na AI, včetně britského počítačového vědce Stuarta Russella a Snehy Revanur, zakladatelky skupiny Encode Justice zabývající se regulací umělé inteligence.

Je to, jako by někdo stavěl gigantickou jadernou elektrárnu, která má být spuštěna příští týden, ale neexistuje žádný plán, jak zabránit její havárii.
Max Tegmark, profesor na Massachusettském technologickém institutu

Max Tegmark, spoluzakladatel Future of Life Institute a profesor na Massachusettském technologickém institutu, upozornil, že je poměrně znepokojivé, když přední firmy v oblasti AI usilují o vývoj superinteligentních systémů, aniž by zveřejnily, jak plánují zvládat jejich možné dopady.

„Je to, jako by někdo stavěl gigantickou jadernou elektrárnu v New Yorku, která má být spuštěna příští týden, ale neexistuje žádný plán, jak zabránit její havárii,“ vysvětlil Tegmark.

„Umělá inteligence ještě předčí naše očekávání. Dříve společnosti tvrdily, že odborníci budou mít desítky let, aby se vypořádali s výzvami AGI. Nyní říkají, že to bude trvat jen několik let,“ dodal.

Future of Life Institute je americká nezisková organizace, která se zasazuje o bezpečnější používání špičkových technologií a díky bezpodmínečnému daru od kryptoměnového podnikatele Vitalika Buterina může fungovat nezávisle.

Anketa

Jak často využíváte umělou inteligenci?
Každý den
38,6 %
Několikrát do týdne
29,4 %
Několikrát do měsíce
5,9 %
Jen nárazově
12,4 %
Vůbec umělou inteligenci nevyužívám
13,7 %
Celkem hlasovalo 153 čtenářů.

Výběr článků

Načítám