Článek
Jeden z pěti recenzentů zprávy Future of Life Institute upozornil, že i přes snahy o vývoj obecné umělé inteligence (AGI) žádná z hodnocených společností nepředložila nic, co by připomínalo soudržný a proveditelný plán pro zajištění bezpečnosti a kontroly nad těmito systémy, píše web The Guardian.
„Odvětví není na své vlastní deklarované cíle v zásadě připraveno. Společnosti tvrdí, že do deseti let dosáhnou obecné umělé inteligence, ale žádná z nich nezískala v plánování existenční bezpečnosti známku vyšší než C,“ uvádí se ve zprávě.
Samotná AGI označuje teoretickou fázi vývoje umělé inteligence, kdy je systém schopen zvládat jakýkoli intelektuální úkol stejně dobře jako člověk.
Například společnost OpenAI uvedla, že jejím posláním je zajistit, aby AGI přinesla prospěch celému lidstvu. Aktivisté v oblasti bezpečnosti ale varují, že obecná umělá inteligence by mohla představovat existenční riziko, pokud by se vymkla lidské kontrole a způsobila katastrofické následky.
Bezpečnostní index umělé inteligence
Index sestavený organizací Future of Life Institute hodnotil sedm společností vyvíjejících umělou inteligenci – Google DeepMind, OpenAI, Anthropic, Meta, xAI a čínské firmy Zhipu AI a DeepSeek – ve třech oblastech, mezi nimiž byly i aktuální škody a opatření proti existenčním hrozbám.
Anthropic získal nejvyšší celkové hodnocení bezpečnosti C+, následovaný OpenAI s C a Google DeepMind s C-.
Hodnocení bezpečnosti bylo také přiděleno a zkontrolováno panelem odborníků na AI, včetně britského počítačového vědce Stuarta Russella a Snehy Revanur, zakladatelky skupiny Encode Justice zabývající se regulací umělé inteligence.
Je to, jako by někdo stavěl gigantickou jadernou elektrárnu, která má být spuštěna příští týden, ale neexistuje žádný plán, jak zabránit její havárii.
Max Tegmark, spoluzakladatel Future of Life Institute a profesor na Massachusettském technologickém institutu, upozornil, že je poměrně znepokojivé, když přední firmy v oblasti AI usilují o vývoj superinteligentních systémů, aniž by zveřejnily, jak plánují zvládat jejich možné dopady.
„Je to, jako by někdo stavěl gigantickou jadernou elektrárnu v New Yorku, která má být spuštěna příští týden, ale neexistuje žádný plán, jak zabránit její havárii,“ vysvětlil Tegmark.
„Umělá inteligence ještě předčí naše očekávání. Dříve společnosti tvrdily, že odborníci budou mít desítky let, aby se vypořádali s výzvami AGI. Nyní říkají, že to bude trvat jen několik let,“ dodal.
Future of Life Institute je americká nezisková organizace, která se zasazuje o bezpečnější používání špičkových technologií a díky bezpodmínečnému daru od kryptoměnového podnikatele Vitalika Buterina může fungovat nezávisle.