Článek
Hlavní autorka studie Ariel Flint Asheryová, doktorandka na univerzitě City St George’s, uvedla, že práce skupiny je v rozporu s většinou výzkumů umělé inteligence, protože k AI přistupuje jako k sociální, nikoli osamělé entitě, píše web The Guardian.
„Většina dosavadního výzkumu se zabývala LLM izolovaně, ale reálné systémy AI budou stále častěji zahrnovat mnoho interagujících agentů,“ řekla Asheryová.
„Mohou tyto modely koordinovat své chování vytvářením konvencí a stavebních kamenů společnosti? Odpověď zní ano a to, co dělají společně, nelze redukovat na to, co dělají samostatně,“ dodala.
Jak to funguje?
Skupiny jednotlivých agentů velkých jazykových modelů použitých ve studii se pohybovaly od 24 do 100. V každém experimentu byli dva agenti LLM náhodně spárováni a požádáni, aby z nabídky možností vybrali jméno, ať už písmeno, nebo řetězec znaků.
Pokud oba AI agenti vybrali stejné jméno, byli odměněni, ale když vybrali různé možnosti, byli penalizováni a navzájem si ukázali své volby.
Přestože si agenti nebyli vědomi, že jsou součástí větší skupiny, a jejich paměť byla omezena pouze na jejich vlastní nedávné interakce, v celé skupině spontánně vznikla společná konvence pojmenování bez předem definovaného řešení. To napodobovalo komunikační normy lidské kultury.
„Agenti nekopírují vůdce. Všichni se aktivně snaží koordinovat, a to vždy ve dvojicích. Každá interakce je individuálním pokusem dohodnout se na označení, bez jakéhokoli globálního pohledu,“ vysvětlil vědec a další autor studie Andrea Baronchelli.
„Je to jako s termínem spam. Nikdo ho formálně nedefinoval, ale díky opakovanému koordinačnímu úsilí se stal univerzálním označením pro nevyžádanou elektronickou poštu,“ dodal.
Dynamika kritického množství
Kromě tohoto zjištění tým pozoroval, že se přirozeně vytvářejí kolektivní předsudky, které nelze vysledovat u jednotlivých agentů. V závěrečném experimentu dokázaly malé skupiny AI agentů nasměrovat větší skupinu k nové konvenci pojmenování.
To vědci označili za důkaz dynamiky kritického množství – kdy malá, ale odhodlaná menšina může vyvolat rychlý posun v chování skupiny, jakmile dosáhne určité velikosti. Přesně tak, jak je to u lidské společnosti.
„Studie otevírá nové obzory pro výzkum bezpečnosti umělé inteligence. Ukazuje hloubku dopadů tohoto nového druhu agentů, kteří s námi začali interagovat a budou spoluvytvářet naši budoucnost,“ řekl Baronchelli.
„Porozumění, jak fungují, je klíčem k tomu, abychom s AI mohli koexistovat, místo abychom jí byli podřízeni. Vstupujeme do světa, kde AI nejen mluví, ale také vyjednává, sjednocuje a někdy nesouhlasí se sdíleným chováním, stejně jako my,“ uzavřel vědec.