Hlavní obsah

Svět už nebude nikdy stejný, říká kybernetik a filosof Jan Romportl o nástupu umělé inteligence

Tlačítkem Sledovat můžete odebírat oblíbené autory a témata. Články najdete v sekci Moje sledované a také vám pošleme upozornění do emailu.

„Dneska jsme jako subtilní paní, co vede na tenoučkém flexi vodítku rotvajlera. A je dobré bezpečnostní otázky vyřešit dřív, než se rotvajler změní v tyranosaura,“ říká Jan Romportl k současnému stavu vývoje umělé inteligence.

Foto: archiv Jana Romportla

Jan Romportl je konzultant v oblasti umělé inteligence, zakladatel a někdejší ředitel Dataclair.ai, spolupracuje s Filozofickou fakultou ZČU nebo Centrem pro teoretická studia při UK a AV ČR.

Článek

Když jsme se spolu před šesti lety poprvé bavili o umělé inteligenci, byla to pořád hodně teoretická debata. To dnes už neplatí. Co se změnilo?

Tehdy už existovaly velké firmy jako DeepMind nebo OpenAI, které deklarovaly, že chtějí vytvořit obecnou umělou inteligenci, tedy nebiologický systém schopný dosahovat libovolného cíle. Inteligenci, která bude podobná lidské, ale nebude omezena biologickou schránkou.

Jak se k ní dostat, však tehdy ještě nebylo zřejmé. Věděli jsme, že bude nejspíš nutné vytvořit virtuálního agenta, který bude sám sebe rekurzivně vylepšovat, ale jak bude řešený jeho svět, jsme netušili. Potom ovšem přišel zásadní zlom: v roce 2019 se OpenAI rozhodla vsadit na velké jazykové modely.

Vychází nový Salon: Bělohradský a Matějčková o dnešní katolické církvi

SALON

Jazykový model je neuronová síť, které dáte text a ona předpovídá, jak bude pokračovat. Takové sítě vznikly před mnoha lety, ale dlouho nikdo neviděl jejich skutečný potenciál. Používaly se modely o rozměru zhruba padesát až sto milionů parametrů. V roce 2019 přišla OpenAI s GPT-2, který měl parametrů jeden a půl miliardy. A najednou se ukázalo, že nad tím modelem vyvstávají zásadní jazykově kognitivní schopnosti, svět modelující schopnosti. Ukázalo se, že dokončování textů u takto velkého jazykového modelu velmi připomíná komunikaci mezi lidmi: dostanu otázku a „dokončím“ ji svou odpovědí.

Jak moc zásadní to byla změna, bylo zřejmé hned na jaře 2020, kdy přišla GPT-3, která měla 175 miliard parametrů. V tu chvíli bylo nepochybné, že jsme našli velmi slibnou cestu k obecné umělé inteligenci: velký jazykový model a podobné modely pro video, audio nebo pro kódování akcí budou jeho klíčovou součástí.

Ještě v roce 2020 se odhadovalo, že obecná umělá inteligence vznikne do třiceti až čtyřiceti let. Dnes je průměrný odhad tři roky.

Jak velký je to pro lidstvo zlom? Je to srovnatelné s nástupem internetu?

Podle mě je to srovnatelné se vznikem přirozeného jazyka. Ten s sebou nesl schopnost koordinace ve skupině a myšlení v kontextech neexistujících abstraktních entit, což nás dostalo z pozice dost nedůstojného člena potravinové pyramidy, kdy jsme byli někde pod hyenami, na její vrchol.

Foto: EDO

Jan Romportl na Ekologických dnech Olomouc 2023

Nyní jsme najednou v situaci, že tuto doteď unikátní lidskou schopnost budeme moci delegovat na jinou entitu, která nebude z masa a kostí, a co je důležité z hlediska bezpečnosti: neprošla si zatěžkávací zkouškou stovek milionů let přirozené evoluce.

Navíc si tu změnu začínáme uvědomovat.

V listopadu 2022 přišel systém ChatGPT, co nebyl nějakým velkým vylepšením GPT-3, ale umožnil obyčejnému uživateli si s umělou inteligencí „povídat“. A dopad je obrovský. Do té doby jsme se o umělé inteligenci bavili možná my dva a pár intelektuálů k tomu. Teď o ní mluví všichni.

Kybernetik a filosof Jan Romportl: Zahubí nás umělá inteligence?

SALON

Lidé pochopili, že se to přímo týká jejich životů, že to bude ovlivňovat jejich práci, že je tady něco revolučně nového. Dosud jsme byli nuceni se adaptovat maximálně na změnu prostředí, teď je zde ale umělá entita, která toho umí víc než my. A to je ChatGPT a nově i GPT-4, která má podle většiny odhadů půl bilionu až bilion parametrů, pořád jen malá ochutnávka toho, co má přijít.

Pojďme k té bezpečnosti…

Hlavní otázkou je, jak obecné umělé inteligenci vštípit hodnoty, které budou v souladu s hodnotami lidstva. Mimo jiné proto, aby nás třeba i omylem nezlikvidovala. Vůbec nevíme, jak na to. Potřebovali bychom čas. Jenže pokrok v podání velkých firem je příliš překotný. Jak už jsem říkal: místo třiceti let máme roky tři.

O problému hodnot jsme mluvili už před těmi šesti lety.

A v řešení jsme skoro nepokročili, objevili jsme pár slepých uliček a zjistili, že je to celé komplikovanější, než se původně zdálo.

Nedávno vznikl dopis, který podepsalo mnoho osobností od Stevea Wozniaka přes Elona Muska po Yuvala Noaha Harariho a který vyzývá ke stopnutí vývoje, respektive k přeorientování se právě na otázku bezpečnosti.

I kdyby na to velké firmy přistoupily, je důležité zdůraznit, že krok zpět udělat nelze. Adaptace na to, jak změní náš život GPT-4, už běží. Ten systém je venku. Změny na trhu práce budou obrovské, sociální tlaky také.

Pokud ale budou lidé dostatečně při smyslech a dostaneme se právě přes syndrom popření, pokud si připustíme, že svět už prostě nebude nikdy stejný, a opřeme se o naši individuální schopnost flexibility a adaptability, což je něco, čím nás vybavila lidská evoluce, věřím, že to velká část z nás zvládne.

Foto: Profimedia.cz

Yuval Noah Harari

Jen je třeba si uvědomit, že to za nás nevyřeší ani Evropská unie, ani populisté. Pomoct si musíme každý sám.

Jak moc to promění trh práce?

Nástroje založené na velkých jazykových modelech budou podle jednoho zámořského výzkumu schopny nahradit polovinu objemu práce všech Američanů. Spousta profesí zanikne, jiné čeká redefinice. A ne jednorázová. Budeme se muset adaptovat průběžně.

Vezměme si takového copywritera: dosud bylo náplní jeho práce psát reklamní texty. To teď skončí. Centrem jeho profese se stane kontakt s klientem, který často neví přesně, co chce, a dobrý copywriter to z něj dokáže dostat. Dokud i toto nezvládne stroj – pak budou muset lidé z reklamek náplň své profese znovu proměnit.

Budeme nespokojení bohové? ptá se izraelský historik Yuval Noah Harari

SALON

Obecně se zdá, že budeme mnohem častěji pečovatelé či průvodci druhých lidí. Například naše děti budou stále vzdělávány lidmi: učitelé budou mít pro svou profesi fantastické nástroje, budou umělou inteligenci používat na dennodenní bázi, budou to dnešní učitelé na steroidech, ale pořád ta profese nepřestane kvůli tomu mezilidskému kontaktu existovat.

Podobně lékaři: diagnostikovat za ně bude s mnohem větší přesností i úspěšností umělá inteligence – a oni se proto budou moci mnohem víc věnovat tomu, aby vás jako druhého člověka tou léčbou provedli. Budeme se opírat o to jediné, co stroje napodobit nedokážou – že jsme lidé.

Pak jsou bohužel profese, které kontakt s lidmi nemají vůbec. Softwarový vývojář, programátor, to bylo ještě před pár lety elitní povolání, ale už velmi brzy bude velká část z nich nahraditelná strojově. A protože jde o introvertní profesi, bude to pro mnohé katastrofa.

Nebude nakonec hlavní problém, jak se vyrovnat se světem bez práce?

Podle filosofa Milana Machovce bychom se na lidský život měli doptávat v takzvaném bytostném dialogu, což je dialog tváří v tvář zániku, světu bez nás. Myslím to jak na individuální, tak na celospolečenské rovině. Každý člověk se najednou bude muset ptát, kdo je a co je smyslem jeho života – když něco, o co opíral svou identitu, umí umělá inteligence desetkrát, stokrát, milionkrát lépe.

V tomhle nám technologický vývoj nastavil zrcadlo a my budeme muset ten pohled vydržet.

Králičí nory sociálních sítí. Rozhovor s kybernetikem a filosofem Janem Romportlem

SALON

Hodně lidí dokáže svou práci na novou situaci aspoň zpočátku adaptovat. Jiní budou pobírat základní nepodmíněný příjem, který nám nezbude než zavést, a budou žít spokojeně bez práce, protože vlastní identitu opřou o cestování, vzdělávání či rodinu. A pak tady bohužel bude hodně těch, kteří to nezvládnou.

Původně jsme si mysleli, že stroje nahradí spíše neodbornou, manuální lidskou práci. A ono to bude naopak.

I podle českých průzkumů veřejného mínění se o ztrátu zaměstnání kvůli nástupu umělé inteligence bojí zejména méně vzdělaní lidé. Ale nejsou to oni, kdo je bezprostředně ohrožený. Mnohem spíše by se měly obávat bílé límečky, třeba i novináři nebo spisovatelé.

Mluvíme o něčem lidském jako o hodnotě. Neztratíme to někde v tom procesu?

Budeme tu hodnotu muset před umělým světem co nejvíc chránit. Velmi bych například varoval před tím dávat strojům antropomorfní podobu. Lidské musí zůstat lidské.

Rád bych se ještě vrátil k té stopce. Je vůbec reálné pozastavit zvnějšku vývoj umělé inteligence?

Bohužel to reálné není, ale zároveň je strašně důležité, aby se tak stalo. Současné velké jazykové modely mají miliardy parametrů a my do nich nejsme schopni vidět. Vůbec nevíme, jak reprezentují skutečnost, o které se s námi baví. Do člověka také nevidíme, ale víme, že jsme si všichni zhruba podobní, a máme v sobě společnou zkušenost mnoha milionů let evoluce. Velké jazykové modely jsou z tohoto hlediska z jiného vesmíru, je to úplně jiný druh inteligence: nepředvídatelný, bizarní.

Foto: Reddit/trippy_art_special

Fotografie papeže Františka vygenerovaná umělou inteligencí

Můžeme si představit, že se najednou výstupem jejího inferenčního procesu stane vystřílet všechny lidi, kteří nejsou bílí. Co to říká? Proč se to tam objevilo? Jak se to tam dostalo? Opravíme to tím, že se pokusíme umělou inteligenci doslova „přemluvit“. Promptingem jí zakážeme říkat cokoli rasistického. Ale to je stejné, jako bychom se pokoušeli psychopata přesvědčit, aby nám nelhal. A nebudeš mi lhát, že ne? – Nebudu. – Nebudeš na mě zlý? – To víš, že ne, slibuju, čestný pionýrský. Ale co se reálně děje uvnitř, se nedozvíme.

U lidského psychopata máme tu výhodu, že jeho dosah není velký, může zničit život jen lidem okolo sebe, navíc jednou umře. Jenže tohle u nebiologické entity není. A právě proto musíme vyvinout nějaký diagnosticko-manipulační nástroj, kterým dokážeme proniknout dovnitř toho systému a injektovat do inferenčního procesu potřebná východiska.

A o to jde tomu dopisu, který jsem také podepsal: soustředit západní i čínské vývojářské síly na tento úkol. Dneska jsme jako subtilní paní, co vede na tenoučkém flexi vodítku rotvajlera. A je dobré tyto bezpečnostní otázky vyřešit dřív, než se rotvajler změní v tyranosaura.

Ještě jeden problém už pociťuje hodně lidí. Jak se nám bude žít ve světě, kde nepůjde věřit fotografiím, videím, zvukům, zkrátka našim smyslům? Příkladů máme již dnes hodně: od nevinných jako tancující papež po problematické jako falešné fotky z Trumpova zatčení.

Bude to hodně obtížné. Evolucí jsme nastaveni, abychom věřili vlastním očím, abychom nepochybovali, když něco vidíme. Technicky není samozřejmě problém ošetřit, aby třeba fotografie, které někde pořídí válečný reportér, v sobě měly něco nezměnitelného, co nám bude říkat, že to opravdu nafotil on. A pak už to bude stejné jako dnes – buď mu můžeme věřit, nebo ne. Ale i tak bude naše první reakce na jakýkoli obrazový podnět emocionální, to v člověku nelze zlomit. Budeme se s tím muset naučit rozumově pracovat.

Reklama

Související články

Výběr článků

Načítám