Hlavní obsah

Český student na Stanfordu září. Vylekal manažery CNN a vyvinul vlastní technologii

Tlačítkem Sledovat můžete odebírat oblíbené autory a témata. Články najdete v sekci Moje sledované a také vám pošleme upozornění do emailu.

Je mu devatenáct a studuje počítačovou vědu se zaměřením na umělou inteligenci na prestižní Stanfordově univerzitě v Kalifornii. Při jednom z projektů se český student Matyáš Boháček spojil se zpravodajskou stanicí CNN a s profesorem Hanym Faridem vytvořili na internetu dostupnými prostředky falešné video jejich moderátora Andersona Coopera. Sám Boháček proti podvodům bojuje a vyvinul k tomu vlastní technologii.

Foto: archiv Matyáše Boháčka

Český student na Stanfordu a odborník na umělou inteligenci Matyáš Boháček

Článek

Pomocí umělé inteligence pak známé tváři CNN vložil do úst něco, co ve skutečnosti nikdy neřekla. „Chtěl jsem dokázat, jak neskutečně jednoduše se dá takzvaný deepfake, falešné video, vytvořit. Stačí k tomu několik skutečných záznamů moderátora a nástroje, které jsou všem dostupné na internetu. Když jsem výsledek poslal do CNN, dostal jsem odpověď od manažerů, kteří byli vylekaní. Sami by falešné video nepoznali,“ popsal Boháček.

Známého hlasatele si vybral záměrně. „Ve Spojených státech funguje kult moderátora. Když se vytvoří falešný záznam s ním, dodá to na důvěryhodnosti,“ vysvětlil mladý výzkumník. Není ovšem problém vyrobit takové video či hlasový záznam například s prezidentskými kandidáty Joem Bidenem či Donaldem Trumpem a nechat je říkat věty, které je v očích voličů zdiskreditují.

Sexy modelka vydělávala statisíce, i když neexistuje. Teď ale zmizela

Software

„Došlo k tomu v primárkách ve státě New Hampshire, kde lidem volala falešná čísla, v hovoru pak zněl hlas Joea Bidena vytvořený umělou inteligencí. Voličům říkal, aby nechodili k volbám. Takových případů bude stále více,“ uvedl vědec.

„Nechci říkat, že umělá inteligence rozhodne prezidentské volby, ale je možné, že je zásadně ovlivní. Rozhodují tisíce hlasů v kritických státech, takže kdo by chtěl volby zmanipulovat, stačí mu obrátit na svoji stranu tyto osoby. Pomocí umělé inteligence jim může volat zfalšovaný hlas kandidáta a šířit lži, ty navíc mohou být díky AI cílené na konkrétního voliče v daném státě,“ nastínil Boháček.

Sám se snaží, aby se dařilo podobné podvody odhalovat. „V laboratoři profesora Hanyho Farida na tom pracuji už od chvíle, kdy Rusko zaútočilo na Ukrajinu. Tehdy se objevilo falešné video s prezidentem Zelenským, v němž vyzýval ukrajinské vojáky, aby složili zbraně. Vidět deepfake v takto kritickém okamžiku bylo znepokojivé,“ uvedl vědec.

BBC se chystá vytvořit vlastní AI

Software

Dívejte se na ústa

Technologie, kterou k rozpoznávání podvodů vyvinul, dosahovala úspěšnosti 99 procent, v posledních měsících ji ještě vylepšil. Je využívána, o jejím konkrétním dosahu však nechce Boháček z bezpečnostních důvodů mluvit podrobněji, neobjeví se ani volně k použití na internetu.

„Pokud by se tak stalo, podvodníci by ji okamžitě zneužili a jejich videa by byla zase dokonalejší a odhalení by unikala. Je to taková hra kočky s myší,“ vysvětlil Boháček.

Uvedl několik tipů, jak člověk může zfalšované video odhalit. „Je dobré se zaměřit na oblast úst řečníků, tu totiž podvodníci upravují tak, aby pusa odpovídala vytvořenému hlasovému záznamu. Stává se, že se ústa nehýbou a ozývá se hlas, nebo je naopak pusa otevřená a zvuk nezní. Takové deepfaky se také neumí věrohodně smát,“ popsal odborník.

Španělská policie vypustila do ulic Malagy robotického psa

Koktejl

„Ve Stanfordu a okolních firmách se řeší nový standard, kdy by měly všechny obrázky a videa zašifrovaný klíč. Podle něj by například sociální sítě byly schopné zjistit, zda byl materiál jakkoliv upravený,“ přiblížil Boháček.

Vedle podvodů se deepfake videa objevují také při vytváření falešných pornografických snímků či nahrávek. Stačí jediná fotka obličeje, AI z ní dokáže vyrobit nelichotivý materiál. Letos se objevily falešné nahé obrázky se zpěvačkou Taylor Swift, italská premiérka Giorgia Meloniová se zase chce soudně bránit proti takto vytvořenému pornografickému záznamu se svým obličejem.

Uměle vytvořené pornoobrázky Taylor Swift zburcovaly internet. Bílý dům volá po změně zákonů

Amerika

Nahota by neměla být veřejná

„Určitě bychom se neměli smířit s tím, že nahota už nebude soukromá věc. Postih za tvorbu takových obrázků či videí musí být tvrdý, Bílý dům už předložil návrhy nových pravidel pro umělou inteligenci, které řeší i tuto oblast,“ dodal student Stanfordu.

Sám Matyáš Boháček vidí svoji budoucnost, alespoň v tuto chvíli, hlavně v roli výzkumníka. V minulosti vytvořil například program pro převod znakového jazyka do textové podoby, jeho komerční využití ovšem nechává na jiných.

Rozšíření internetového prohlížeče, které je v češtině a odhaluje manipulace, je zase na stránkách verifee.ai dostupné všem zdarma. „Co mě poslední dobou fascinuje a zajímá, je způsob, jakým se učí umělá inteligence. Ukazuje se, že když se začne AI učit z vlastních výtvorů, například uměle vytvořených obrázků, modely se začnou rozbíjet a hroutit. Bude to znít zvláštně, ale je to dobrá zpráva. Díky tomu je totiž v zájmu technologických firem, aby bylo označené a odlišené vše, co vytvořila umělá inteligence,“ uzavřel vědec.

Osmáci vytvořili pomocí AI nahé fotky svých spolužáků v Beverly Hills. Vyloučili je

Koktejl

Reklama

Výběr článků

Načítám