Článek
Deepfaky - tedy falešná videa, obrázky či zvukové nahrávky vytvářené AI, které se tváří jako reálné, jsou s postupným vývojem umělé inteligence stále propracovanější. Odhalit padělek už tudíž není tak snadné jako dříve.
Na studii o tom, kdo je lepší při odhalování digitálních padělků, se podílela psycholožka Natalie Ebnerová se svým týmem. Ti nejprve zadali 2200 účastníkům a dvěma algoritmům strojového učení, aby ohodnotili realistické vzezření celkem 200 předložených tváří a oznámkovali je na stupnici 1 (falešné) až 10 (skutečné).
Lidé odhadovali falešné obrázky spíše náhodně, jejich úspěšnost byla zhruba 50 %. Systémy AI byly mnohonásobně lepší - jeden z algoritmů dosáhl úspěšnosti 97 % odhalených padělků, ten druhý 79 %.
V další části pak vědci požádali 1900 účastníků, aby si prohlédli 70 krátkých videí, na kterých vždy nějaká osoba hovořila o určitém tématu. Následně pak měli spolu s AI systémy ohodnotit reálné vzezření a výraz dané osoby. V tomto úkolu byli lidé překvapivě lepší - dosáhli úspěšnosti v 63 % případů. Algoritmy umělé inteligence odhadovaly pravost víceméně náhodně.
Tím ale výzkum neskončil. Podle Ebnerové nyní zkoumají, díky kterým rozhodovacím procesům jsou v některých podmínkách stroje lepší než člověk. „Jak se to liší od lidského uvažování, co naopak lidský mozek upozorní, že je něco špatně?“ nabízí další možné otázky výzkumu odbornice.
„Nyní se aktuálně zabýváme všemi možnými úhly pohledu člověka a stroje - nechceme jen vědět, jak se rozhodují, ale hlavně proč tak dělají,“ cituje její slova server ScienceNews. Také dodala, že pro co největší úspěšnost při odhalování deepfaků a ochranu lidí před nimi je nezbytné, aby lidé úzce spolupracovali s umělou inteligencí.
Paradox AI
Mnohé deepfaky, především videa, jsou již natolik zdařilé, že jim lidé věří až tolik, že jsou schopni investovat vlastní peníze na základě „zaručených“ rad od odborníků, politiků či dalších veřejně známých osob. Je známo, že o ně ve valné míře přijdou a nikdy je nezískají zpět.
V tomto pohledu je jistě potřeba deepfaky odhalovat a stále sofistikovanější nástroje umělé inteligence v tom mohou pomoci. Tady se ale nabízí otázka: Není paradox, že umělá inteligence, která je sama ve vytváření deepfaků tolik úspěšná, má být pro lidi nejlepším pomocníkem, jak deepfaky spolehlivě odhalovat?
S každým záchytem deepfaku poskytujeme nepřátelským systémům trénovací data pro vývoj lepších modelů.
„Po tisíce let lidé obchodovali stylem tváří v tvář. Základem byl princip, že když někoho vidím, mohu s ním mluvit, tak mu mohu věřit,“ varuje Thomas Hoskin, ředitel produktového managementu v americké společnosti ZeroFox, která se zabývá kybernetickou bezpečností.

