Hlavní obsah

Vidět už neznamená věřit, umělá inteligence tvoří falešné doklady i videa téměř nerozeznatelné od reality

4:32
4:32

Poslechněte si tento článek

Udělat si falešný občanský průkaz nebo vytvořit podvodné video na sociální sítě nebylo nikdy jednodušší. Nástroje umělé inteligence (AI) je připraví během chvilky a jsou k nerozeznání od reality. Obranou je podle odborníků důsledná kontrola nebo takzvaný digitální podpis, z něhož se pozná, že nejde o reálný doklad nebo fotku.

Foto: Profimedia.cz

Deep Fake videa vytvořená umělou inteligencí jsou k nerozeznání od těch skutečných.

Článek

„Zneužití AI je reálné a bohužel velmi snadné. Vytvořit na první pohled uvěřitelný falešný doklad, identitu nebo hlas dnes zvládne i průměrný uživatel,“ řekl Novinkám šéf digitálně-konzultační společnosti FLO Andrej Hájek.

Videa už nejsou podle ředitele společností Stratox a CodeNOW Petra Svobody jednoznačným důkazem. „Google Veo a další AI modely umožňují vytvářet záznamy, které se nikdy nestaly. Je to konec éry důvěry v to, co vidíme,“ prohlásil. Svět se podle něj posouvá do éry, kdy vizuální důkaz už nemusí být relevantní vůbec.

„Veo umí vygenerovat videozáznam v téměř filmové kvalitě, s realistickými výrazy, pohybem, prostředím. Vše přitom vzniká pouze na základě textového zadání,“ doplnil.

Podle technického ředitele společnosti MoroSystems Radka Teichmanna narůstá počet sofistikovaných podvodů, ať už jde o falešné doklady, syntetické identity nebo takzvaná deepfake videa. „Technologie dnes umožňují vytvořit věrohodně vypadající dokumenty nebo napodobit lidský hlas a obličej s minimálním úsilím,“ varoval.

S progresivním vývojem AI modelů a jejich masovou dostupností se podle manažera kybernetické bezpečnosti společnosti ČMIS Jana Bufky pochopitelně rozvinula i související rizika.

„Je to jen několik let zpátky, kdy jsme se báli zmanipulovaného obsahu, který chrlily trolí farmy, kde placení záškodníci generovali zmanipulované zpravodajství, očerňovací kampaně a retušované fotografie. Dnes jsme v době, kdy má i zkušenější odborník problém rozeznat fotografii, která je vygenerovaná některým z AI modelů, specializovaných na grafické operace,“ řekl Novinkám.

Velmi rychle podle něj přijde doba, kdy stejný problém bude i s video obsahem.

„K čemu to povede? Je nasnadě citelná ztráta důvěry v online obsah. Co bude uživatele lákat ke konzumaci online obsahu, když si nebudou moci být jistí jeho autenticitou a předem budou ke všem informacím přistupovat s nedůvěrou?“ uvedl.

Řešením jsou vzdělávání a důsledná kontrola

Podle Teichmanna obrana proti zneužití AI existuje, ale musí být ve více vrstvách. Na technologické úrovni se nasazují pokročilé detekční systémy, které jsou schopné rozpoznat obsah generovaný umělou inteligencí na základě jemných anomálií nebo srovnáním s důvěryhodnými databázemi.

„Zároveň probíhá vývoj standardů, které přidávají digitální „podpis“ o původu a úpravách obsahu. V neposlední řadě bude klíčové vzdělávání a osvěta. Lidé i firmy se musí naučit, že vidět už neznamená věřit a že ověřování pravosti obsahu se stane standardní součástí naší digitální gramotnosti,“ uvedl.

Bufka upozornil, že tvoření mediálního obsahu potřebuje vstupy, tedy texty, fotografie, videa a hlasovou stopu uživatelů. „S vědomím tohoto dbejte co nejvíce na své soukromí a zbytečně nepublikujte své fotografie a videa. Také důsledně ověřujte informace získané z AI modelů, nevěřte jim slepě,“ doplnil.

Technologický gigant Google podle Svobody přiznal, že nemá robustní mechanismus pro detekci nebo označení obsahu vytvořeného AI.

„To otevírá dveře k masovému zneužití od politických manipulací po osobní vydírání nebo korporátní útoky. Budoucnost AI vidíme jako striktně auditovatelnou, s nástroji pro ověření původu. Bez toho se z internetu může stát digitální Divoký západ, kde realitu tvoří ten, kdo má výkonnější model,“ prohlásil.

Podle ředitele společnosti StartupJobs Filipa Mikschika je dobré kriticky přistupovat ke všemu, co vidíme, a raději vše ověřovat.

Neexistující pracovníci

„Ať jde o zpravodajství, kde deep fake a dezinformace už jsou bohužel na denním pořádku, tak i o práci,“ podotkl. Jsou podle něj dokonce známé případy „pracovníků“ hlásící se na pozice práce z domova, kteří ale vůbec neexistují a snaží se dostat do firem pod zcela smyšlenými identitami.

Finanční instituce už podle ředitele fintech aplikace Patron GO Lukáše Vršeckého využívají AI agenty, tedy programy, které umí samostatně řešit složitější úkoly.

„Ve financích jsou navrženi tak, aby dokázali v reálném čase detekovat podezřelé aktivity a chránit klienty před podvody. Klíčovým faktorem je schopnost analyzovat velké množství transakcí, rozpoznat neobvyklé vzorce chování a okamžitě reagovat,“ řekl Novinkám.

Výběr článků

Načítám