Článek
Podle průzkumu nadace byl minulý rok nejhorším v historii, co se týče materiálů se sexuálním zneužíváním tvořených AI. Zatímco v roce 2024 IWF odhalila 13 generovaných videí s nebezpečným obsahem, v roce 2025 už to bylo 3440 videí.
Znepokojivý je na tom podle odborníků fakt, že 65 % z těchto videí bylo zařazeno do kategorie A, tedy nejvíce extrémní skupiny zneužívání. Do druhé nejnebezpečnější skupiny B spadalo 30 % videí, uvádí zpráva IWF.
„Naši analytici neúnavně pracují na odstranění těchto materiálů. AI ale bohužel natolik pokročila, že si pedofilové a další zločinci mohou vlastně vytvářet přesně to, co chtějí, a v množství, jakém chtějí,“ varuje podle serveru Daily Mail generální ředitelka IWF Kerry Smithová.
Okamžitě zakázat
Nadace IWF na základě uvedeného zjištění vyzývá k okamžitému zákazu využívání umělé inteligence pro tvorbu snímků nebo videí se sexuálním obsahem. Prudký nárůst těchto materiálů odborníci přičítají především stále se zlepšující technologii, díky které mohou zločinci vytvářet podobné fotky či videa nejen přesněji, jak chtějí, ale i mnohem rychleji.
IWF navíc varuje, že s neustálým pokrokem mohou takové věci vytvářet i lidé s minimálními technologickými znalostmi.
„Obrovský nárůst videí zařazených do kategorie A jasně ukazuje, co zločinci chtějí. A to je děsivé. Snadná dostupnost takových materiálů jen povzbudí ty, kteří mají sexuální zájem o děti, povede k jejich dalšímu šíření a ohrozí více dětí – online i offline,“ vysvětluje Smithová.
Materiály s tematikou sexuálního zneužívání dětí generované pomocí AI jsou mnohem nebezpečnější, než se zdá. Základem pro vytváření upravených fotek či videí bývá totiž velmi často skutečné dítě, které pachatel zná ze svého okolí.
Hrozba od lidí, které znají
V roce 2024 byl tehdy sedmadvacetiletý Hugh Nelson odsouzen k 18 letům vězení za úpravu fotek skutečných dětí pomocí AI tak, aby zobrazovaly sexuální obsah. Jak soud později zjistil, snímky, které mu k úpravám poskytli jeho platící zákazníci, byly ve velké většině od otců, strýců, rodinných přátel či sousedů zneužitých dětí.
„Použití generativní umělé inteligence k vytváření materiálů se sexuálním obsahem by nemělo být právní šedou zónou. Jde o sexuální vykořisťování, bez ohledu na to, zda jde o výtvor AI,“ dodává k tomu Jamie Hurworth, právník a expert na zákony o online bezpečnosti.
„Zjištění jasně ukazují, jak velké škody může AI napáchat, pokud nebudou zavedena a důrazně vyžadována účinná ochranná opatření.“
Varující zpráva IWF vyšla jen několik dní poté, kdy umělá inteligence Grok miliardáře Elona Muska odebrala uživatelům možnost generovat fotky a videa zobrazující sexuální zneužívání žen i dětí. Jakkoli zástupci platformy tvrdili, že pravidla pro použití umělé inteligence zpřísnila, v praxi se následně ukázalo, že i tak Grok stále může vytvářet sexualizovaný obsah, například žen v bikinách.
IWF zdůrazňuje, že podle současné britské legislativy je pro úřady velmi komplikované otestovat, zda lze jakýkoli nástroj umělé inteligence podobně zneužít, aniž by přitom došlo ke spáchání trestného činu, pokud při testování dojde k neúmyslnému vytvoření podobného obsahu.


