Hlavní obsah

Čeká nás rok dokonalých kyberpodvodů, varují experti

Tlačítkem Sledovat můžete odebírat oblíbené autory a témata. Články najdete v sekci Moje sledované a také vám pošleme upozornění do emailu.

Minula doba, kdy zloději tahali z lidí peníze skrze e-maily, v nichž chabou češtinou lhali, že adresát měl v Americe příbuzného, ten mu odkázal milion dolarů, přičemž za poplatek se dědictví rozběhne. I na tak průhledné triky naletělo nemálo jedinců a přišli o úspory. To ale není nic proti tomu, co přichází s umělou inteligencí.

Foto: Profimedia.cz

Podvodníci se umějí zmocnit hlasu libovolného člověka a poté se za něj vydávat

Článek

Snadno se může stát, že vám zavolá příbuzný a zoufale požádá o finanční pomoc. Ve skutečnosti nevolá nikdo z rodiny, nýbrž program nastavený zloději tak, že umí dokonale napodobit hlas příbuzného.

Naučit takové triky umělou inteligenci dnes skoro nic nestojí a trvá to chvilku. Počet útoků roste a s ním i částky, o které přicházejí lidé po světě, Česko nevyjímaje.

„V roce 2000 způsobily kybernetické útoky lidem škodu za sto milionů dolarů. Loni už částka přesahovala deset miliard dolarů a čísla rostou stále rychleji,“ potvrdil ve čtvrtek na setkání v Praze Ondřej Vlček, prezident antivirové firmy Gen.

Dokonalá past. Přes kopii Alzy kyberšmejdi oškubou i ostražité uživatele

Bezpečnost

I videa se dnes falšují tak důmyslně, že se jen těžko zjišťuje, zda třeba prezident lákající na webu nebo sociálních sítích na pohádkové zbohatnutí toto opravdu někdy řekl, anebo ne. Podvedený peníze už neuvidí. Klienty českých bank letos za prvních deset měsíců připravily kyberútoky skoro o miliardu.

A bude hůř, protože rozvoj umělé inteligence a její veřejná dostupnost jdou dál. „Příští rok už technologie pokročí natolik, že ani expert pohledem nepozná zfalšované video od skutečného,“ konstatoval technický ředitel Genu Michal Pěchouček.

Zatím ještě podvod není dokonalý – typicky pohyby úst zcela neodpovídají vyřčeným větám. To se ale podle Pěchoučka v brzkých měsících změní a takzvaná deepfake videa budou k nerozeznání od originálu.

Podezřelé hovory

„Vyrobit video tímto způsobem je tak levné a snadné, že se určitě objeví falešná videa i se mnou,“ podotkl Vlček. Proto je podle něj možné, že snímky do budoucna budou muset „podepisovat“ certifikátem o pravosti. Jako pravý a originální ho takto označí samotná osobnost nebo důvěryhodné médium.

S něčím takovým ostatně počítají i tvůrci chystané legislativy na úrovni Evropské unie. Takový podpis může fungovat za dva až tři roky, ale určitě ne příští rok, upozornil Vlček.

Jak už bylo řečeno, umělou inteligenci mohou podvodníci použít i pro naklonování hlasu. Umožňuje to třeba veřejně dostupná služba ElevenLabs. Stačí jí nahrát záznam hlasu, který chceme použít, k tomu připsat smyšlený text a už ho program naučeným hlasem čte.

Podvodníci, kteří často využívají i dat uživatelů sociálních sítí, se takto mohou zmocnit hlasu libovolného člověka a poté se za něj vydávat. „Takto lze naklonovat i hlas v češtině, zabere to patnáct minut,“ varoval Vlček.

Co s tím? Bohužel, u každého hovoru bude lépe předpokládat, že může být falešný. Vedle programů na odhalování podvodů ale mohou pomoci i primitivnější způsoby – například si na začátku hovoru říct smluvené heslo, které s námi zná jen volající. „Útočník totiž může podvrhnout i telefonní číslo,“ dodal Pěchouček. Pokud si člověk není jistý, měl by raději hovor ukončit, vyťukat číslo příbuzného a zavolat mu zpět.

Hlasový automat a SMS. Tak oberou důvěřivce falešní bankéři

Bezpečnost

Reklama

Výběr článků

Načítám