Vyplývá to z nedávno zveřejněného výzkumu badatelů z Kalifornské univerzity v Berkeley, na který ve čtvrtek upozornil deník The New York Times (NYT). Podotýká při tom, že s neslyšitelnými pokyny pro chytré asistenty vědci ve Spojených státech a Číně úspěšně experimentují už dva roky.

Deník například upozorňuje, že už dříve se vědcům podařilo aktivovat systémy umělé inteligence v chytrých telefonech a domácích asistentech, které pak například vytočily určité číslo nebo otevřely webovou stránku. Týmu amerických studentů se pak v roce 2016 podařilo příkazy vmísit do takzvaného bílého šumu vysílaného z reproduktoru.

O level dál

Vědci z Berkeley ale tvrdí, že dosáhli ještě pokročilejší úrovně, když instrukce zakomponovali do nahrávek hudby či mluveného slova. „Takže zatímco lidský posluchač slyší hrát orchestr nebo někoho mluvit, přístroj Amazon Echo může dostávat instrukci, aby něco přidal na váš nákupní seznam,” vysvětluje NYT.

„Chtěli jsme se přesvědčit, zda to můžeme udělat ještě nenápadněji,” popsal motivaci k novému výzkumu jeden z jeho autorů a doktorand oboru počítačové bezpečnosti Nicholas Carlini.

Ve stockholmském hotelu zkoušejí chatbota

Virtuální asistenty zkoušejí využít i hotely. Na obrázku Amazon Echo s virtuální asistentkou Alexa

FOTO: AP

Se svými kolegy při pokusech využil rozdílu mezi způsoby rozpoznávání řeči u lidí a u strojů. Použité audiosoubory dokázali vědci upravit tak, že vyrušili zvuky, které měl systém umělé inteligence slyšet, a nahradili je takovými, které vedly k jinému strojovému přepisu, zatímco pro člověka byla změna takřka neznatelná.

Zranitelné systémy

Zjištění podle NYT ukazují zranitelnost současných chytrých technologií, přestože činí velký pokrok. Nebezpečí podobných manipulací zvyšují odhady, podle nichž počet zařízení s virtuálními pomocníky do roku 2021 převýší celosvětovou populaci lidí, nebo že ve stejném časovém horizontu bude mít alespoň jednoho digitálního domácího asistenta polovina amerických domácností.

Podle Carliniho zatím nic nenasvědčuje tomu, že by se postupy popsané v novém článku dostaly mimo světové laboratoře. Dodal ale, že je pouze otázkou času, než je někdo začne zneužívat. „Můj předpoklad je takový, že lidé s nekalými úmysly už platí lidi, aby dělali to, co dělám já,” podotkl Carlini.