Hlavní obsah

Apple chtěl prohledávat fotky v iPhonech. Nakonec opatření odloží

6. 9. 2021, 9:27

Společnost Apple představila minulý měsíc nové funkce, od kterých si slibuje větší ochranu dětí v kyberprostoru. Jednou z nich je i hlídání obsahu nahrávaného na iCloud, americký počítačový gigant bude tedy v podstatě moci prohledávat fotky v iPhonech. Kvůli vlně kritiky se však zástupci podniku rozhodli zavedení opatření odložit.

Foto: AP

Ilustrační foto

Článek

Proti zavedení nových funkcí se postavilo v uplynulém měsíci několik neziskových organizací a přes 7700 soukromých osob. Petici podepsal například i bývalý spolupracovník amerických tajných služeb a takzvaný whistleblower Edward Snowden, uvedla agentura AFP.

Zástupci společnosti se proto rozhodli, že prozatím zavedení opatření odloží. To neznamená, že by nové funkce nezačaly v budoucnu platit, podnik chce ale nyní získat několik měsíců času na to, aby mohl vyhodnotit všechny připomínky a případně technologii upravit.

Zmiňovaná funkce nese název CSAM, což je zkratka Child Sexual Abuse Material. Jméno tedy přesně vystihuje to, co si klade nová funkce za cíl – vyfiltrovat materiály zachycující sexuální zneužívání dětí.

Databáze snímků s dětskou pornografií

Na funkci spolupracoval Apple s americkým Národním centrem pro pohřešované a zneužívané děti. To poskytlo pracovníkům amerického počítačového gigantu databázi snímků s dětskou pornografií, aby mohl podnik vytvořit algoritmus, který je bude automaticky rozeznávat.

V praxi to bude fungovat tak, že ještě před odesláním snímku do služby iCloud Photos se budou snímky porovnávat se speciálně vytvořenou databází, aby mohl celý systém automaticky rozpoznat sexuální zneužívání mladistvých. Pokud systém skutečně vyhodnotí přítomnost nevhodného obsahu, bude moci snímek přezkoumat přímo společnost Apple, která na něj následně upozorní příslušné úřady.

Sexting, šikana či kyberstalking. Děti jsou na internetu lovná zvěř

Bezpečnost

Lidé se tedy nemusí bát toho, že po uložení snímku vlastního dítěte, které skáče nahé do bazénu, budou mít oplétačky se zákonem. Apple se dušuje, že smyslem celého systému je skutečně zabránit lidem v šíření dětské pornografie.

Zástupci amerického podniku také zdůraznili, že ke všem snímkům, které jsou ukládány zašifrované, nebude mít i nadále nikdo přístup. To jinými slovy znamená, že si kdejaký zaměstnanec Applu nebude moci prohlížet snímky libovolného uživatele, zobrazeny budou pouze fotografie, které systém vyhodnotí jako závadné.

Apple se pochlubil tím, že celý systém má naprosto minimální chybovost. Tzv. prahová hodnota je nastavena na extrémně vysokou úroveň, šance na nesprávné označení konkrétního účtu na základě fotografií je údajně menší než jedna ku miliardě za rok.

Sledovat se budou i zprávy

CSAM není jediný systém, který si klade za cíl zajistit větší bezpečnost dětí v kyberprostoru, novinkou je i ochrana při zasílání zpráv. Tu budou mít na svých iPhonech aktivní dětské účty, kterým se tak bude zobrazovat cenzurovaný výpis zpráv.

Pokud dítěti pošle někdo nějaký nevhodný materiál, dítěti se zobrazí informace, že je daný obsah nevhodný. Například fotografie obsahující násilí či sex tak budou rozmazané, o přijetí či odeslání nevhodného materiálu navíc budou informováni rodiče.

Může se vám hodit na Zboží.cz:

Reklama

Související témata:

Výběr článků