Článek
Snaha o zvýšení produktivity díky umělé inteligenci by podle Finlayové neměla být na úkor diskriminace a pořádných regulací. Navíc nedostatek transparentnosti v tom, na jakých datových souborech jsou nástroje umělé inteligence trénovány, ztěžuje identifikaci případných zkreslení, píše web The Guardian.
„Algoritmická předpojatost znamená, že zaujatost a nespravedlnost jsou přímo zabudovány do používaných nástrojů, a jejich rozhodnutí proto tuto zaujatost reprodukují,“ uvedla Finlayová.
„Pokud se algoritmická předpojatost spojí s automatizační předpojatostí, tedy tendencí lidí spoléhat se více na rozhodnutí strojů a téměř nahrazovat vlastní úsudek, vzniká reálné riziko, že neúmyslně vytváříme diskriminaci a zaujatost, která je tak hluboce zakořeněná, že si jí možná ani nevšimneme,“ dodala.
It’s election day in Australia! Grateful for the right to vote and the democratic tradition that brings us together — one democracy sausage at a time. pic.twitter.com/uHif9shfYh
— Lorraine Finlay (@lorrainejfinlay) May 3, 2025
Australská komisařka pro lidská práva Lorraine Finlayová na archivním snímku
Komisařka reagovala na vystoupení labouristické senátorky Michelle Ananda-Rajahové, která vyzvala k uvolnění veškerých australských dat pro technologické firmy. Podle ní by to pomohlo zabránit tomu, aby umělá inteligence přebírala předsudky ze zahraničí, a zároveň by lépe odrážela australský život a kulturu.
„Umělá inteligence musí být trénována na co největším množství dat z co nejširší populace, jinak hrozí, že bude posilovat předsudky a škodit právě těm, kterým má sloužit,“ uvedla Ananda-Rajahová.
„Chci, aby tvůrci obsahu byli spravedlivě odměňováni, a zároveň zpřístupnit data. Myslím, že lze najít alternativu k vykořisťování dat ze zahraničí,“ doplnila.
Zákon o umělé inteligenci
Komise pro lidská práva se důsledně zasazuje o přijetí zákona o umělé inteligenci, který by posílil stávající právní předpisy, včetně zákona o ochraně soukromí, a o důsledné testování nástrojů umělé inteligence z hlediska předpojatosti.
Podle Finlayové by měla vláda urychleně vytvořit nové legislativní ochranné mantinely. „Je potřeba urychleně zavést řadu opatření, včetně testování předpojatosti, auditů a zajištění adekvátního lidského dohledu,“ uvedla.
Přibývá totiž důkazů, že v Austrálii a v zahraničí dochází k předpojatosti nástrojů umělé inteligence v oblastech, jako je medicína a nábor zaměstnanců.
Nová australská studie zveřejněná v květnu zjistila, že uchazeči o zaměstnání, s nimiž náboráři AI vedou pohovory, jsou vystaveni riziku diskriminace, pokud mluví s přízvukem nebo žijí s postižením.
Krádež duševního vlastnictví
O zvýšení produktivity díky umělé inteligenci se bude příští týden jednat na ekonomickém summitu federální vlády Austrálie, zatímco odbory a průmyslové organizace vyjadřují obavy ohledně ochrany autorských práv a soukromí.
Mediální a umělecké skupiny navíc varovaly před krádeží duševního vlastnictví, pokud velké technologické společnosti budou moci využívat jejich obsah k trénování modelů umělé inteligence.
Podle komisařky pro technologickou bezpečnost Julie Inman Grantové by měly být technologické společnosti transparentní, pokud jde o jejich údaje o školení svých modelů.
„Nepřehlednost vývoje a nasazení generativní umělé inteligence je velmi problematická. To vyvolává důležité otázky ohledně toho, do jaké míry by velké jazykové modely mohly zesilovat, dokonce urychlovat škodlivé předsudky, včetně úzkých nebo škodlivých genderových norem a rasových předsudků,“ vysvětlila Grantová.
„Vzhledem k tomu, že vývoj těchto systémů je soustředěn v rukou několika málo společností, existuje reálné riziko, že některé důkazy, názory a perspektivy mohou být v generativních výstupech zastíněny nebo odsunuty na vedlejší kolej,“ uzavřela.