Hlavní obsah

Příliš mocné a nebezpečné zároveň. Některé verze AI jsou zatím jen pro vyvolené

S neustálým vývojem modelů umělé inteligence se objevují nové aktualizované verze, které toho umí stále víc. Některé z nich jsou natolik sofistikované, že v rukou nesprávných lidí by dokázaly napáchat opravdu velké škody. Například Claude Mythos od Anthropicu nebo nejnovější ChatGPT 5.4-Cyber od OpenAI. Ty proto budou zpřístupněny jen vybraným společnostem, nikoli široké veřejnosti.

Foto: Shutterstock

Pokročilé AI modely mohou být podle mnohých v nesprávných rukou velmi nebezpečné. (ilustrační foto)

Článek

Nejnovější AI modely od Anthropicu a OpenAI byly navrženy k identifikaci bezpečnostních mezer v softwaru. Mohou tak pomoci odhalovat potenciálně nebezpečné chyby, kterých by se dalo jinak zneužít. A to je zároveň i negativní stránka uvedených technologií, pokud by se dostaly do nesprávných rukou.

OpenAI na svém blogu uvedla, že zpočátku bude sdílet nejnovější model umělé inteligence se stovkami vybraných organizací, v nadcházejících týdnech je pak pravděpodobně rozšíří na tisíce.

„Naším cílem je zpřístupnit tyto nástroje co nejvíce, ale zároveň zabránit zneužití. Hlavní je dostat je k malým i velkým firmám, které jsou zodpovědné za ochranu kritické infrastruktury,“ cituje z prohlášení New York Times.

Společnost Anthropic, která představila model Mythos v minulém týdnu, rovnou při jeho spouštění omezila vydání na přibližně 40 společností a organizací – patří mezi ně například technologičtí giganti Apple, Amazon, Microsoft, Google či Linus Foundation a stejně jako u OpenAI i důležití provozovatelé kritické infrastruktury.

Mnozí odborníci z řad bezpečnostních expertů varují před narůstajícími „schopnostmi“ modelů umělé inteligence, které jsou stále propracovanější i nebezpečnější zároveň. Bohužel se ale ani oni sami nedokážou shodnout, jak s podobnými technologiemi zacházet.

Co se týče omezení nových modelů, mnozí s ním souhlasí, najde se ale i velké procento lidí, a to nejen z odborné scény, kteří avizované omezení přirovnávají k promyšlenému strategickému tahu. I proto, že podle mnohých nejsou „superschopnosti“ uváděných modelů nijak spolehlivě doloženy, uvádí server Guardian.

Anketa

Je správné, aby pokročilé modely AI nebyly přístupné pro všechny?
Ano, v nesprávných rukou mohou být nebezpečné.
72,6 %
Ano, nebezpečné jsou ale podle mě všechny modely.
7,5 %
Ne, je to hloupost.
19,9 %
Celkem hlasovalo 106 čtenářů.

Výběr článků

Načítám