Článek
Nejnovější AI modely od Anthropicu a OpenAI byly navrženy k identifikaci bezpečnostních mezer v softwaru. Mohou tak pomoci odhalovat potenciálně nebezpečné chyby, kterých by se dalo jinak zneužít. A to je zároveň i negativní stránka uvedených technologií, pokud by se dostaly do nesprávných rukou.
OpenAI na svém blogu uvedla, že zpočátku bude sdílet nejnovější model umělé inteligence se stovkami vybraných organizací, v nadcházejících týdnech je pak pravděpodobně rozšíří na tisíce.
„Naším cílem je zpřístupnit tyto nástroje co nejvíce, ale zároveň zabránit zneužití. Hlavní je dostat je k malým i velkým firmám, které jsou zodpovědné za ochranu kritické infrastruktury,“ cituje z prohlášení New York Times.
Společnost Anthropic, která představila model Mythos v minulém týdnu, rovnou při jeho spouštění omezila vydání na přibližně 40 společností a organizací – patří mezi ně například technologičtí giganti Apple, Amazon, Microsoft, Google či Linus Foundation a stejně jako u OpenAI i důležití provozovatelé kritické infrastruktury.
Mnozí odborníci z řad bezpečnostních expertů varují před narůstajícími „schopnostmi“ modelů umělé inteligence, které jsou stále propracovanější i nebezpečnější zároveň. Bohužel se ale ani oni sami nedokážou shodnout, jak s podobnými technologiemi zacházet.
Co se týče omezení nových modelů, mnozí s ním souhlasí, najde se ale i velké procento lidí, a to nejen z odborné scény, kteří avizované omezení přirovnávají k promyšlenému strategickému tahu. I proto, že podle mnohých nejsou „superschopnosti“ uváděných modelů nijak spolehlivě doloženy, uvádí server Guardian.


