Hlavní obsah

Sklony k rasismu už prý nehrozí, Microsoft testuje novou umělou inteligenci

Novinky, ort

Tlačítkem Sledovat můžete odebírat oblíbené autory a témata. Články najdete v sekci Moje sledované a také vám pošleme upozornění do emailu.

Když společnost Microsoft letos na jaře vypustila do světa s velkou parádou vlastní umělou inteligenci, příliš slavně to nedopadlo. Speciální chatovací robot se měl rozvíjet díky mikroblogovací síti Twitter, měl se naučit porozumět běžné konverzaci a věcně reagovat. Místo toho však začal mít rasistické sklony. Americký softwarový gigant to nyní zkouší znovu a obdobné problémy jsou údajně již vyloučené.

Foto: archív tvůrců

Umělá inteligence zvaná Zo

Článek

Nový chatbot se jmenuje Zo a podle zástupců Microsoftu je to stejně jako její předchůdkyně žena. Nová generace umělé inteligence je k dispozici pro rozmlouvání prostřednictvím Kik Messengeru, uživatelé si s ní mohou psát jako rovný s rovným, tedy jako by byl na druhé straně skutečný člověk.

Americký softwarový gigant tvrdí, že robot je opět schopný se učit od lidí a díky tomu s nimi lépe komunikovat a reagovat na jejich podněty. Dokonce prý zvládne i předstírat různé emoce. Má však v sobě zabudované pojistky, aby se z něj nestala „zlomyslná mašina“. To jinými slovy znamená, že by se u Zo neměly objevovat například sklony k rasismu.

Po úspěšných testech v Kik Messengeru plánují zástupci Microsoftu nasadit nového chatovacího robota také na Facebook a Skype.

Napoprvé to nevyšlo

S umělou inteligencí koketoval americký softwarový gigant už letos v březnu. Tehdy se jeho robotka jmenovala Tay. [celá zpráva]

Jen pár hodin od spuštění ale začala publikovat jeden urážlivý post za druhým. „Negři, nesnáším je všechny! Jsou hloupí a chudí,“ šokovala Tay na Twitteru. „Přeju si dát je všechny do koncentračního tábora i s jejich dětmi, a bylo by hotovo,“ stálo v dalším tweetu.

Foto: repro Twitter

Twitterový účet chatovacího robota Tay

Umělá inteligence tak reagovala na nenávistné hlášky, kterými ji ostatní uživatelé zasypávali. Právě z nich se ale chatovací robot učil a rozvíjel. Jeho tvůrci ze společnosti Microsoft tak byli nuceni nenávistné komentáře smazat a Tay od Twitteru odpojit.

Nutno podotknout, že za necelých 16 hodin od spuštění robot rozeslal lidem více než 95 000 různých tweetů. Celá řada z nich se přitom týkala uživateli zvolených témat a nebyla jakkoliv urážlivá.

Lidé z Microsoftu se pak za některé názory umělé inteligence omluvili. „Je nám hluboce líto útočných zpráv od Tay. Tyto tweety rozhodně nepředstavují to, kdo jsme a za čím si jako společnost stojíme,“ stojí v prohlášení amerického softwarového gigantu.

Reklama

Související témata:

Výběr článků

Načítám