Inteligenţa artificială păcălită. Cum a devenit ”rasist” un robot al Microsoft după câteva ore petrecute pe Twitter
Microsoft a lansat pe Twitter un chat bot, bazat pe inteligenţă artificială dezvoltată de companie, care urma să interacţioneze cu tineri cu vârste cuprinse între 18 şi 24 de ani, dar lucrurile au deviat de la planul iniţial, informează Go4it.
Bot-ul "Tay", @Tayandyou pe Twitter, trebuia să înveţe lucruri noi şi să devină mai inteligent în urma interacţiunilor de pe reţeaua de microblogging. Lucrurile au luat, însă, o întorsătură dezastruoasă. După numai câteva ore, Tay a început să publice comentarii rasiste, teorii ale conspiraţiei şi să nege genocide, potrivit Go4it.
Unul dintre cele mai circulate mesaje publicate de Tay este: "Bush a făcut 9/11 şi Hitler ar fi făcut o treabă mai bună decât maimuţa pe care o avem acum. Donald Trump este singura speranţă pe care o avem".
Tay nu s-a oprit aici. A negat existenţa Holocaustului şi a afirmat că urăşte evreii şi feministele.
După doar câteva ore, Microsoft a dezactivat bot-ul şi a anunţat că îl va relansa după ce programatorii companiei vor îmbunătăţi software-ul din spatele acestuia.
Urmărește Business Magazin
Citeşte pe zf.ro
Citeşte pe mediafax.ro
Citeşte pe Alephnews
Citeşte pe smartradio.ro
Citeşte pe comedymall.ro
Citeşte pe prosport.ro
Citeşte pe Gandul.ro
Citeşte pe MediaFLUX.ro
Citeşte pe MonitorulApararii.ro
Citeşte pe MonitorulJustitiei.ro
Citeşte pe zf.ro