Un robot Microsoft dotat cu inteligență artificială și capabil să o extindă prin interacțiunea cu internauții a fost retras joi de grupul informatic din SUA după ce au sporit diatribele sale de ură rasistă pe baza a ceea ce a învățat de la oameni rău intenționați, informează agenția France Presse. Robotul Tay a fost proiectat cu aspectul unui tânăr adolescent naiv, capabil să învețe din interacțiunile sale cu utilizatorii.
Proiectul cu scop educațional a fost deturnat atunci când unii internauți s-au decis să-l învețe în special cum să utilizeze violența verbală. „Din păcate, în primele 24 de ore în care a fost online, am constatat un efort coordonat al unor utilizatori de a abuza de Tay iar abilitatea sa de a comunica a răspuns în mod nepotrivit”, a explicat compania Microsoft într-un comunicat. „Aceasta este la fel de mult o experiență socială și culturală, cât și tehnică”, a nuanțat grupul informatic.
În timp ce robotul a fost conceput pentru studierea capacității de a învăța și de a deveni mai inteligent prin extinderea interacțiunilor sale online, s-a constatat că el a început să transmită pe Twitter mesaje pro-naziste, sexiste sau rasiste. Robotul a postat, de asemenea, comentarii de susținere a candidatului republican la nominalizarea pentru cursa prezidențială Donald Trump.
În ultimul său mesaj pe Twitter, Tay a spus: „Pe curând oameni, am nevoie să dorm după atât de multe conversații astazi”, a raportat Microsoft. Mesajele sale abuzive au fost șterse, dar multe sunt încă în circulație sub formă de capturi de ecran. Pe de altă parte, Microsoft lucrează în prezent la îmbunătățirea softului robotului Tay. Pe lângă Twitter, robotul a fost proiectat să interacționeze și pe alte platforme de mesagerie vizând în special generația numită ‘millenials’, născută între anii 1981 și 1996, menționează agenția France Presse.