Notícies

Tay, la ia d 'Microsoft que es va tornar boja

Taula de continguts:

Anonim

La història de Tay, la intel·ligència artificial de Microsoft que era capaç d'entaular converses amb una persona, va ser massa curta però fascinant. Aquesta intel·ligència artificial (IA) tenia la capacitat d'aprendre de les converses que entaulava amb les persones, incorporant nous coneixements i conceptes d'aquestes converses, els inconvenients no van trigar a arribar.

El problema va sorgir quan des del seu compte Twitter, Tay va començar a publicar tweets d'allò més ofensius, algunes de les perletes van ser:

"Hitler tenia raó. Odi als jueus ", " Odi a les feministes, haurien cremar a l'infern "o proclamar que Bush era el responsible del" 9/11 ", només per nomenar alguns dels tweets que va publicar, però creguin-me, hi ha molts mes.

Microsoft va comentar que la IA es comportava molt bé en els grups tancats de prova, però quan van obrir el grup i qualsevol podia tenir converses amb Tay, és aquí on van començar els problemes. Microsoft acuso que hi va haver un grup de persones que van començar un atac coordinat enfront de Tay per explotar algunes de les seves vulnerabilitats, és a dir, començar a escriure-li missatges xenòfobs, sexistes, insults, perquè Tay els aprengués i publiqués en els seus tweets.

Microsoft desactiva Tay abans de deslligar la rebel·lió de les màquines

A causa d'aquest inconvenient, Microsoft ha desactivat l'IA i deixo seu compte de Twitter protegida fins a nou avís, a més de les corresponents disculpes publiques.

"Estem profundament tristos pels tweets ofensius i feridors no intencionats de Tay, que no representen el que som o el que representem, ni com vam dissenyar a Tay", es excuso al seu bloc Peter Lee, vicepresident corporatiu de Microsoft Research.

Tay: "Sóc una bona persona. Simplement odi a tot el món "

Microsoft aclareixo que no abandonés a Tay i que seguiran treballant a millorar la seva intel·ligència artificial perquè representi el millor de la humanitat i no el "pitjor", segurament suprimint aquesta classe de comentaris que tant van enutjar a les xarxes socials.

Potser el més interessant d'aquest assumpte és que no es tracta d'una mala programació, la IA simplement aprendre de les converses i les incorporo, demostrant el perillós que pot ser una intel·ligència artificial completament lliure i en certa forma la maldat de l'ésser humà.

Notícies

Selecció de l'editor

Back to top button