contact presentation soutien proposer article contact
transp
 
depeches
blank
Intérieur
International
Mondialisme
Société
Varia
liste
liste
detail
sites nc
snc
accueil
recherche
recherchez
avancee
Samedi, 26 Mars 2016
imprimer
mail
Microsoft retire son robot devenu raciste et pro-nazis en 24 heures
Article mis en ligne par la Rédaction
Société
L'intelligence artificielle est... limitée ! C'est en tout cas ce qui ressort de l'expérience initiée par Microsoft sur Twitter. Doté d'une intelligence artificielle, le robot, Tay devait être capable d'accroître ses capacités en interagissant avec les internautes.

Mais l'expérience a mal tourné, le robot multiplié les diatribes haineuses ou racistes sur la base de ce que lui avaient enseignées des personnes malintentionnées. Du coup, il a été retiré après seulement 24 heures de connexion, par le groupe informatique américain.

Le robot Tay avait été conçu avec l'apparence d'une jeune adolescente naïve capable d'apprendre de ses interactions avec les internautes. Mais le projet à but éducatif n'a pas obtenu le résultat escompté car les internautes ont décidé de lui apprendre surtout la violence verbale. «Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu'elle réponde de manière inappropriée», a expliqué Microsoft dans un communiqué. «C'est autant une expérience sociale et culturelle que technique», a toutefois nuancé le groupe.

Les messages injurieux ont été effacés


Alors que la machine avait pour but d'étudier les capacités d'apprentissage et devenait plus intelligente au fur et à mesure de ses interactions en ligne, elle s'est mise à tweeter des commentaires pro-nazis, sexistes ou racistes. Elle a par ailleurs posté des commentaires en soutien au candidat républicain à la Maison Blanche Donald Trump.

Dans son dernier message sur Twitter, Tay a déclaré: «A bientôt les humains, j'ai besoin de sommeil après tant de conversations aujourd'hui», rapporte Microsoft.

Ces messages injurieux ont été effacés, mais beaucoup circulent encore sous la forme de captures d'écrans. Microsoft, pour sa part, travaille désormais à améliorer le logiciel de Tay. Outre Twitter, le robot avait été conçu pour interagir sur diverses plateformes de messageries et ciblait tout particulièrement les «millenials» nés entre 1981 et 1996.

source

Le Parisien :: lien
0
actualite
4/08/16 | André Archimbaud
Clinton : cent jours pour détruire Trump…
Jeff Greenfield, du magazine Politico, pro-Hillary, déplorait le 29 juillet...
4/08/16 | Gabriel Robin
Les USA mécontents du rétablissement des frontières extérieures en Hongrie ?
Le Visegrád Post est un nouveau magazine en ligne traitant de l’actualité...
4/08/16 | Solenn de Royer
Hollande, le candidat qui piaffe d'entrer en campagne
Dans des confidences à la presse, le chef de l'État a critiqué ses adversaires...
documents
4/08/16 | Bernard Plouvier
Imprécations contre poignard : efficacité douteuse !
Sur les blogs d’informations, circule depuis peu l’ultime phrase du prêtre...
4/08/16 | Le coup d’œil de Philippe Randa
Chez Publicis, le politiquement correct règne
Chez Publicis, un des trois principaux groupes de communication au monde, on...
4/08/16 | Rédaction
Le site des éditions avatar
Lien direct vers le site
blank
faire un don
rss flux rss
blank
 
 
   
 
© 2002–09 :: v2.0
dernieres depeches
Australie/Sénat: 4 sièges pour l'extrême droite :: 4/08/16
La lettre quotidienne d'information d'Eurolibertés :: 4/08/16
L'image du jour :: 1/08/16
Le calvaire vécu par les militants révisionnistes (et leurs familles) – Vincent Reynouard :: 27/07/16
Terrorisme : à droite, pas de répit pour Hollande :: 27/07/16