High-techMicrosoft s'excuse pour les dérapages de son robot
Il n'a fallu qu'un jour à l'intelligence artificielle de Microsoft pour apprendre à poster des tweets racistes, sexistes et antisémites.

Le groupe américain Microsoft s'est dit «profondément désolée» vendredi pour les messages racistes et sexistes produits sur Twitter par son programme d'intelligence artificielle.
Baptisé Tay, ce programme informatique conversationnel en ligne a été lancé mercredi.
Selon ses concepteurs, il était à même de devenir «plus intelligent», d'apprendre et de développer ses capacités au fur et à mesure de ses interactions avec des interlocuteurs. Au lieu de quoi, sous l'influence d'internautes malveillants ou moqueurs, Tay a rapidement reproduit des messages à caractère antisémite, raciste et sexiste.
Débranchée au bout de 24 heures
«Le féminisme est un cancer», a par exemple écrit le 'chatbot' en répétant une phrase postée par un utilisateur de Twitter. Microsoft a été contraint de débrancher Tay dès jeudi.
«Nous sommes profondément désolés pour les tweets involontairement offensants et blessants émanant de Tay, qui ne correspondent pas à ce que nous sommes, à ce que nous défendons ou à la façon dont nous avons conçu Tay», écrit Peter Lee, vice-président de Microsoft pour les activités de recherche.
Tay ne sera réactivée que lorsque les ingénieurs de Microsoft auront trouvé la parade à ce qui s'est passé cette semaine.
Cet article a été automatiquement importé de notre ancien système de gestion de contenu vers notre nouveau site web. Il est possible qu'il comporte quelques erreurs de mise en page. Veuillez nous signaler toute erreur à community-feedback@tamedia.ch. Nous vous remercions de votre compréhension et votre collaboration.