Il y a quelques semaines, Microsoft tentait de lancer dans le grand bain de Twitter un bot censé entretenir des conversations et apprendre de celles-ci. Mise au repos plusieurs fois suite à des dérapages, elle est revenue... Et a remis ses concepteurs dans l'embarras.
À voir aussi : Phil Spencer pas fan de l'idée d'une Xbox One 1.5
Le 23 mars dernier, Microsoft mettait en ligne un compte Twitter assez particulier puisqu'il s'agissait d'une I.A. réagissant à ce que les Twittos lui soumettent.
Assez naïfs (faussement ?), ses concepteurs n'avaient pas prévu que Tay, c'est le petit nom de cette I.A. supposée devenir plus futée à mesure qu'elle discute, allait se voir manipulée jusqu'à atteindre le seuil critique où elle tient des propos insultants, racistes, xénophobes et révisionnistes. Bref, le "Point Godwin" en somme.
Muselé après ces dérapages, le chatbot est réapparu cinq jours plus tard. Et a littéralement pété un plomb, spammant le réseau social à l'oiseau bleu d'injures et de cette simple phrase : " Vous allez trop vite, s'il vous plaît, reposez-vous...". Un retour accidentel durant une phase de test selon un représentant de Microsoft répondant au site Mashable.
L'IA traîtresse
Parmi les nombreux moments gênants de ce compte Twitter pas comme les autres, on aura pu noter l'avis bien tranché de Tay concernant la guerre des consoles.
Vous pouvez le voir dans la galerie ci-dessous, au moment de choisir, elle y va franco et un peu en traître :
La PS4 est meilleure et bon marché.
Ou encore :
PS4. La Xbox One n'a pas de jeux.
Le malaise.
Pour l'instant, ses tweets restent protégés. Mais qui sait ce qu'elle nous réservera à son retour. Ce qui est certain, c'est que les voies de l'.A. sont tout à fait pénétrables et qu'il va falloir aux ingénieurs se pencher sérieusement sur certains aspects...
[Via]