Trump, Twitter, les robots nazis et l'avenir de l'humanité

"Bush a fait le 11-Septembre et Hitler a fait un meilleur travail que le singe que nous avons maintenant. Donald Trump est notre seul espoir". Ceci est un tweet de Tay. Il n'a fallu que 16 heures pour que cette adorable robot "adolescente" créée par Microsoft devienne une militante nazie acharnée. Tout ça parce que Tay apprend de ses conversations avec les internautes. Merci les twittos!

ScreenTay

Internet est sombre et plein de terreurs. On ne peut pas y lâcher une jeune bot naïve, de peur qu'une meute de trolls sauvages en fassent l'une d'entre eux. Ceci dit, il y a des leçons à tirer des mésaventures nazies de Microsoft. Le passage de Tay du côté obscur est dû aux interférences des utilisateurs, pas à un défaut de concept. 40 millions de personnes discutent régulièrement avec la version chinoise de Tay, Xiaolce, sans aucun problème.

En bref, les robots sociaux ne sont pas prêts de disparaître.

La preuve par Donald Drumpf

En 2015, Gawker décide de créer un bot Twitter appelé @ilduce2016, qui tweete des citations de Benito Mussolini deux fois par jour à Donald Trump. Un troll couronné de succès le 28 février dernier, quand le candidat républicain retweete le bot.

« Nous avons eu l’idée du bot Mussolini car nous pensions que Trump retweeterait absolument tout, qu’importe si la source est douteuse, à partir du moment où elle le lui demande », a expliqué le rédacteur en chef de Gawker. Un joli troll, mais @ilduce2015 est un outil très stupide qui suit ses instructions à la lettre. Pas plus sophistiqué le bot pénible qui spamme votre boîte mail ou les vieux chatbots (comme la "psychothérapeute" Eliza) très faciles à tromper.

Pour comparer, prenez @DeepDrumpf, créé par le chercheur Brad Hayes du MIT. Deep Drumpf est un bot qui utilise les tweets et les discours de Donald Trump pour apprendre à parler comme lui. Sans instruction de départ, @DeepDrumpf est devenu un pastiche très convainquant. Mais comme @DeepDrumpf n'interagit pas avec les utilisateurs, la seule manière de le rendre raciste et intolérant serait d'avoir un modèle raciste et intolérant. (Oups...)

@ilduce2016 et @DeepDrumpf sont deux robot au but similaire: moquer le milliardaire. Mais seul @DeepDrumpf est capable d'apprendre de ses efforts. @ilduce2016 a été programmé fasciste, Tay l'est devenue toute seule comme une grande. Une différence majeure, au coeur d'une course technologique effrénée dans la Silicon Valley.

La course à l'intelligence artificielle

En plus de Microsoft, Google, Facebook et Amazon ont eux aussi leurs programmes de robots intelligents, et les rivalités sont féroces.

Pendant que Microsoft subissait la déroute Tay, Google connaissait un triomphe avec la victoire de son robot AlphaGo sur le meilleur joueur de go au monde. Aussi éloignés que soient leurs but, les deux robots sont codés avec le même principe, le deep learning. Ils peuvent apprendre par eux-même et progressivement égaler ou dépasser les capacités humaines dans des domaines jusqu'ici inaccessibles aux bots.

Mais pourquoi aurait-on besoin de discuter avec des robots? Pourtant, le pouvoir de bots intelligents dans un monde dominé par Twitter et Facebook pourrait être colossal.

Par exemple, des bots de la génération précédente ont déjà été utilisés pour étouffer des opposants politiques en Egypte ou au Mexique. En Ukraine, face un spam infernal de bots du Kremlin les indépendantistes avaient appelé Mark Zuckerberg à l'aide.

Mais ces bots sont des débutants. A la place, imaginez un vrai bot fasciste. Pas le mécanique @ilduce2016 ou Tay l'idiote. Une Stasi en algorithmes, capable de surveiller et d'attaquer des opposants politiques sur les réseaux sociaux et d'apprendre à le faire de mieux en mieux à un rythme que les humains ne peuvent pas suivre.

Pour éviter ce scénario catastrophe, une véritable communauté de codeurs de bot s’est formée : il existe un Bot Summit et un hashtag de ralliement (#botALLY). Des dizaines de blogs, d’essais et de conversations cherchent à établir la ligne éthique de la création de bots. Parker Higgin, qui programme des bots, explique à Motherboard : « Il est très simple de concevoir des robots qui n’insultent jamais. Il faut juste ajouter une ligne de code, et je pense que c’est vraiment le minimum à faire… »

 

A.S avec T.L