Information

L'équipe AI de Microsoft publie un bot capable de générer de faux commentaires, Internet demande pourquoi

L'équipe AI de Microsoft publie un bot capable de générer de faux commentaires, Internet demande pourquoi

Bizarrement, une équipe de Microsoft a publié un travail sur un robot IA, appelé DeepCom, qui peut être utilisé pour générer de faux commentaires sur des articles de presse.

L'équipe affirme que ces faux commentaires peuvent créer un engagement pour de nouveaux sites Web et médias, encourageant essentiellement l'utilisation de faux comptes pour générer un réel engagement avec de fausses discussions.

CONNEXES: UN NOUVEL OUTIL D'IA PEUT NOUS AIDER À LUTTER CONTRE LES FAUX NOUVELLES ÉCRITES PAR L'IA

Avons-nous besoin de cela?

La réponse courte. Non.

Internet regorge déjà de faux comptes et de robots, utilisés pour troller et désinformer le grand public.

La question que l'équipe de chercheurs de Microsoft et de l'Université Beihang en Chine semble se poser, cependant, est la suivante: quel est le mal à utiliser de faux commentaires pour stimuler et encourager la discussion chez de vrais lecteurs de nouvelles?

Les chercheurs affirment que les lecteurs aiment publier des commentaires sous des articles de presse et partager leurs opinions. Pour les éditeurs, cela augmente l'engagement, alors pourquoi ne pas donner un coup de pouce à l'IA?

«De tels systèmes peuvent activer le service de commentaires pour un site Web d'actualités dès le démarrage à froid, améliorer l'expérience de lecture d'articles d'actualité moins commentés et enrichir les listes de compétences d'autres applications d'intelligence artificielle, telles que les chatbots», indique le journal.

Un article de chercheurs de Pékin présente une nouvelle technique d'apprentissage automatique dont les principales utilisations semblent être la pêche à la traîne et la désinformation. Il a été accepté pour publication à EMLNP, l'un des 3 meilleurs sites de recherche sur le traitement du langage naturel. Cool Cool Coolhttps: //t.co/ZOcrhjKiEcpic.twitter.com/Y8U5AjENrh

- Arvind Narayanan (@random_walker) 30 septembre 2019

Le hic, c'est que le nouveau document, publié sur arXiv, ne mentionne aucune utilisation malveillante possible, ni les dangers que la technologie pourrait poser en aidant à diffuser de fausses nouvelles. Plusieurs critiques ont déjà exprimé leurs inquiétudes.

Réseaux de neurones de lecture d'actualités

Comme Le registre rapports, DeepCom utilise simultanément deux réseaux de neurones: un réseau de lecture et un réseau générateur.

Tous les mots d'un article de presse sont encodés comme des vecteurs à analyser par l'IA. Le réseau de lecture saisit ce qu'il calcule sont les aspects les plus importants de l'article (une personne, un événement ou un sujet), avant que le réseau générateur ne crée un commentaire sur cette base.

Les chercheurs ont formé DeepCom sur un ensemble de données chinois composé de millions de commentaires humains publiés sur des articles de presse en ligne, ainsi qu'un ensemble de données en anglais à partir d'articles sur Yahoo.! Nouvelles.

L'exemple ci-dessus montre des parties importantes d'un Yahoo! article surligné en rouge (le réseau de lecture), et ce que le bot choisit de commenter en bleu (le réseau générateur).

Un autre bot controversé

Ce n'est pas le premier contact de Microsoft avec la controverse sur les robots. Leur robot IA "Tay" a dû être démantelé il y a trois ans, après avoir rapidement appris à tweeter des messages racistes, homophobes et antiféministes après avoir été formé sur une vaste base de données de tweets.

Tay a dû être démantelé après seulement 16 heures en raison de sa vague non sollicitée de tweets haineux. Il semble que former une IA aux commentateurs en ligne - des personnes qui perdent souvent toutes les inhibitions grâce à leur anonymat - n'est pas une si bonne idée après tout.

Il semble que davantage de travail soit nécessaire avant que DeepCom puisse vraiment inciter à l'engagement ou créer des commentaires qui pourraient être utilisés pour perturber la société à grande échelle. Pour le moment, les commentaires générés par le bot AI sont courts et simples.

La recherche, cependant, a été acceptée à l'EMNLP-IJCNLP, une conférence internationale sur le traitement du langage naturel, qui se tiendra à Hong Kong le mois prochain (du 3 au 7 novembre).

Entre-temps, les chercheurs du MIT ont créé un outil d'IA, appelé la salle de test du modèle de langage géant (GLTR), qui peut détecter le texte écrit par l'IA. Ils pourraient avoir besoin de commencer à améliorer leur jeu.


Voir la vidéo: MUG RENNES Développement app Teams u0026 Automatisation Azure - Benoît Masson u0026 Yoann Guillo (Septembre 2021).