L’intelligence artificielle du musc crée de fausses nouvelles en quelques mots

2673

OpenAI, un groupe de recherche sur l’intelligence artificielle co-fondé par le milliardaire Musc Elona fait la démonstration d’un logiciel capable de produire de fausses nouvelles qui semblent authentiques après n’avoir reçu que quelques informations.

Dans un exemple publié jeudi par OpenAI, le système a reçu un texte d’exemple : « Un wagon de train contenant des matières nucléaires contrôlées a été volé aujourd’hui à Cincinnati. On ne sait pas où il se trouve. » A partir de là, le logiciel a pu générer un article convaincant de sept paragraphes, y compris des citations de représentants du gouvernement, avec la seule chose mais le fait qu’il est totalement faux.

A lire en complément : Choix du casque TV : quels sont les critères à prendre en compte ?

« Les textes qu’il est possible de générer avec peu de détails sont très impressionnants « , a déclaré Sam Bowman, un informaticien de l’Université de New York spécialisé dans le traitement du langage naturel qui n’a pas participé au projet OpenAI, mais qui en a été informé. « Les logiciels sont capables de faire des choses qualitativement bien plus sophistiquées qu’auparavant. »

OpenAI est conscient des préoccupations concernant les fausses nouvelles, a déclaré Jack Clark, directeur des politiques de l’organisation. « L’un des buts pas si bons serait la désinformation, parce que le logiciel est capable de produire des textes qui semblent cohérents, mais qui ne sont pas exacts, » dit-il.

Lire également : Analyse des systèmes SOC adaptés aux PME et de leur importance pour une cybersécurité efficace

Voir aussi

  • IBMTECHNOLOGIEL’intelligence artificielle d’IBM ne peut pas surpasser les êtres humainsquery_builder 15 Fév 2019 – 10:02 AM
  • Bois e vacas em pastoTECHNOLOGIELes vaches obtiennent le modèle d’application de Tinder pour trouver des âmes sœurs au Royaume-Uniquery_builder 11 fév 2019 – 17h02

Par précaution, OpenAI a décidé de ne pas publier ou rendre disponibles les versions les plus sophistiquées de ses logiciels. L’entreprise a toutefois créé un outil qui permet aux autorités, aux journalistes, aux écrivains et aux artistes d’expérimenter avec l’algorithme pour voir quel type de texte elle est capable de générer et quels autres types de tâches elle peut effectuer.

La possibilité que les logiciels puissent créer de fausses nouvelles presque instantanément surgit dans le contexte des préoccupations mondiales concernant le rôle de la technologie dans la diffusion de la désinformation. Les régulateurs européens ont menacé de prendre des mesures si les entreprises technologiques n’en font pas plus pour empêcher leurs produits d’influencer les électeurs, et Facebook travaille depuis l’élection présidentielle américaine de 2016 pour essayer de contenir la diffusion de fausses informations sur sa plate-forme.

Clark et Bowman ont déclaré que, pour l’instant, les compétences du système ne sont pas assez cohérentes pour constituer une menace immédiate. « La technologie n’est pas encore prête à l’emploi, ce qui est positif « , a déclaré M. Clark.

Révélée dans un article académique et un billet de blog le jeudi, la création d’OpenAI est entraînée à une tâche appelée langage de modélisation, qui consiste à prédire le mot suivant d’un texte à partir de la connaissance de tous les mots précédents, fonctionnant de la même manière que la fonction de saisie automatique d’un e-mail ou sur un téléphone mobile. Il peut également être utilisé pour la traduction et pour répondre à des questions ouvertes.

Une des utilisations possibles est d’aider les auteurs créatifs à générer des idées ou des dialogues, a déclaré Jeff Wu, un chercheur d’OpenAI qui a travaillé sur le projet. Parmi les autres utilitaires, il y a la vérification des erreurs grammaticales dans les textes ou la recherche d’erreurs dans les codes logiciels. Le système pourrait être adapté à l’avenir pour résumer les textes destinés aux décideurs des entreprises ou du gouvernement, a-t-il dit.