Divers

Un nouvel outil d'IA peut nous aider à lutter contre les fausses nouvelles et critiques écrites par l'IA

Un nouvel outil d'IA peut nous aider à lutter contre les fausses nouvelles et critiques écrites par l'IA

Au cours des derniers mois, les outils d'IA ont soulevé de sérieuses préoccupations quant à la façon dont ils ont été - et peuvent être - utilisés pour manipuler le public.

Quelle est la solution? Selon des chercheurs de Harvard et du MIT, il existe une meilleure solution que de simplement débrancher Skynet.

La meilleure façon de battre l'IA est, en fait, avec l'IA, disent-ils.

CONNEXES: PRINCIPALES FAÇONS DE LA PRÉSENTATION NEURALINK D'ELON MUSK: RÉSOLUTION DES MALADIES DU CERVEAU ET ATTÉNUATION DE LA MENACE DE L'IA

AI contre AI

L'IA peut être utilisée pour diffuser de fausses nouvelles, rédiger de fausses critiques et créer une fausse foule d'utilisateurs de médias sociaux visant à bombarder les sections de commentaires avec des agendas spécifiques.

Cependant, selon les chercheurs du MIT, il peut désormais également être utilisé pour repérer de faux textes générés artificiellement - apparemment, il en faut un pour en connaître un.

Bien que la technologie de la désinformation progresse à un rythme inquiétant, le même ensemble d'outils peut heureusement être utilisé pour détecter ce type de désinformation. Les fausses nouvelles, les deepfakes et les robots Twitter pourraient avoir leurs jours comptés par la technologie même qui a aidé à les créer.

Détection des modèles de texte statistiques

Les chercheurs de l'Université Harvard et du MIT-IBM Watson AI Lab ont récemment développé un nouvel outil qui détecte le texte généré par l'IA.

L'outil, appelé la salle de test du modèle de langage géant (GLTR), tire parti du fait que les générateurs de texte AI utilisent des modèles statistiques assez prévisibles dans le texte.

Bien que ces modèles ne soient pas faciles à repérer pour votre lecteur moyen, il semble qu'un algorithme puisse faire du très bon travail. L'outil d'IA, essentiellement, peut dire si le texte est trop prévisible pour avoir été écrit par un humain.

Comment ça marche?

GLTR teste la prévisibilité dans les textes en examinant la probabilité statistique qu'un mot soit choisi après l'autre dans une phrase.

Nous avons couru le passage d'ouverture de 1984 à travers l'outil afin de mettre George Orwell à l'épreuve - et de prouver qu'il n'était pas vraiment une IA renvoyée dans le temps depuis le futur.

Les mots moins prévisibles sont signalés par la couleur violette - une saupoudrage de ceux-ci tout au long d'un texte montre qu'il a probablement été écrit par une main humaine.

Les mots verts, en revanche, sont les plus prévisibles, tandis que le jaune et le rouge se situent entre les deux.

Bien sûr, nous pouvons envisager un avenir dans lequel les outils d'apprentissage automatique générant du texte sont formés sur ces mots violets afin de tromper GLTR en apparaissant comme plus humain - en espérant que les chercheurs de GLTR pourront suivre.

IA vs humains?

Pour tester GLTR, les chercheurs ont demandé aux étudiants de Harvard d'identifier le texte généré par l'IA - d'abord avec l'outil, puis sans lui.

Les élèves n'ont repéré avec succès que la moitié de tous les faux textes par eux-mêmes. Avec l'outil, en revanche, ils en ont repéré 72%.

Alors que l'expérience opposait les humains à l'IA - une étrange préfiguration de l'avenir peut-être - l'un des chercheurs dit que leur objectif ultime est différent:

«Notre objectif est de créer des systèmes de collaboration humains et IA», Sebastian Gehrmann, Ph.D. étudiant impliqué dans le projet, a déclaré au MIT dans un communiqué sur GLTR.

Si vous souhaitez essayer le nouvel outil vous-même, vous pouvez le trouver ici. Un article détaillant les expériences et le nouvel outil a été publié récemment par les chercheurs.

À l'avenir, d'énormes troubles politiques pourraient être causés par des vidéos fausses et profondes crédibles de dirigeants mondiaux, et le texte généré par l'IA pourrait être utilisé pour répandre en masse de la désinformation. Heureusement, la même technologie pourrait également fournir une solution au problème.


Voir la vidéo: Etienne Klein - De quoi le vide est-il plein? (Juin 2021).