Information

Facebook, Microsoft et le monde universitaire lancent un nouveau défi pour développer une technologie permettant de repérer les Deepfakes

Facebook, Microsoft et le monde universitaire lancent un nouveau défi pour développer une technologie permettant de repérer les Deepfakes

Dans le but de détecter les deepfakes en ligne, Facebook, Microsoft et le Partenariat sur l'IA s'associent avec des universités pour lancer le Deepfake Detection Challenge.

Dans un article de blog, Mike Schroepfer, directeur de la technologie chez Facebook, a déclaré que l'objectif du défi était de créer une technologie open source capable de mieux détecter lorsque l'intelligence artificielle a été utilisée pour modifier la vidéo dans le but d'induire en erreur.

CONNEXES: LES DEEPFAKES SONT MAUVAIS MAIS QUELS SONT CERTAINS AVANTAGES POSSIBLES?

Facebook veut stimuler les innovations pour lutter contre les deepfakes

Le Deepfake Detection Challenge comprendra un ensemble de données, un classement, des subventions et des récompenses visant à stimuler l'innovation dans ce domaine. Cornell Tech, le MIT, l'Université d'Oxford, l'UC Berkeley, l'Université du Maryland, College Park et l'Université d'Albany-SUNY unissent leurs forces avec Facebook, Microsoft et le Partenariat sur l'IA pour rendre le défi possible.

Facebook s'associe à des leaders de l'industrie et à des chercheurs universitaires pour créer le DeepFake Detection Challenge, un effort collaboratif visant à créer de nouveaux outils pour détecter les vidéos manipulées avec l'IA. https://t.co/IlwSVmhQxbpic.twitter.com/XNpR95MniF

- Facebook AI (@facebookai) 5 septembre 2019

Schroepfer a déclaré qu'il était important que les données soient librement accessibles à la communauté. En conséquence, Facebook, qui consacre plus de $10 millions d'euros pour financer l'effort, utiliseront des acteurs rémunérés avec le consentement requis pour contribuer au défi. Aucune donnée du géant des médias sociaux ne sera utilisée pour les défis, a déclaré Schroepfer.

«Les techniques Deepfake, qui présentent des vidéos réalistes générées par l'IA de vraies personnes faisant et disant des choses fictives, ont des implications importantes pour déterminer la légitimité des informations présentées en ligne. Pourtant, l'industrie ne dispose pas d'un ensemble de données ou de références pour les détecter », a écrit l'exécutif dans le billet de blog.« Nous voulons catalyser davantage de recherche et développement dans ce domaine et nous assurer qu'il existe de meilleurs outils open source pour détecter les deepfakes. . "

Partenariat sur l'IA pour prendre la tête de la gouvernance

Les aspects de gouvernance du défi seront supervisés par le nouveau comité directeur du Partenariat sur l'IA sur l'IA et l'intégrité des médias. Ce comité est composé d'organisations telles que Facebook, Microsoft et WITNESS, entre autres. "Il s'agit d'un problème en constante évolution, tout comme le spam ou d'autres défis contradictoires, et nous espérons qu'en aidant l'industrie et la communauté de l'IA à se réunir, nous pourrons progresser plus rapidement", a déclaré Schroepfer.

Les efforts de Facebook surviennent à un moment où les deepfakes commencent à être utilisés au-delà de la tentative de modifier des vidéos en ligne. Selon un rapport récent, des criminels ont utilisé une imitation profonde de la voix d'un dirigeant pour le pousser à transférer de l'argent. Selon un rapport du Wall Street Journal,$243,000 le transfert était censé être un paiement à un fournisseur hongrois et le PDG britannique, estimant qu'il parlait avec son patron allemand, a effectué le transfert comme demandé.

Avec l'élection présidentielle américaine de 2020, les craintes grandissent que les agents politiques utilisent des deepfakes pour diffamer les candidats. La réputation de Facebook a déjà pris un grand coup après les élections de 2016 et prend maintenant des mesures pour empêcher une répétition cette fois-ci.


Voir la vidéo: Deepfakes: Is This Video Even Real? NYT Opinion (Juin 2021).