Les problèmes de Facebook pour modérer les deepfakes ne feront qu'empirer en 2020

L'été dernier, une vidéo de Mark Zuckerberg a circulé sur Instagram dans laquelle le PDG de Facebook semblait affirmer qu'il avait «un contrôle total sur des milliards de données volées, tous leurs secrets, leur vie, leur avenir». Il s'est avéré être un projet artistique plutôt qu'une tentative délibérée de désinformation, mais Facebook lui a permis de rester sur la plate-forme. Selon l'entreprise, il n'a violé aucune de ses politiques.

Pour certains, cela montre à quel point les grandes entreprises technologiques ne sont pas prêtes à faire face à l'assaut des faux médias générés par l'IA appelés deepfakes. Mais ce n'est pas nécessairement la faute de Facebook. Les Deepfakes sont incroyablement difficiles à modérer, non pas parce qu'ils sont difficiles à repérer (bien qu'ils puissent l'être), mais parce que la catégorie est si large que toute tentative de «restreindre» les photos et vidéos éditées par l'IA finirait par affecter un tout bande de contenu inoffensif.

Interdire complètement les deepfakes signifierait supprimer les blagues populaires comme les selfies Snapchat échangés selon le sexe et les visages vieillis artificiellement. L'interdiction des deepfakes politiquement trompeurs ne fait que ramener aux mêmes problèmes de modération politique que les entreprises technologiques rencontrent depuis des années. Et étant donné qu'il n'y a pas d'algorithme simple qui puisse repérer automatiquement le contenu édité par l'IA, quelle que soit l'interdiction qu'ils promulguent, cela signifierait de créer encore plus de travail pour les modérateurs humains assiégés. Pour les entreprises comme Facebook, il n'y a tout simplement pas d'option facile.

"Si vous considérez 'deepfake' comme toute vidéo ou image éditée par machine learning, cela s'applique à une catégorie de choses si énorme qu'il est difficile de savoir si cela signifie quelque chose", Tim Hwang, directeur de l'éthique Harvard-MIT et Gouvernance de l'Initiative AI, raconte Le bord. "Si j'avais mes druthers, ce que je ne suis pas sûr de faire, je dirais que la façon dont nous devrions penser aux deepfakes est une question d'intention. Qu'essayez-vous d'accomplir dans le type de média que vous créez? "

Notamment, cela semble être la direction que prennent réellement les grandes plateformes. Facebook et Reddit ont tous deux annoncé des politiques de modération qui couvraient les deepfakes la semaine dernière, et plutôt que d'essayer d'éliminer complètement le format, ils ont adopté une approche plus étroite.

Facebook a déclaré qu'il supprimerait les «médias trompeurs manipulés» qui ont été «édités ou synthétisés» en utilisant l'IA ou l'apprentissage automatique «d'une manière qui n'est pas apparente pour une personne moyenne et qui induirait probablement quelqu'un en erreur en pensant qu'un sujet de la vidéo a dit des mots qu'ils n'ont pas vraiment dit. "Mais la société a noté que cela ne couvre pas" la parodie ou la satire " ou des modifications trompeuses effectuées à l'aide de moyens traditionnels, comme la vidéo virale de l'an dernier de la présidente de la Chambre, Nancy Pelosi, censée censurer ses mots.

De nouvelles applications comme Doublicat (photo) rendront les deepfakes plus faciles et plus amusants.
Crédits: Doublicat

Reddit, quant à lui, n'a pas du tout mentionné l'IA, mais a plutôt déclaré qu'il supprimerait les médias qui «usurpent l'identité d'individus ou d'entités de manière trompeuse ou trompeuse». Il a également créé une exemption pour «satire et parodie», et a ajouté qu'il le fera «Tenez toujours compte du contexte de tout contenu particulier» – une mise en garde générale qui donne à ses mods une grande latitude.

Comme beaucoup l'ont souligné, ces politiques sont pleines d'échappatoires. Écrire à OneZero, Will Oremus note que Facebook ne couvre que les médias édités qui incluent la parole, par exemple. Cela signifie qu’une «vidéo profonde qui donne l’impression qu’un politicien a brûlé le

Le drapeau américain, participé à un rassemblement nationaliste blanc ou serré la main d'un terroriste »ne serait pas interdit – ce que Facebook a confirmé à Oremus.

Ce sont des omissions flagrantes, mais elles mettent en évidence la difficulté à séparer les deepfakes des problèmes sous-jacents de la modération de la plateforme. Bien que de nombreux rapports au cours des dernières années aient traité de «deepfake» comme synonyme de «désinformation politique», la définition actuelle est beaucoup plus large. Et le problème ne fera qu'empirer en 2020.

Alors que les versions antérieures du logiciel deepfake prenaient un peu de patience et de compétences techniques à utiliser, la prochaine génération rendra la création de deepfakes aussi simple que la publication. Les applications qui utilisent l'IA pour éditer des vidéos (la définition standard d'un deepfake) deviendront monnaie courante, et à mesure qu'elles se répandront – utilisées pour les blagues, les tweets de marque, l'intimidation, le harcèlement et tout le reste – l'idée du deepfake en tant qu'unique la menace à la vérité en ligne disparaîtra.

Cette semaine, une application nommée Doublicat a été lancée sur iOS et Android qui utilise l'apprentissage automatique pour coller les visages des utilisateurs sur des GIF de réaction populaires. Pour le moment, cela ne fonctionne qu'avec des GIF présélectionnés, mais le PDG de la société a déclaré Le bord il permettra aux utilisateurs d'insérer des visages dans tout contenu qu'ils souhaitent à l'avenir, grâce à un type de méthode d'apprentissage automatique appelé GAN.

Tout cela fait-il de Doublicat une application deepfake? Oui. Et cela va-t-il saper la démocratie? Probablement pas.

Il suffit de regarder la qualité de sa sortie, comme le montre le GIF ci-dessous, qui montre mon visage collé sur Chris Pratt dans Parcs et loisirs. Technologiquement, c'est impressionnant. L'application a créé le GIF en quelques secondes à partir d'une seule photo. Mais cela ne sera jamais confondu avec la vraie chose. Pendant ce temps, le créateur de TikTok, ByteDance, a expérimenté des fonctionnalités de deepfake (bien qu'il dise qu'elles ne seront pas incorporées dans son application très populaire) et Snapchat a récemment introduit ses propres outils d'échange de visage.


L'auteur en tant que Chris Pratt.

Hwang fait valoir que la dilution du terme deepfakes pourrait effectivement avoir des avantages à long terme. "Je pense que la grande ironie des gens qui disent que toutes ces fonctionnalités de consommation sont également des deepfakes, c'est que cela marchandise à certains égards ce que signifie deepfake", dit Hwang. Si les deepfakes deviennent monnaie courante et banals, les gens «se familiariseront avec la notion de ce que cette technologie peut faire», dit-il. Avec un peu de chance, nous pourrons mieux le comprendre et nous concentrer sur les problèmes sous-jacents de désinformation et de propagande politique.

Il est possible d'affirmer que le problème de la modération des deepfakes sur les réseaux sociaux a été principalement une distraction depuis le début. La propagande politique éditée par AI n'a pas réussi à se matérialiser de manière significative, et des études montrent que la grande majorité des deepfakes sont du porno non consensuel (représentant 96% des vidéos deepfake en ligne).

Les plateformes de médias sociaux se sont heureusement engagées dans le débat sur la modération en profondeur, mais comme le montrent les récentes annonces de Facebook et de Reddit, ces efforts sont principalement un spectacle secondaire. Les problèmes fondamentaux n'ont pas changé: qui peut mentir sur Internet et qui décide s'ils mentent? Une fois que les deepfakes cesseront d'être crédibles comme une menace existentielle à la vérité, nous nous retrouverons avec les mêmes questions immuables, plus urgentes que jamais.

Traduit de la source : https://www.theverge.com/2020/1/15/21067220/deepfake-moderation-apps-tools-2020-facebook-reddit-social-media

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.