Les collections

Un nouveau rapport avertit que l'IA ne peut pas nous sauver de Deepfakes

Un nouveau rapport avertit que l'IA ne peut pas nous sauver de Deepfakes

Un nouveau rapport, publié dansDonnées et société, dit que l'IA pourrait ne pas être en mesure de nous protéger des effets potentiellement perturbateurs des deepfakes sur la société.

Les auteurs de l'étude Britt Paris et Joan Donovan affirment que les deepfakes font partie d'une longue histoire de manipulation des médias, un problème qui a toujours nécessité une solution sociale et technique.

CONNEXES: UN NOUVEL OUTIL D'IA PEUT NOUS AIDER À LUTTER CONTRE LES FAUSSES NOUVELLES ÉCRITES PAR IA

Manipulation médiatique séculaire

Alors que Google annonce ses efforts pour aider à la détection des deepfakes via l'IA, Paris et Donovan affirment que s'appuyer sur l'IA pour résoudre un problème généré par l'IA pourrait aggraver la situation.

Cela pourrait servir à concentrer plus de pouvoir et de données entre les mains de grandes entreprises technologiques.

Les auteurs de l'étude disent que les deepfakes sont très peu susceptibles d'être résolus uniquement par la technologie. «La relation entre les médias et la vérité n'a jamais été stable», indique le rapport.

À titre d'exemple, l'étude cite la façon dont les tribunaux se méfiaient des preuves photographiques devant les tribunaux lorsqu'elles ont été autorisées pour la première fois par les juges dans les années 1850. Dans les années 1990, les journalistes ont déformé le bilan inégal des morts entre les forces américaines et irakiennes pendant la guerre du Golfe, ce qui donne l'impression d'une guerre menée de manière uniforme.

«Ces images étaient de vraies images», écrivent les auteurs du rapport. «Ce qui était manipulateur, c'était la façon dont ils étaient contextualisés, interprétés et diffusés 24 heures sur 24 à la télévision par câble.»

Les deepfakes ne s'en vont pas

«La panique autour des deepfakes justifie des solutions techniques rapides qui ne s'attaquent pas aux inégalités structurelles», a déclaré Paris. Le bord.

«C'est un projet énorme, mais nous devons trouver des solutions à la fois sociales et politiques afin que les personnes sans pouvoir ne soient pas exclues de l'équation.»

Paris et Donovan pensent que se concentrer sur les correctifs techniques signifie que les modifications législatives ne sont pas apportées pour aider ceux qui sont le plus menacés d'être manipulés.

Sans surprise, ils se méfient de l'idée que les grandes entreprises technologiques, dont beaucoup ont récemment été au centre d'énormes scandales de données et de confidentialité, vont nous sauver de la manipulation de masse via une nouvelle technologie.

Bobby Chesney, co-auteur de l'article «Deep Fakes: Un défi imminent pour la vie privée, la démocratie et la sécurité nationale» est d'accord. «Nous devons parler d'atténuation et de limitation des dommages, et non de résoudre ce problème», a déclaré ChesneyLe bord. "Deepfakes ne va pas disparaître."


Voir la vidéo: Deepfakes: Manipulating audio and video to spread misinformation (Novembre 2021).