Les collections

Les deepfakes sont mauvais mais quels sont certains des avantages possibles?

Les deepfakes sont mauvais mais quels sont certains des avantages possibles?

Que sont les Deepfakes? Pouvons-nous jamais vraiment faire confiance à tout ce que nous voyons à la télévision ou au cinéma?

Il s'avère que ceux qui ont les moyens et les motivations traitent des photos et des séquences vidéo depuis des décennies. Il n'y a rien de nouveau.

Mais Deepfakes, alimenté par l'IA et le ML, a permis de produire de fausses images presque parfaites de personnalités publiques dans, dirons-nous, des situations compromettantes. Mais est-ce nécessairement une mauvaise chose?

CONNEXES: LE LOGICIEL GRATUIT BAT WARNER BROS. POUR ENLEVER LA MOUSTACHE D'HENRY CAVILL

Que sont les Deepfakes?

Deepfakes, construction des termes deep learning et fake, est une technique de synthèse d'images humaines basée sur l'IA. Selon Wikipedia:

«Il est utilisé pour combiner et superposer des images et des vidéos existantes sur des images ou des vidéos sources en utilisant une technique d'apprentissage automatique connue sous le nom de réseaux antagonistes génératifs. L'expression« Deepfake »a été inventée en 2017.

Cette technique est incroyablement efficace et devient de plus en plus avancée et difficile à repérer avec le temps. Deepfakes a été utilisé dans le passé pour créer de fausses vidéos pornographiques de célébrités.

Il a également été utilisé pour créer de fausses nouvelles et d'autres images de canular malveillantes ou purement satiriques d'autres personnes éminentes avec un autre dialogue complètement fabriqué. La récente vidéo Deepfake de Mark Zuckerberg en est un excellent exemple, et franchement hilarant.

Le travail sur Deepfakes a eu lieu principalement dans la recherche universitaire et par des amateurs dans les communautés en ligne. On pense également que des agences gouvernementales comme la CIA ou le GCHQ du Royaume-Uni ont utilisé cette technique à des fins de propagande.

Qui a créé Deepfakes?

Travailler sur Deepfakes n'est en fait rien de nouveau. Bien que loin de la sophistication de la technologie actuelle, le domaine de la «vision par ordinateur» existe depuis les années 1990.

Sous-domaine de l'informatique, il combine l'intelligence artificielle et le traitement informatique d'images et de vidéos numériques pour créer de nouveaux médias artificiels. Un des premiers projets académiques notables a été appelé le programme Video Rewrite qui a été publié en 1997.

Il a pu modifier les séquences vidéo existantes d'une personne parlant avec un nouveau dialogue trafiqué. Il a utilisé l'apprentissage automatique pour automatiser complètement la réanimation du visage.

Les travaux universitaires et amateurs plus modernes dans ce domaine se sont davantage attachés à rendre le processus plus simple, plus rapide et plus accessible.

Par exemple, le programme Face2Face, publié en 2016, modifie les séquences vidéo du visage d'une personne pour la représenter en imitant les expressions faciales d'une autre personne en temps réel.

Un autre exemple, le programme «Synthesizing Obama» publié en 2017, a vraiment montré le potentiel de cette technologie. Mais on peut affirmer que la majeure partie des travaux les plus importants provient d'amateurs.

Avant d'être banni de Reddit, le sous-répertoire r / deepfakes consistait en du contenu Deepfake `` fait maison '' créé par les utilisateurs. Cette communauté, alors que le contenu était principalement de nature pornographique, a vraiment montré comment Deepfakes peut être créé relativement facilement avec suffisamment de connaissances et le bon logiciel.

Comment fonctionne Deepfakes?

Deepfakes fonctionne en exploitant notre tendance naturelle à croire ce que nous voyons s'il est imperceptiblement différent de ce que nous considérerions comme de vraies images. Il tente également de `` pirater '' le biais de confirmation de quelqu'un sur un sujet donné - surtout si le sujet du Deepfake est de nature politique.

Il est plus efficace si le spectateur n'a jamais vu la séquence originale - pour des raisons évidentes.

Quant à leur création proprement dite, cela implique généralement l'utilisation de deux Réseaux Génératifs Adversaires (GAN). Ces deux modèles d'apprentissage automatique se disputent dans un jeu à somme nulle pour créer de fausses images et tenter par l'autre de détecter qu'elles sont falsifiées.

Le faussaire crée des contrefaçons jusqu'à ce que l'autre modèle ML ne puisse pas détecter la contrefaçon. Ces systèmes fonctionnent mieux lorsqu'il existe une multitude de séquences et d'images du sujet vidéo.

C'est la raison principale pour laquelle les Deepfakes les plus importants ont tendance à impliquer des politiciens ou des célébrités.

Avantages et inconvénients de Deepfakes

Les inconvénients de quelque chose comme Deepfakes sont assez évidents. De la possibilité de créer de fausses preuves incriminantes aux «fausses nouvelles» et à la propagande, cette technologie peut facilement être utilisée à des fins néfastes et au chantage.

Mais cela pourrait aussi avoir ses avantages. Un point intéressant à ce sujet vient de TowardsDataScience.com.

En substance, les vidéos satiriques Deepfake, tout en étant visuellement convaincantes à l'œil, sont évidemment fabriquées. Ceci, ainsi que la montée des "Fake News", a ouvert les yeux des gens sur le fait que c'est possible et que nous devrions tout prendre "avec une pincée de sel".

Attention: La vidéo suivante contient un langage doux - C'est George Carlin.

"Alors merciDeepfakes, pour nous en avoir fait prendre conscience, nous faire réaliser une fois de plus que nous ne pouvons pas prendre tout ce que nous voyons et entendons pour acquis. Pour avoir créé un problème que nous devons résoudre, dès le début, avant qu'il ne devienne si grand et n'ait influencé tant d'entre nous de manière incorrecte, qu'il est trop tard.

Cela prendra du temps. Une nouvelle compétence que nous devons tous apprendre. Alors doutez de la prochaine vidéo que vous verrez sur Internet. Enfer, doutez de tout ce que vous voyez, lisez ou entendez. Soyez plus critique! Pense pour toi même."

Nous ne pourrions pas mieux le dire nous-mêmes. Après tout, si quelque chose semble trop bon, ou mauvais d'ailleurs, pour être vrai, il faut probablement le remettre en question.


Voir la vidéo: Deepfakes: Manipulating audio and video to spread misinformation (Décembre 2021).