Compensation Pour Le Signe Du Zodiaque
Composition C Célébrités

Découvrez La Compatibilité Par Le Signe Du Zodiaque

Explication : Pourquoi est-il de plus en plus difficile de détecter les vidéos deepfake et quelles en sont les implications ?

Le danger potentiel des deepfakes réside dans le fait que le niveau de manipulation est si parfait qu'il peut parfois sembler impossible de les distinguer des vraies vidéos. Et plus il devient difficile de détecter la fausseté, plus grande est la menace qu'il possède de se faire passer pour réel et de causer les ravages qu'il a l'intention de faire.

DeepfakeAucune des personnes sur cette photo n'est réelle. Ce sont de fausses personnes générées par l'IA. (Source : https://thispersondoesnotexist.com/)

Les vidéos trafiquées ou les deepfakes sont l'une des armes clés utilisées dans les batailles de propagande depuis un certain temps déjà. Donald Trump raillant la Belgique pour rester dans l'accord de Paris sur le climat, David Beckham parlant couramment neuf langues, Mao Zedong chantant 'Je survivrai' ou Jeff Bezos et Elon Musk dans un épisode pilote de Star Trek... toutes ces vidéos sont devenues virales malgré le fait qu'elles soient faux, ou parce qu'ils étaient des deepfakes.





L'année dernière, Marco Rubio, le sénateur républicain de Floride, a déclaré que les deepfakes étaient aussi puissants que les armes nucléaires pour mener des guerres dans une démocratie. Autrefois, si vous vouliez menacer les États-Unis, vous aviez besoin de 10 porte-avions, d'armes nucléaires et de missiles à longue portée. Aujourd'hui, vous avez juste besoin d'accéder à notre système Internet, à notre système bancaire, à notre réseau électrique et à nos infrastructures, et de plus en plus, tout ce dont vous avez besoin est la capacité de produire une fausse vidéo très réaliste qui pourrait nuire à nos élections, qui pourrait jeter notre pays dans une crise terrible en interne et nous affaiblissent profondément, Forbes l'a cité comme disant.

Le danger potentiel des deepfakes réside dans le fait que le niveau de manipulation est si parfait qu'il peut parfois sembler impossible de les distinguer des vraies vidéos. Et plus il devient difficile de détecter la fausseté, plus grande est la menace qu'il possède de se faire passer pour réel et de causer les ravages qu'il a l'intention de faire. Mais avec des outils plus sophistiqués alimentés par l'intelligence artificielle disponibles maintenant pour produire ces vidéos, est-il de plus en plus difficile de détecter les deepfakes ?



Que sont les deepfakes et comment sont-ils créés ?

Les deepfakes constituent de faux contenus - souvent sous forme de vidéos mais aussi d'autres formats multimédias tels que des images ou de l'audio - créés à l'aide de puissants outils d'intelligence artificielle. Ils sont appelés deepfakes car ils utilisent la technologie d'apprentissage en profondeur, une branche de l'apprentissage automatique qui applique la simulation de réseau neuronal à des ensembles de données massifs, pour créer du faux contenu.


valeur nette de pepsi

Il utilise une branche de l'intelligence artificielle où si un ordinateur est alimenté en suffisamment de données, il peut générer des contrefaçons qui se comportent un peu comme une personne réelle. Par exemple, l'IA peut apprendre à quoi ressemble un visage source, puis le transposer sur une autre cible pour effectuer un échange de visage.



L'application d'une technologie appelée Generative Adversarial Networks (GAN), qui utilise deux algorithmes d'IA - où l'un génère le faux contenu et l'autre évalue ses efforts, enseignant au système à être meilleur - a aidé à trouver des deepfakes plus précis.

Le GAN peut également proposer des images générées par ordinateur de faux êtres humains, qui ont été utilisées par un site Web appelé «Cette personne n'existe pas». Cela rend pratiquement impossible de détecter si les vidéos ou les images que nous voyons sur Internet sont réelles ou fausses.



Les deepfakes peuvent être très difficiles à détecter. Par exemple, de nombreuses personnes étaient tombées amoureuses des vidéos Tiktok de Tom Cruise jouant au golf, qui se sont révélées plus tard être des deepfakes.

Est-il de plus en plus difficile de détecter les deepfakes ?

Un article présenté à la Winter Conference on Applications of Computer Vision 2021 décrit une nouvelle technique qui rend les deepfakes plus infaillibles, ce qui rend difficile leur détection par les outils traditionnels.



L'étude, dirigée par Paarth Neekhara et Shehzeen Samarah Hussain, tous deux doctorants à l'Université de Californie à San Diego, a révélé que les outils de détection peuvent être trompés en insérant des entrées légèrement manipulées appelées exemples contradictoires dans chaque image vidéo.

DoctoratPaarth Neekhara et Shehzeen Samarah Hussain, doctorants à l'Université de Californie à San Diego, qui ont dirigé l'étude. Neekhara est étudiante en 4e année de doctorat au département d'informatique tandis que Hussain, également en 4e année de son programme de doctorat, est étudiante au département de génie électrique et informatique.

Les méthodes de pointe actuelles pour la détection des deepfakes peuvent être facilement contournées si l'adversaire a une connaissance complète ou même partielle du détecteur, indique l'article intitulé 'Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples'.



S'adressant à indianexpress.com, Neekhara et Hussain ont déclaré que les méthodes de détection standard peuvent être loin d'être infaillibles car elles ne garantissent pas de détecter les vidéos deepfake plus récentes synthétisées à l'aide de nouvelles techniques qui ne figurent pas dans l'ensemble de données et elles sont vulnérables aux entrées contradictoires.

ADHÉRER MAINTENANT :La chaîne de télégrammes expliquée Express

Les entrées antagonistes sont des entrées légèrement modifiées de sorte qu'elles provoquent une erreur des réseaux de neurones profonds. Il a été démontré que les réseaux de neurones profonds sont vulnérables à de telles entrées, ce qui peut entraîner une modification de la sortie du classificateur. Dans notre travail, nous montrons qu'un attaquant peut légèrement modifier chaque image d'une vidéo deepfake de sorte qu'elle puisse contourner un détecteur de deepfake et être classée comme réelle, ont-ils déclaré.


valeur nette de reba mcentire 2019

DeepfakeExemples contradictoires pour l'ensemble de données FaceForensics++ conçu par l'équipe de recherche de l'Université de Californie à San Diego pour tromper les détecteurs de deepfake. ( https://adversarialdeepfakes.github.io/ )

Ils ont ajouté que l'attaquant peut créer une petite perturbation contradictoire imperceptible pour chaque image d'une vidéo deepfake, l'ajouter sur l'image, puis combiner toutes les images vidéo ensemble pour créer la vidéo contradictoire. Dans nos expériences utilisant ces techniques, nous avons pu obtenir un taux de réussite (de tromper le détecteur) supérieur à 90 %.

Quelles sont les menaces posées par les vidéos deepfake ?

Avec une prolifération de vidéos deepfake, on craint de plus en plus qu'elles soient instrumentalisées pour mener des campagnes politiques et puissent être exploitées par des régimes autoritaires.

En 2019, une organisation de recherche appelée Future Advocacy et l'artiste britannique Bill Posters ont créé une vidéo du Premier ministre britannique Boris Johnson et du chef du parti travailliste Jeremy Corbyn se soutenant mutuellement pour le poste de Premier ministre. Le groupe a déclaré que la vidéo avait été créée pour montrer le potentiel des deepfakes à saper la démocratie.

De plus, l'année dernière, avant les élections de l'Assemblée de Delhi, des vidéos du président du BJP de Delhi, Manoj Tiwari, s'exprimant en anglais et en Haryanvi sont devenues virales. Dans ces vidéos, Tiwari a été vu critiquant Arvind Kejriwal et demandant aux gens de voter pour le BJP. Les vidéos, qui ont été partagées dans plus de 5 000 groupes WhatsApp, se sont ensuite révélées être des deepfakes, a rapporté la société de médias numériques Vice.

Les deepfakes sont également une source de préoccupation à un moment où l'OMS a déclaré que la crise de Covid-19 a déclenché une infodémie et qu'il y a eu des tentatives délibérées de diffuser de fausses informations pour saper la réponse de santé publique et faire avancer les programmes alternatifs de groupes ou d'individus.

De plus, les vidéos falsifiées - qui incluent la manipulation du contenu en utilisant un horodatage ou un emplacement incorrect, le découpage du contenu pour changer le contexte, l'omission, l'épissage et la fabrication - sont de plus en plus utilisées de nos jours sur les réseaux sociaux pour déformer délibérément des faits à des fins politiques. La plupart de ces vidéos ne sont pas des exemples de deepfakes, mais montrent à quel point il peut être facile d'obscurcir des faits et de répandre des mensonges basés sur du contenu manipulé se faisant passer pour des preuves tangibles.

L'autre grande préoccupation concernant les vidéos deepfake est la génération de contenu pornographique non consensuel. En 2017, un utilisateur a déployé un algorithme d'échange de visages pour créer des vidéos pornographiques deepfake de célébrités telles que Scarlett Johansson, Gal Gadot, Kristen Bell et Michelle Obama, et les a partagées sur une menace Reddit appelée r/deepfake. Le compte comptait près de 90 000 abonnés au moment de sa fermeture en février de l'année prochaine.

Sur les milliers de vidéos deepfake sur Internet, plus de 90 % sont de la pornographie non consensuelle. L'une des expériences d'IA les plus horribles de l'année dernière était une application appelée DeepNude qui déshabillait des photos de femmes - elle pouvait prendre des photos, puis échanger des vêtements de femmes contre des corps nus très réalistes. L'application a été supprimée après une forte réaction.

De plus, comme cela est largement rapporté, les vidéos deepfake sont de plus en plus utilisées pour générer de la pornographie vengeresse par des amants méprisés pour harceler les femmes.

La menace posée par les vidéos Deepfake est déjà apparente, ont déclaré Neekhara et Hussain à indianexpress.com. Il y a des utilisateurs malveillants qui utilisent de telles vidéos pour diffamer des personnalités célèbres, répandre de la désinformation, influencer les élections et polariser les gens. Avec des techniques de synthèse vidéo deepfake plus convaincantes et plus accessibles, cette menace est devenue encore plus importante, ont-ils ajouté.

Y a-t-il une répression en vue ?

La plupart des sociétés de médias sociaux telles que Facebook et Twitter ont interdit les vidéos deepfake. Ils ont dit que dès qu'ils détecteraient une vidéo comme deepfake, elle serait supprimée.


âge de Willie Aames

Facebook a recruté des chercheurs de Berkeley, Oxford et d'autres institutions pour construire un détecteur de deepfake. En 2019, il a organisé un Deepfake Detection Challenge en partenariat avec des leaders de l'industrie et des experts universitaires au cours duquel un ensemble de données unique composé de plus de 100 000 vidéos a été créé et partagé.

Cependant, tous les deepfakes ne peuvent pas être détectés avec précision et leur détection et suppression peut également prendre un temps considérable. De plus, beaucoup de sites pornographiques n'exercent pas le même niveau de restrictions.

Neekhara et Hussain ont déclaré : Pour détecter les vidéos deepfake avec plus de précision, nous avons besoin de modèles robustes à l'adversaire en incorporant un attaquant tout en entraînant de tels modèles de détection de deepfake. Une solution à long terme consiste à filigraner ou à signer numériquement les images et les vidéos de l'appareil sur lequel elles sont capturées. Le filigrane ou la signature numérique devrait être perturbé si les techniques de deepfake telles que les échanges de visages sont appliquées. Un détecteur de deepfake peut alors simplement vérifier la signature ou le filigrane. Cependant, cela nécessiterait d'établir une norme de filigrane sur tous les appareils photo et téléphones portables. Par conséquent, cela peut prendre un certain temps avant que cela devienne une réalité.

Partage Avec Tes Amis: