Qu’est-ce qu’un deepfake : L’IA met-elle en danger votre cybersécurité ? | Fortinet (2024)

Obtenir une formation gratuite sur la cybersécurité

Définition des deepfakes

Deepfake est une forme d’intelligence artificielle (IA) qui peut être utilisée pour créer des images, des sons et des vidéos de canular convaincants. Le terme «faux profond» combine le concept d’apprentissage profond avec quelque chose de faux.

Deepfake compile des images et des sons piratés et les assemble à l’aide d’algorithmes de machine learning. Par conséquent, cela crée des personnes et des événements qui n’existent pas ou qui ne se sont pas réellement produits.

La technologie Deepfake est principalement utilisée à des fins malveillantes, par exemple pour tromper le public en diffusant de fausses informations ou de la propagande. Par exemple, des vidéos de simulation approfondie pourraient montrer un leader mondial ou une célébrité disant quelque chose qu’ils n’ont pas dit, également appelé «fausse nouvelle» qui change l’opinion publique.

À quoi servent les faux profonds?

La technologie Deepfake peut être utilisée à des fins très variées, notamment:

Escroqueries et piratages

Les cybercriminels peuvent utiliser une technologie de faux profond pour créer des escroqueries, des fausses déclarations et des piratages qui sapent et déstabilisent les organisations.

Par exemple, un attaquant pourrait créer une fausse vidéo d’un cadre dirigeant admettant une activité criminelle, telle que des crimes financiers, ou faire de fausses déclarations sur l’activité de l’organisation. En plus de coûter du temps et de l’argent à réfuter, cela pourrait avoir un impact majeur sur la marque de l’entreprise, la réputation publique et le prix de l’action.

p*rnographie de célébrités

La p*rnographie non consensuelle constitue une menace majeure que représente le faux profond, qui représente jusqu’à 96% des faux profondssur Internet. La plupart d’entre elles ciblent des célébrités. La technologie Deepfake est également utilisée pour créer des cas de harcèlement de vengeance p*rnographique.

Manipulation des élections

De fausses vidéos approfondies ont été utilisées pour diffuser de fausses vidéos de leaders mondiaux tels que Donald Trump et Barack Obama, ce qui soulève des préoccupations quant à leur utilisation pour la manipulation des élections. Par exemple, il y avait des préoccupations généralisées selon lesquelles de fausses vidéos profondes affecteraient la campagne électorale américaine de 2020.

Ingénierie sociale

La technologie Deepfake a été utilisée dans les escroqueries d’ingénierie sociale, les faux audio induisant les gens en croire que des personnes de confiance ont dit quelque chose qu’elles n’ont pas dit. Par exemple, lePDG d’une société d’énergie britanniquea été induit en erreur en pensant qu’il parlait au directeur général de la société mère de la société en Allemagne. La fausse voix profonde a usurpé l’identité du directeur général et convaincu le PDG de transférer 220 000 € sur le compte bancaire d’un fournisseur hongrois présumé.

Attaques de désinformation automatisées

Deepfake peut également être utilisé pour propager des attaques de désinformation automatisées, telles que des théories de conspiration et des théories erronées sur des questions politiques et sociales. Un exemple assez évident d’un faux profond utilisé de cette manière est unefausse vidéo du fondateur de Facebook Mark Zuckerbergprétendant avoir «le contrôle total de milliards de données de personnes», grâce à Spectre, l’organisation fictive des romans et films James Bond.

Vol d’identité et fraude financière

La technologie Deepfake peut être utilisée pour créer de nouvelles identités et voler les identités de personnes réelles. Les attaquants utilisent cette technologie pour créer de faux documents ou falsifier la voix de leur victime, ce qui leur permet de créer des comptes ou d’acheter des produits en se faisant passer pour cette personne.

Qu’est-ce qu’un deepfake: L’IA met-elle en danger votre cybersécurité? | Fortinet (1)

Comment la technologie Deepfake a-t-elle été créée?

Le terme «deepfake» est apparu pour la première fois dans le domaine public en 2017, lorsqu’un utilisateur Reddit avec le nom d’utilisateur «deepfakes» a partagé des vidéos p*rnographiques structurées sur le site. Il l’a fait en utilisant la technologie open source d’apprentissage profond de Google pour échanger les visages des célébrités sur le corps des interprètes p*rnographiques. Les faux profonds modernes sont descendus des codes d’origine utilisés pour créer ces vidéos.

Comment les Deepfakes sont-ils fabriqués?

Il existe plusieurs méthodes pour créer des faux profonds. L’un des plus populaires est l’utilisation du réseau contradictoire génératif (GAN), qui s’entraîne à reconnaître les modèles à l’aide d’algorithmes, qui peuvent également être utilisés pour créer de fausses images.

Les algorithmes d’IA, appelés codeurs, sont également utilisés dans la technologie de remplacement et de remplacement de face. Le décodeur récupère et échange des images de visages, ce qui permet de superposer une face à un corps complètement différent. Les Deepfakes utilisent des encodeurs automatiques, qui vont au-delà de la compression et de la décompression des encodeurs classiques, permettant aux cybercriminels de créer des images complètement nouvelles. Les applications Deepfake utilisent deux codeurs automatiques, qui permettent de transférer les images et les mouvements d’une image à l’autre.

Comment repérer les faux

Les faux profonds peuvent être repérés en reconnaissant les activités inhabituelles ou les mouvements non naturels, notamment:

Mouvements oculaires non naturels

Un manque de mouvement des yeux est un bon signe de faux profonds. Il est difficile de reproduire le mouvement naturel des yeux, car les yeux des gens suivent et réagissent généralement à la personne avec laquelle ils parlent.

Un manque de clignement des yeux

Un manque de clignement des yeux est également un défaut avec des vidéos falsifiées. Il est difficile de reproduire l’action naturelle et humaine du clignement régulier avec la technologie de faux profond.

Expressions faciales non naturelles et morphing facial

La technologie Deepfake implique de transformer les images faciales, les visages étant simplement cousus d’une image à l’autre. Cela entraîne généralement des expressions faciales inhabituelles ou non naturelles.

Forme du corps non naturelle

Si le corps d’une personne ne semble pas avoir une forme naturelle, il est très probable qu’il soit faux. La technologie Deepfake se concentre principalement sur les visages plutôt que sur l’ensemble du corps, ce qui entraîne des formes de corps non naturelles.

Cheveux non naturels

Les fausses images ne peuvent pas générer de caractéristiques individuelles réalistes, telles que des cheveux frisottés ou désordonnés.

Couleurs anormales de la peau

Les Deepfakes ne sont pas en mesure de reproduire les couleurs naturelles des images et des vidéos. Cela leur donne des couleurs de peau anormales.

Positionnement inconfortable de la tête et du corps

Les fausses images profondes présentent souvent un positionnement incohérent ou gênant de la tête et du corps. Par exemple, les mouvements saccadés et les images déformées lorsque les personnes se déplacent ou tournent la tête.

Positions faciales incohérentes

Les fausses images profondes présentent souvent un positionnement incohérent ou gênant de la tête et du corps. Par exemple, les mouvements saccadés et les images déformées lorsque les personnes se déplacent ou tournent la tête.

Éclairage ou décoloration étranges

Comme pour les raisons des carnations non naturelles, les images contrefaites sont également sujettes à la décoloration, aux ombres mal positionnées et à un éclairage inhabituel.

Mauvaise synchronisation des lèvres

Les vidéos de simulation approfondies comporteront probablement une synchronisation labiale qui ne s’aligne pas sur les mots prononcés par les personnes dans la vidéo.

Deepfake vs. Shallowfake

Les «peu profonds» sont des vidéos qui semblent hors contexte ou sont modifiées à l’aide d’outils plus simplistes. Un bon exemple de faux peu profond est undiscours de Nancy Pelosi, la conférencière américaine de la Maison, édité pour faire entendre sa voix insultante, ce qui implique qu’elle était ivre.

Comment combattre les faux

Des mesures ont déjà été prises pour combattre les faux profonds et empêcher le partage des images et des vidéos en ligne.

Règles relatives aux réseaux sociaux

Facebook a embauché des chercheurs d’universités pour l’aider à créer un détecteur de faux profond, qui applique son interdiction des faux profonds. Twitter a mis en place des politiques pour prévenir les faux contenus et s’efforce d’étiqueter les fausses images profondes qui ne sont pas immédiatement supprimées. YouTube a également promis de bloquer tout faux contenu profond lié à l’élection et au recensem*nt américains de 2020.

Technologies de laboratoire de recherche

Des chercheurs ont travaillé sur des solutions de science des données qui détectent les faux profonds. Nombre d’entre elles sont rapidement devenues inefficaces à mesure que la technologie des assaillants évolue et crée des résultats plus convaincants.

Filtrage des programmes

Les programmes de filtrage fonctionnent également pour prévenir les faux profonds. Leprogramme du cabinet d’IA DeepTrace agit de la même manière qu’un antivirus ou qu’un filtre anti-spam et détourne le faux contenu dans une zone de quarantaine, tandis que Reality Defender, de l’AI Foundation, vise à baliser le contenu manipulé avant qu’il ne puisse causer de dommages.

Meilleures pratiques de l’entreprise

L’une des meilleures façons d’éviter les faux profonds est que les employés comprennent les signes de fausses images et vidéos. Les meilleures pratiques de l’entreprise comprennent le conseil aux utilisateurs sur les signes révélateurs de cyberattaques et d’activité frauduleuse en ligne.

Législation américaine

Des lois ont déjà été adoptées dans plusieurs États américains pour criminaliser la p*rnographie factice et empêcher l’utilisation de la technologie autour des élections. Une loi contrefaite a également été introduite dans la loi National Defense Authorization Act (NDAA) en décembre 2019.

Comment Fortinet peut vous aider

Les Solutions de sécurité Fortinet utilisent l’IA et l’apprentissage automatique pour empêcher les menaces avancées d’atteindre les réseaux et les ressources des organisations. Par exemple, le pare-pare-feu applicatif WebFortiWebutilise des fonctionnalités avancées qui défendent chaque application contre les menaces connues et de type «zero-day» et bloquent les activités malveillantes.

De plus, les pare-feux nouvelle génération (NGFW) FortiGatefiltrent le trafic réseau et offrent une inspection plus approfondie du contenu pour prévenir et bloquer les menaces internes et externes. Ils évoluent également en phase avec le paysage des menaces de cybersécurité, ce qui garantit que les organisations sont toujours protégées contre les derniers risques de sécurité.

FAQ

Qu’est-ce que Deepfake?

Deepfake est une forme d’intelligence artificielle (IA) qui peut être utilisée pour créer des images, des sons et des vidéos de canular convaincants.

À quoi servent les faux profonds?

La technologie Deepfake est principalement utilisée à des fins malveillantes, telles que tromper le public en diffusant de fausses informations ou de la propagande.

Comment la technologie Deepfake a-t-elle été créée?

Le terme «deepfake» est apparu pour la première fois dans le domaine public en 2017, lorsqu’un utilisateur Reddit avec le nom d’utilisateur «deepfakes» a partagé des vidéos p*rnographiques structurées sur le site.

Comment repérer les faux profonds

Les faux profonds peuvent être repérés en reconnaissant les activités inhabituelles ou les mouvements non naturels.

Liens rapides

Démo gratuite du produitExplorer les fonctionnalités et capacités majeures, et découvrir les interfaces utilisateur.
Centre de ressourcesTéléchargez un grand nombre de documents et de matériel pédagogique.
Essais gratuitsTestez nos produits et solutions.
Contacter un commercialVous avez une question? Nous sommes à votre écoute.

Veuillez remplir le formulaire ci-dessous. Un de nos collaborateurs vous contactera dans les plus brefs délais.

Qu’est-ce qu’un deepfake : L’IA met-elle en danger votre cybersécurité ? | Fortinet (2024)
Top Articles
Carey, Ohio: Tracing Halloween Horror Nights History | Orlando Informer
Texas Hazmat Study Guide 2022 Pdf
9294164879
Peralta's Mexican Restaurant Grand Saline Menu
Climate change, eroding shorelines and the race to save Indigenous history - The Weather Network
799: The Lives of Others - This American Life
Puss In Boots: The Last Wish Showtimes Near Fox Berkshire
80 For Brady Showtimes Near Cinemark At Harlingen
Feliz Domingo Bendiciones, Mensajes cristianos para compartir | Todo imágenes
Google Sites 1V1.Lol
Weldmotor Vehicle.com
1V1.Lol Pizza Edition
Pip Calculator | Myfxbook
Food And Grocery Walmart Job
Naughty Neighbor Tumblr
Unit 8 Lesson 2 Coding Activity
Www.jetnet.aa.com
Kuronime List
EventTarget: addEventListener() method - Web APIs | MDN
Fk Jones Obituary
Chrysler, Dodge, Jeep & Ram Vehicles in Houston, MS | Eaton CDJR
Accuweather Mold Count
Jen Chapin Gossip Bakery
Bayada Bucks Catalog 2023
Kobe Express Bayside Lakes Photos
Lufthansa LH456 (DLH456) from Frankfurt to Los Angeles
How to Start a Travel Agency: Steps and Tips | myPOS
Kltv Com Big Red Box
O'reilly's Los Banos
Road Conditions Riverton Wy
Wgu Admissions Login
Low Tide In Twilight Mangabuddy
Here's everything Apple just announced: iPhone 16, iPhone 16 Pro, Apple Watch Series 10, AirPods 4 and more
neither of the twins was arrested,传说中的800句记7000词
Www.questdiagnostics.com
What Time Moon Rise Tomorrow
Crazy 8S Cool Math
Craigslist Hart Mi
Bloxburg Bedroom Ideas That Will Make Your Kid's Jaw Drop
Cititrends Workday Login
Wiki Jfk Film
Busted Bell County
Broadcastify Thurston County
Directions To Pnc Near Me
Lagoon Pontoons Reviews
11 Awesome Cities: Skylines Mods You Need To Try
Trapshooters.com Discussion Forum
Lesson 2 Homework 4.1 Answer Key
Understanding DeFi The Roles, Tools, Risks, and Rewards of -- Alexandra Damsker -- 2024 -- O'Reilly Media -- 9781098120764 -- 79accdb00af9d0f41d97f44fa7970ff1 -- Annas Archive - Biblioteconomia
Azpeople Self Service
Bitmain Antminer S9 Review All You Need to Know
Choices’ summer movie preview
Latest Posts
Article information

Author: Neely Ledner

Last Updated:

Views: 5723

Rating: 4.1 / 5 (42 voted)

Reviews: 89% of readers found this page helpful

Author information

Name: Neely Ledner

Birthday: 1998-06-09

Address: 443 Barrows Terrace, New Jodyberg, CO 57462-5329

Phone: +2433516856029

Job: Central Legal Facilitator

Hobby: Backpacking, Jogging, Magic, Driving, Macrame, Embroidery, Foraging

Introduction: My name is Neely Ledner, I am a bright, determined, beautiful, adventurous, adventurous, spotless, calm person who loves writing and wants to share my knowledge and understanding with you.