Les deepfakes d'IA se font passer pour des candidats à un emploi pour tromper les systèmes.
Après des semaines d’examen de CV, j’ai finalement pris rendez-vous. Entretien vidéo Avec un candidat prometteur pour un poste de développeur à distance. Même si la conversation se déroule sans problème et que les réponses techniques sont précises, quelque chose semble étrange. L'éclairage semble artificiel, leurs mouvements sont un peu robotiques et ils deviennent évasifs lorsque vous leur demandez d'ajuster la caméra. Attention, vous interviewez peut-être un candidat créé par l’intelligence artificielle (IA) utilisant la technologie deepfake.
Selon la société de cybersécurité Palo Alto Networks, la technologie de l'IA a tellement progressé qu'il est désormais possible de créer un faux candidat à un emploi. Moins de 70 minutes. Le cabinet d’études Gartner prédit que d’ici 2028, un candidat à un emploi sur quatre dans le monde sera un faux candidat. Entre-temps, Rapports de ResumeGenius 17 % des responsables du recrutement ont déjà rencontré des candidats à un emploi deepfake lors d'entretiens vidéo. Lorsque ces mauvais acteurs accèdent à vos systèmes, ils peuvent extraire des informations exclusives, rediriger des fonds, installer des rançongiciels ou créer un accès permanent pour une exploitation future.
À mesure que la technologie de l’IA s’améliore, la détection de ces imposteurs nécessite une approche multicouche qui combine des méthodes de vérification technique avec l’intuition humaine. Voici cinq façons d’identifier les candidats deepfake avant qu’ils n’infiltrent votre organisation :
1. Demander des actions qui remettent en question les limites de l’intelligence artificielle (IA).
Lorsque Davide Moksadloo, directeur technique du Vidoc Security Lab, a soupçonné qu'un candidat utilisait l'IA pour modifier son apparence, il a demandé à la personne de mettre sa main devant son visage. « Lorsqu’ils ont refusé, j’ai immédiatement mis fin à l’entretien », a expliqué Moksadlo dans Publié sur LinkedIn Cela s'est ensuite propagé.
Vous pouvez appliquer des techniques de vérification similaires pour détecter les deepfakes et évaluer la crédibilité des candidats :
- Demander des interactions avec le visage et les mains:Demandez aux candidats de toucher leur nez ou leur oreille ou de placer leur main devant leur visage, des actions qui défient généralement les filtres deepfake. Ces tests simples révèlent souvent une manipulation de l’IA.
- Test d'angles de vision multiples:Demandez-leur de tourner la tête pour montrer leur profil ou de faire des mouvements de tête rapides qui peuvent révéler des incohérences dans l'image générée par l'IA.
- Demande de modifications environnementales:Demandez-leur de soulever un objet physique ou d’ajuster la position de l’éclairage/de la caméra pendant l’entretien pour tester l’adaptabilité du deepfake. Cela permet d’évaluer la capacité du système d’IA à s’adapter aux conditions changeantes.
2. Prêter attention aux incohérences techniques et visuelles : Guide d'expert pour détecter les deepfakes
La technologie Deepfake a considérablement progressé, mais elle laisse encore des traces qui peuvent être détectées par des observateurs vigilants. Il existe plusieurs indices visuels à surveiller pour détecter un deepfake potentiel :
- Analyse des limites du visage et de l'éclairage : Portez une attention particulière au mélange non naturel sur les bords où le visage rencontre l’arrière-plan et à l’éclairage qui affecte le visage différemment de son environnement. Ces écarts révèlent souvent une interférence technique.
- Vérifiez les problèmes de synchronisation audio et vidéo : Recherchez des mouvements des lèvres incompatibles, un discours retardé ou un son qui n'est pas tout à fait synchronisé avec la vidéo. Ces problèmes sont des signes courants de deepfakes.
- Surveillance des mouvements anormaux : Recherchez des mouvements oculaires robotiques ou incohérents, des clignements irréguliers et des expressions faciales anormalement douces qui manquent des nuances subtiles d’une véritable interaction humaine. Portez une attention particulière aux détails subtils qui sont souvent négligés dans les deepfakes.
3. Mettre en œuvre des protocoles de vérification d’identité
emplois à distance, en particulier ceux qui nécessitent l’accès à des systèmes ou à des informations sensibles, nécessitent des procédures de vérification d’identité renforcées :
- Vérifier l'identité avec des documents officielsDemandez une copie d’une pièce d’identité émise par le gouvernement via des canaux sécurisés avant l’entretien et comparez-la avec l’apparence du candidat pendant l’appel. Cette procédure est considérée comme essentielle dans les protocoles de cybersécurité des entreprises.
- Réaliser des évaluations directes des compétencesPour les rôles techniques, demandez aux candidats de réaliser des exercices interactifs où vous pourrez observer le processus de résolution de problèmes en temps réel, ce qui est difficile à simuler pour un imitateur. De nombreuses entreprises utilisent à cet effet des plateformes d’évaluation des compétences spécialisées.
- Développer des politiques de vérification complètesMettre en œuvre des protocoles de vérification obligatoires pour tous les entretiens et informer clairement les candidats à l’avance. Ces politiques doivent inclure des directives claires sur la manière dont les données des candidats seront traitées et protégées.
4. Poser des questions contextuelles et culturelles pour détecter les deepfakes
Les opérateurs de Deepfake ont souvent du mal à répondre à des questions inattendues qui nécessitent des connaissances culturelles ou une compréhension contextuelle approfondie. Utilisez ces questions comme : Stratégies de détection des deepfakes:
- Test de connaissances basé sur la localisationSi le candidat affirme avoir vécu ou travaillé dans un endroit particulier, posez des questions détaillées sur les monuments locaux, les restaurants ou les références culturelles. Par exemple, posez des questions sur des détails qui ne sont connus que des résidents du quartier.
- Vérifiez les détails expérimentauxRenseignez-vous sur les expériences professionnelles que le candidat prétend avoir acquises d’une manière qui nécessite une compréhension nuancée plutôt que des faits mémorisés. Se concentrer sur Validation des expériences Au travers de questions qui demandent des précisions.
- Demande d'exemples adverbiauxAu lieu de demander : « Sur quels projets avez-vous travaillé dans l’entreprise X ? » Essayez de demander : « Quelle a été la situation personnelle la plus difficile à laquelle vous avez été confronté dans l’entreprise X et comment l’avez-vous résolue ? » Ce type de question révèle compétences en résolution de problèmes réel.
5. Analyse des indicateurs techniques
En plus de ce que vous pouvez voir et entendre, il existe des signes techniques qui peuvent révéler un candidat au deepfake :
- Vérifier l'emplacement IPSoyez attentif aux divergences entre l’emplacement que le candidat prétend être situé et son adresse IP. Si un candidat prétend être à New York mais que sa connexion provient de l’étranger, cela est source d’inquiétude. *Remarque : les outils de géolocalisation IP peuvent être utilisés pour déterminer l’emplacement approximatif de la connexion.*
- Remarque sur les préférences de la plateformeSoyez prudent si les candidats insistent pour utiliser des plateformes vidéo spécifiques et moins populaires qui pourraient mieux s'adapter à leur logiciel deepfake. *Ces plateformes sont souvent moins rigoureuses et plus indulgentes dans leurs procédures de vérification.*
- Identifier les modèles ciblesLes entreprises technologiques sont des cibles particulièrement attractives car elles emploient souvent des travailleurs à distance, possèdent une propriété intellectuelle précieuse et versent de bons salaires. *Les escroqueries Deepfake utilisent souvent ces facteurs pour cibler les entreprises technologiques.*
L'avenir de l'emploi dans le monde de l'intelligence artificielle
La technologie de l’intelligence artificielle a énormément progressé, permettant de créer des deepfakes élaborés à l’aide d’un ordinateur portable de jeu avec une configuration minimale. Si vous soupçonnez qu’une fausse vidéo a infiltré votre processus de recrutement, prenez des mesures immédiates : limitez leur accès, effectuez un audit complet des systèmes concernés et impliquez votre équipe de cybersécurité. Gardez à l’esprit que les candidats à un emploi générés par l’IA les plus dangereux ne sont pas ceux que vous repérez, mais ceux qui se faufilent sans être détectés. Pour cette raison, ces mesures de sécurité ne sont pas de simples mesures défensives. Il s’agit d’investissements dans la sécurité et le succès à long terme de votre organisation.
“`
Les commentaires sont fermés.