Les terrifiantes menaces de la cybercriminalité avec l’intelligence artificielle : un état des lieux inquiétant et des perspectives sombres

Les cybercriminels et l’utilisation de l’intelligence artificielle

Les cybercriminels utilisent de plus en plus l’intelligence artificielle (IA) pour mener leurs attaques de manière plus efficace et crédible. L’IA générative, popularisée par ChatGPT, est maintenant largement utilisée dans le monde de la cybercriminalité. Les criminels utilisent cette technologie pour améliorer leurs outils et techniques, notamment dans le phishing, les rançongiciels et les escroqueries.

L’efficacité croissante des cybercriminels

Selon Jean-Jacques Latour, directeur de l’expertise en cybersécurité de Cybermalveillance.gouv.fr, l’IA se démocratise chez les cybercriminels, ce qui les rend plus efficaces et crédibles. Les méthodes utilisées par ces criminels ne changent pas, mais le volume des attaques et leur force de persuasion augmentent considérablement.

L’évolution sophistiquée du phishing

Le phishing devient de plus en plus sophistiqué grâce à l’utilisation de l’IA. Les escrocs adaptent leur langage et utilisent des contextes appropriés pour convaincre les utilisateurs de cliquer sur des liens ou des sites douteux. Les e-mails de phishing promettant des cadeaux gratuits ou des réductions évitent désormais les erreurs grossières de syntaxe ou d’orthographe.

L’IA générative au service des logiciels malveillants

L’IA générative est également utilisée pour créer des logiciels malveillants personnalisés exploitant des vulnérabilités connues des programmes informatiques. Des programmes tels que ThreatGPT, WormGPT et FraudGPT se développent sur le Darknet et gagnent en popularité auprès des acteurs malveillants.

L’exploitation des données après une infiltration

Les hackers utilisent l’IA pour trier et exploiter une masse de données après avoir infiltré un système informatique. Cela leur permet de maximiser leurs profits en ciblant les informations les plus pertinentes.

L’arnaque au président et les générateurs d’audio « deepfake »

L’IA est également utilisée dans le cadre de l’arnaque au président. Les hackers collectent des informations sur les dirigeants d’entreprises pour autoriser des virements frauduleux. Grâce aux générateurs d’audio « deepfake », ils peuvent imiter parfaitement la voix des dirigeants pour donner des ordres de virement.

Les rançongiciels et le vishing

Les rançongiciels utilisent déjà l’IA pour modifier leur code et échapper à la détection des outils de sécurité. De plus, la technique du vishing, où un faux banquier demande un transfert d’argent, pourrait également être améliorée grâce à l’IA.

Les contenus synthétiques générés par l’IA

La police britannique a signalé des cas où des contenus synthétiques générés par l’IA ont été utilisés pour tromper, harceler ou extorquer des victimes. Bien que les premiers cas en France n’aient pas été officiellement recensés, des doutes subsistent quant à l’utilisation de l’IA par les criminels.

La règle du « zero trust » en matière de cybersécurité

Face à ces nouvelles menaces, il est primordial d’appliquer la règle du « zero trust », c’est-à-dire de ne faire confiance à aucun élément a priori en matière de cybersécurité et d’IA. Les hackers les plus actifs sont généralement des réseaux bien organisés d’Europe de l’Est, mais il ne faut pas négliger les pirates étatiques de pays en marge.

Conclusion

En conclusion, la cybercriminalité exploitant l’IA représente une menace croissante. Les cybercriminels utilisent de plus en plus l’IA pour améliorer leurs techniques et mener des attaques plus crédibles. Il est essentiel de rester vigilant et de mettre en place des mesures de protection appropriées pour contrer ces menaces.

Partagez votre avis