L’IA open source et son impact sur le hacking selon le FBI
Les hackers utilisent de plus en plus l’intelligence artificielle (IA) pour améliorer leurs activités illégales, selon le FBI. Ils exploitent notamment les modèles d’IA open source pour piéger les internautes et rendre leurs outils plus efficaces.
Utilisation de l’IA par les cybercriminels
Les cybercriminels utilisent des chatbots basés sur des modèles de langage tels que ChatGPT, Google Bard ou Claude pour faciliter leurs activités malveillantes. Ils exploitent les failles de ces IA en utilisant des requêtes précises pour contourner les mesures de sécurité. Cette manipulation de l’IA est rendue possible grâce à leur expertise dans le domaine.
Le FBI met en garde contre l’utilisation massive de modèles de langage par la communauté criminelle. Cependant, il constate que les hackers préfèrent utiliser des modèles d’IA open source plutôt que des modèles populaires comme GPT.
Les modèles open source, un outil privilégié par les hackers
Les hackers préfèrent utiliser des modèles d’IA open source gratuits et personnalisables plutôt que des modèles contrôlés par des entreprises. Ces modèles, accessibles à tous sur internet, permettent de générer du contenu illicite. De plus, ils sont plus légers et demandent moins de puissance de calcul, ce qui les rend utilisables localement sur un ordinateur ou même sur un smartphone.
Il est également possible de trouver sur le dark web des chatbots développés par des hackers pour générer du contenu illégal, comme des malwares. Certains de ces chatbots sont spécialisés dans les activités criminelles, comme le phishing, la création de ransomwares et les attaques. Ils sont vendus à prix élevé sur le dark web.
Les différentes utilisations de l’IA par les cybercriminels
Les pirates utilisent l’IA de différentes manières pour mener leurs activités illicites. Ils créent des pages de phishing en imitant l’interface de plateformes officielles, ce qui leur permet de tromper les utilisateurs. De plus, ils développent des virus polymorphes capables de modifier leur code à chaque exécution, rendant leur détection plus difficile pour les antivirus traditionnels.
Les escrocs utilisent également la technologie deepfake pour extorquer de l’argent à leurs victimes. Ils créent des images et des vidéos falsifiées mettant en scène leurs cibles dans des situations compromettantes. Ils utilisent ensuite ces contenus pour harceler leurs victimes en les diffusant sur les réseaux sociaux ou les sites pornographiques. De plus, ils utilisent une IA de clonage vocal pour manipuler leurs victimes au téléphone en imitant la voix de proches.
L’avenir de l’IA et du hacking
Le FBI prévoit une augmentation de l’utilisation criminelle de l’IA à mesure que cette technologie se démocratise. Il est donc essentiel de développer des stratégies de prévention et de protection pour contrer l’utilisation malveillante de l’IA par les hackers. Cela passe notamment par la sécurisation des modèles d’IA open source et la mise en place de mesures de sécurité plus robustes.
Il est important de veiller à une utilisation responsable et éthique de l’IA, qui a le potentiel de bénéficier à la société dans de nombreux domaines.
Source: PCMag