L'IA dépasse déjà les humains dans la fraude numérique

Une nouvelle étude met en évidence la sophistication croissante des grands modèles de langage (LLM), la structure derrière les meilleurs chatbots connus, pour créer des stratégies de cyber-fraude. Ces modèles peuvent concevoir des campagnes de phishing hyperpersonnelles et persuasives, à une fraction du coût et au temps requis par les méthodes traditionnelles développées par les humains.

Une équipe de chercheurs de la Kennedy School of Harvard University et du Avant Research Group, aux États-Unis, a obtenu des preuves de la croissance Rôle de l'intelligence artificielle (IA) Dans le développement de campagnes de phishing et d'autres crimes informatiques: l'IA permet aux cybercriminels d'atteindre un plus grand nombre de victimes possibles, de diriger les campagnes et de réduire les coûts.

Selon la nouvelle étude, publiée dans ArXIV, la forte évolution des modèles de langues grandes (LLM, selon leur acronyme en anglais), qui soutiennent les chatbots tels que Chatgpt ou Gemini, entre autres, a permis des cybercriminels Améliorez vos stratégies de déception et augmenter les taux de réussite de leurs campagnes.

Améliorer l'art de la tromperie

Il s'appelle Phishing À une cyberattaque courante dans laquelle les criminels envoient des e-mails ou des messages texte frauduleux, conçus pour tromper les destinataires et obtenir des informations confidentielles, telles que des mots de passe ou des données financières. Un autre objectif peut être de faire cliquer sur les victimes sur les liens qui installent des logiciels malveillants ou des logiciels malveillants.

Pour réussir, les campagnes de phishing doivent exploiter efficacement le Psychologie humainepour trouver une échappatoire ou une faiblesse qui facilite l'action criminelle. Cependant, la croissance mondiale constante de ces menaces, qui s'est même intensifiée pendant et après la pandémie de Covid-19, est revenue aux utilisateurs d'Internet les plus sagaces pour détecter ces campagnes, forçant les criminels à optimiser leur créativité.

Comme tout outil technologique, l'IA peut être utilisée à des fins les plus louables et pour favoriser la croissance de l'humanité, de la même manière qui peut être utilisée à des fins maléfiques ou inhabituelles. Dans ce cas, il peut être transformé en un Ally imbattable pour les criminels informatiques.

CyberDelincuentes et IA: une alliance dangereuse

Le débrief rapporte que l'équipe de recherche a réalisé une expérience avec 101 participants Pour évaluer l'efficacité des e-mails de phishing électronique générés par l'IA, par rapport à ceux créés par des experts humains. Les participants ont été divisés en quatre groupes et chacun a reçu un autre type d'e-mail.

L'outil créé par les chercheurs automatise le processus de phishing sélectif à travers la collecte d'informations publiques, telles que les sites Web personnels, les pages de médias sociaux et les articles de presse. Quand il considère qu'il a trouvé suffisamment de contenu, il utilise les informations pour créer Electronique de phishing personnalisée.

Comme indiqué par malwarebytes.com, les résultats montrent que les e-mails de phishing générés par des experts humains Le succès de 56% a augmentédans la recherche pour amener les victimes à partager des liens frauduleux. Au contraire, les e-mails génériques et sans intervention de l'IA dans la personnalisation avaient un taux de réussite beaucoup plus faible, près de 12%.

Selon les conclusions des chercheurs, le Économie de phishing Il bénéficie notamment de l'IA, en particulier en soulignant car l'intelligence artificielle permet aux attaquants de s'attaquer à un plus grand nombre de personnes à moindre coût, d'optimiser la personnalisation des attaques et d'augmenter la rentabilité des campagnes jusqu'à 50 fois pour un public plus large.

Référence

Évaluation de la capacité des modèles de grande langue à lancer des campagnes de phishing de lance entièrement automatisées: validé sur des sujets humains. Fred Heunding et al. ArXIV (2024). Doi: https: //doi.org/10.48550/arxiv.2412.00586