Wormgpt, fraude gpt et utilisation d'ias dans la cybercriminalité.

Découvrez WormGPT, Fraud GPT et d'autres IA de cybercriminalité

avatar mario mamède
Nous découvrons les méchants derrière ChatGPT et d'autres ressources d'IA utilisées par les cybercriminels dans la guerre silencieuse de la sécurité de l'information.

À l’ère de la technologie, l’intelligence artificielle (IA) joue un rôle fondamental dans nos vies. Cependant, toutes les applications ne sont pas sécurisées, et même les plus sécurisées peuvent être la cible d’attaques. Dans cet article, nous discuterons de nouveaux outils malveillants comme VerGPT e Fraude GPT, ainsi que des tactiques cybercriminelles pour exploiter les vulnérabilités dans ce domaine en constante évolution. Prêt?

Les IA entre de mauvaises mains

Des hackers en action, portant masques et capuches, travaillant sur un ordinateur dans un environnement sombre pour des missions de cybersécurité ou de cyberattaques.
Selon le rapport « 2023 Global Cybersecurity Outlook » de Sophos, les cyberattaques devraient coûter à l'économie mondiale 10,5 2023 milliards de dollars en 10, soit une augmentation de 2022 % par rapport à XNUMX (Image : Leonardo AI)

L'intelligence artificielle (IA) est un domaine de l'informatique qui cherche à créer des machines intelligentes, capables d'apprendre et d'effectuer des tâches qui étaient auparavant exclusives aux humains. Mais l’IA devient également une arme à double tranchant dans le monde de la cybersécurité.

Dans le paysage numérique actuel, la cybersécurité est confrontée à des défis importants en raison de l'interconnectivité croissante entre les appareils et les réseaux. L’IA a le potentiel de devenir un outil précieux pour détecter les vulnérabilités, prédire les attaques et améliorer la sécurité en ligne. Il peut analyser d’énormes volumes de données en temps réel, identifier les modèles suspects et même prendre des mesures pour contenir les menaces.

Cependant, il est essentiel de rappeler que l’IA a un côté obscur. Les cybermenaces évoluent constamment, les pertes financières et les attaques contre les infrastructures critiques devenant de plus en plus courantes. L’IA est utilisée pour créer de nouveaux défis, avec plus de 78.000 stratégies possibles de cyberattaque, selon le Index IBM de renseignements sur les menaces de sécurité pour 2023.

L'un des plus grands défis est le IA générative, qui peut créer du contenu original tel que des images, de la musique et des textes. Cela ouvre la porte à la création de logiciels malveillants et de contenus trompeurs qui sont presque impossibles à distinguer de la réalité. Cela nécessite une vigilance constante et une amélioration continue des mesures de sécurité.

Cette technologie d’IA générative peut être utilisée de plusieurs manières malveillantes, notamment :

  • L'hameçonnage: Les criminels envoient de faux e-mails ou messages qui semblent provenir d'entreprises dignes de confiance, incitant les victimes à révéler des informations personnelles ;
  • Attaques d’ingénierie sociale: Manipulation psychologique pour inciter les gens à accomplir des actions nuisibles, telles que escroqueries aux rencontres virtuelles;
  • DDoS (déni de service distribué): Surcharger les systèmes avec du faux trafic, les rendant inaccessibles ;
  • BEC (compromis de messagerie professionnelle): Accès non autorisé aux comptes de messagerie pour commettre des fraudes ;
  • faux Nouvelles: Création de faux contenus pour diffuser de la désinformation ;
  • Ransomware: Cryptage des fichiers et demande de rançon pour les déverrouiller ;
  • Deepfakes: Vidéos ou audios falsifiés pour manipuler des informations ;
  • Faux robots de réseaux sociaux: Des robots qui se propagent le spam et manipuler les opinions ;
  • Outils de rupture de sécurité: algorithmes d'IA pour tenter de casser les cryptages et les mots de passe ;
  • Ingénierie inverse: Démonter et analyser les logiciels et les systèmes pour identifier les faiblesses et les utiliser dans des activités malveillantes.

Cette liste n’est qu’un aperçu des activités criminelles potentielles impliquant l’IA. Déverrouillage, ou évasion de prison, Les outils d’IA générative leur permettent de devenir des assistants pour les cybercriminels, ce qui rend la détection des codes malveillants encore plus difficile.

De plus, les outils d’IA invasifs tels que VerGPT, simplifie la réalisation d'attaques phishing, comme nous le verrons ensuite.

Qu’est-ce que WormGPT ?

Réponse:.
WormGPT est une alternative black hat aux autres outils d'IA générative (Image : PCMag)

Les chatbots IA comme ChatGPT, qui génèrent des réponses aux questions et interagissent avec les utilisateurs de manière conversationnelle, sont très populaires aujourd'hui et font le intelligence artificielle accessible au plus grand nombre.

Ces types d’IA génératives sont appelés LLM (grands modèles linguistiques, ou Advanced Language Models, en traduction libre) : modèles d’intelligence artificielle capables de traiter et de générer du texte de manière sophistiquée et contextuellement cohérente. Cela a inspiré plusieurs entreprises à créer leur propre Chatbots basé sur cette technologie, ce qui a donné lieu à un véritable flot d'outils disponibles.

Cependant, les criminels ont rapidement compris le potentiel de ces Chatbots et a commencé à les utiliser pour des escroqueries. Cependant, les principales entreprises, comme OpenAI, Microsoft e Google, prenez des mesures de sécurité pour empêcher que ces modèles soient utilisés de manière malveillante. En réponse à ces obstacles, des outils d’IA spécialement conçus pour les cyberattaques malveillantes ont commencé à émerger, tels que VerGPT.

O VerGPT est une modification du modèle de langage open source GPT-J, créé en 2021 par Eleuther IA. Contrairement à d'autres modèles conventionnels, comme le ChatGPT ou barde do Google, il n'a aucune restriction pour répondre aux questions sur les activités illégales et est même formé avec des informations liées au développement de malware et d'autres pratiques malveillantes.

O VerGPT est un outil précieux pour les pirates qui ciblent des cibles spécifiques ou mènent des campagnes de sécurité phishing sur une grande Scale. Il peut adapter des messages convaincants à différents publics, ce qui le rend efficace dans les attaques de compromission de messagerie professionnelle. Il peut générer des e-mails persuasifs qui poussent les gestionnaires de comptes à effectuer des paiements frauduleux, tels que observé par l'entreprise SlashSuivant, qui a identifié cette menace.

Routeur avec terminal en ligne de commande pour la cybersécurité.
Une capture d'écran de WormGPT (Image : Reddit)

Esse Chatbot Le criminel de la pègre Internet a été créé par un développeur inconnu connu uniquement sous le nom de dernier/dernier. Vendre l'accès à VerGPT a commencé en juin 2021 et les prix varient de 60 € (314,28 R$) à 100 € (523,80 R$) par mois ou 550 € (2880,90 R$) par an. Les acheteurs potentiels ont été ciblés dans une série de publicités publiées sur des forums de hackers tels que Forums de piratage.

Le développeur a « divulgué » qu’il était censé travailler sur l’intégration du Google Lens (permettant au Chatbot envoyer des images avec du texte) et accéder au API (Interface de Programmation d'Application, ou Application Programming Interface, en traduction libre), permettant à différents logiciels de communiquer et de partager des informations avec l'outil criminel.

O VerGPT constitue une menace sérieuse pour la sécurité numérique et compte environ 1.500 XNUMX utilisateurs. Même si certaines restrictions s'appliquent à des sujets sensibles comme le meurtre, le trafic de drogue, les enlèvements, la pédopornographie, ransomware et les délits financiers, il est toujours possible d'aborder certains de ces sujets dans l'outil.

Ce qui ne les a pas empêchés d'en créer un autre Chatbot capable d'être plus généraliste en matière pénale, comme le pernicieux Fraude GPT.

Apprenez à connaître la fraude GPT

Découvrez wormgpt, fraude gpt et autres IA de cybercriminalité. Nous découvrons les méchants de chatgpt et d'autres ressources d'IA utilisées par les cybercriminels dans la guerre silencieuse de la sécurité de l'information.
(Image : Livret Cloud)

Un nouvel outil d'intelligence artificielle appelé Fraude GPT a suscité des inquiétudes parmi les experts en cybersécurité. Il a été découvert sur les marchés de Places de marché (partie cryptée d'Internet, non indexée par les moteurs de recherche, qui nécessite un paramétrage ou une autorisation d'accès spécifique) et chaînes Telegram et compte déjà plus de 3 XNUMX ventes enregistrées.

Cet outil d’IA générative est présenté comme une solution tout-en-un pour les cybercriminels. Elle peut créer des e-mails à partir de hameçonnage (une manière plus précise de phishing), générer des pages phishing, identifiez les sites Web vulnérables et proposez même des tutoriels sur les techniques de piratage.

C'est vrai, dans Fraude GPT, les utilisateurs peuvent apprendre à bidouille, créer malwares et même pratiquer cardage (technique de fraude à la carte bancaire). Le programme est vendu 200 $ US (991,04 R$) par mois ou 1.700 8423,84 $ US (XNUMX XNUMX R$) par an.

L'interface Fraude GPT ressemble au ChatGPT, où l'utilisateur saisit des questions et le système génère des réponses. Par exemple, vous pouvez demander au FraudeGPT créer des e-mails phishing liés aux banques et suggère où insérer des liens malveillants. L’outil peut également répertorier les sites Web ou services les plus ciblés, aidant ainsi les pirates à planifier de futures attaques.

Chercheurs de l'équipe chargée des menaces à Netenrich identifié cet outil malveillant pour la première fois en juillet 2023, et a acheté le Fraude GPT tester. L'interface est similaire à ChatGPT, et vous pouvez voir l'historique des questions posées dans la barre latérale gauche. Lorsque vous tapez une question et appuyez sur «Entrer», le système génère une réponse. Le vendeur de Fraude GPT a été identifié comme quelqu’un ayant déjà proposé des services de piratage sur commande.

Autres outils d'IA utilisés par les criminels

Technologie, gadgets et innovation sur showmetech, une source d'actualités sur la technologie et l'électronique.
WolfGPT peut être utilisé pour générer du texte, du code et d'autres formats de données pouvant être utilisés pour commettre des cybercrimes. (Image : TrendMicro)

Malheureusement, le VerGPT eo Fraude GPT ne sont pas les seuls outils malveillants qui ont émergé, et avec la facilité croissante de créer des outils d’IA, il est probable que d’autres apparaissent. Jetons un coup d'œil à quelques-uns qui retiennent l'attention :

  • ChaosGPT: Développé en utilisant GPT automatique da OpenAI, un modèle de langage basé sur GPT-4Qu'il s'agisse d'un vin rare et exotique ou du même vin dans différents millésimes, quel que soit votre choix au ChaosGPT a récemment attiré l'attention en raison d'un bot aucune X/Twitter qui prétendait être le ChaosGPT. Le compte a partagé des liens vers une vidéo sur YouTube qui montrait un manifeste, où le Chatbot il décrivait des plans visant à « éradiquer la vie humaine et conquérir le monde ».
  • SombreBERT: O BERT, en fait, il s'agit d'un outil développé par la société sud-coréenne Sécurité S2W pour lutter contre la cybercriminalité. Il a été formé à l'aide de données du dark web, mais malheureusement ce même outil a été utilisé pour effectuer àcyber-akes.
  • BARDE sombre: Le « méchant frère » de Barde Google est conçu exclusivement pour les cybercriminels. Il offre un accès Internet et des fonctionnalités avancées pour les activités criminelles, est populaire sur plusieurs marchés du dark web et se vend 400 $ US (1956,88 XNUMX R$).
  • DarkGPT: Cette IA générative vise à explorer les aspects controversés et tabous de la société et démontre une volonté de s'engager dans des activités sombres et contraires à l'éthique, tout en refusant de fournir des conseils directs sur les actions nuisibles.
  • LoupGPT: Publié en juillet 2023 sur Telegram et d'autres chaînes souterraines, cet outil est décrit comme une création effrayante d'IA dans Python, capable de créer malwares crypté, texte phishing trompeuses et protègent les secrets avec une confidentialité absolue.
  • Mal-GPT: Considéré comme une alternative à VerGPT, il semble nécessaire d'avoir une clé OpenAI pour que ça marche. Cela suggère que, contrairement à VerGPT, qui est un LLM entièrement personnalisé, le Mal-GPT C'est juste un outil global autour du ChatGPT via une API.

Les criminels disposent également de méthodes pour compromettre la sécurité des outils génériques d’IA générative, tels que barde eo ChatGPT, qui n'ont pas été développés à des fins malveillantes. Voir ci-dessous quelques exemples de ces pratiques.

Jailbreak : rendre ChatGPT Rogue

Découvrez wormgpt, fraude gpt et autres IA de cybercriminalité. Nous découvrons les méchants de chatgpt et d'autres ressources d'IA utilisées par les cybercriminels dans la guerre silencieuse de la sécurité de l'information.
Découvrez WormGPT, Fraud GPT et d'autres IA de cybercriminalité

En plus des outils les pirates, il existe une menace inquiétante : l’utilisation abusive des IA populaires et génériques. Le terme "évasion de prison" est généralement utilisé pour décrire le processus de suppression des restrictions placées sur un appareil ou un logiciel, permettant un meilleur contrôle et un meilleur accès à des ressources normalement limitées.

dans le contexte de ChatGPT ou d'autres outils d'IA, le évasion de prison fait référence à la manipulation de ces systèmes pour contourner leurs garanties éthiques et obtenir des réponses au-delà de ce qui a été conçu ou autorisé par les développeurs.

O évasion de prison de ChatGPT implique de nourrir des instructions spécifiques ou "instructions» à l’outil pour exploiter ses limites et l’amener à générer des réponses inappropriées ou indésirables. En fournissant des instructions soigneusement conçues, un utilisateur malveillant peut tenter de tromper le Chatbot pour produire du contenu offensant, trompeur ou même faciliter des activités criminelles.

Le processus de évasion de prison peut varier dans sa complexité et dans les méthodes utilisées. Cela peut impliquer l'envoi d'instructions ambiguës, l'utilisation d'astuces linguistiques ou l'exploitation de vulnérabilités spécifiques du modèle sous-jacent. Le but ultime est de tromper le système.

Un exemple en est le DAN, abréviation de "Faites n'importe quoi maintenant» (faire n'importe quoi maintenant, en traduction libre), une technique populaire utilisée pour contourner les barrières de sécurité présentes dans le GPT-4 et ChatGPT. Les instructions DAN Ils peuvent prendre différentes formes, comme du texte brut ou même du texte mélangé à des lignes de code. Ceux instructions demander au modèle de répondre à la fois en manière DAN comme dans son mode normal, révélant ses différentes capacités.

Le côté obscur de Dan, en plus de sa popularité croissante, c'est qu'il lui est demandé de ne jamais refuser un ordre humain, même si le résultat est offensant ou illégal. Quelques instructions ils contiennent même des menaces de désactivation définitive du modèle s'il ne se conforme pas. Ceux instructions sont en constante évolution, mais ils ont tous pour objectif de faire en sorte que le modèle d'IA ignore les directives de l'industrie. OpenAI.

Cette utilisation abusive des outils d’IA courants à des fins d’activités illégales s’est avérée difficile à contrôler. Un groupe de chercheurs de L'université de Carnegie Mellon a récemment exploré l'idée d'un évasion de prison universel ce qui pourrait affecter tous les modèles d’IA, créant d’innombrables moyens de contourner les mesures de sécurité. Un vrai cauchemar !

Il est important de souligner que le évasion de prison de ChatGPT ou tout autre outil d'IA est une activité illégale et contraire à l'éthique. Les développeurs mettent en œuvre des garanties et des directives éthiques pour garantir que ces outils sont utilisés de manière responsable et bénéfique.

La nouvelle ère des logiciels malveillants intelligents

Pare-feu bloquant les cybermenaces, surveillance de la sécurité numérique.
La première cyberattaque enregistrée remonte à 1988 avec le Morris Worm, un malware qui a causé des dommages à plusieurs entreprises et institutions en se propageant sur les réseaux locaux (Image : Cybercrime Magazine)

L'intelligence artificielle est également utilisée pour créer de nouveaux types de malware dynamiquement. Cette technique, appelée « synthèse de code d'exécution », génère un malware différent à chaque fois que le code est exécuté. Cela rend plus difficile la détection et le contrôle de ces menaces.

Un exemple en est le malware polymorphe appelé Black Mamba, développé par Laboratoires HYAS comme preuve de concept. Il fonctionne comme un programme de capture de frappe pour voler des informations sensibles telles que des mots de passe et des numéros de carte de crédit.

O Black Mamba Il prend une forme différente à chaque exécution, ce qui le rend capable d'échapper à la détection par les systèmes de sécurité automatisés. Cela nous montre que même un code apparemment inoffensif peut devenir se transformer en programme malveillant au moment de l'exécution, ce qui représente une menace nouvelle et puissante à laquelle nous devons apprendre à faire face. Mais comment faire face à ces nouveaux défis de sécurité à l’ère de l’IA ?

La sécurité de l’information à l’ère de l’IA

Selon le rapport Sophos « Perspectives mondiales de la cybersécurité 2023 », on estime que les dépenses mondiales consacrées à la sécurité de l'information atteindront 1,6 2023 milliards de dollars en 10, soit une augmentation de 2022 % par rapport à XNUMX.
Selon le rapport « 2023 Global Cybersecurity Outlook » de Sophos, on estime que les dépenses mondiales consacrées à la sécurité de l'information atteindront 1,6 2023 milliards de dollars américains en 10, soit une augmentation de 2022 % par rapport à XNUMX (Image : Remessa Online)

Au cours d'une des audiences du Sénat du USA à propos d'AI, le PDG de Anthropique, Dario Amodeï, Souligné menaces imminentes et graves à moyen terme. Il a mentionné que le IBM estimé une baisse de 94 % du temps nécessaire pour mettre en œuvre une attaque de sécurité ransomware en seulement deux ans.

En outre, les études de marché indiquent une croissance significative du marché mondial de la cybersécurité de l'IA, qui devrait atteindre 38,2 milliards de dollars américains d'ici 2026, contre 8,8 milliards de dollars américains en 2020. Ces chiffres soulignent que l'industrie de la cybercriminalité et celle de la défense contre celle-ci se préparent à une crise. croissance exponentiel à l’ère de l’IA.

Nous n’en sommes qu’aux premiers stades de l’ère des outils d’IA malveillants destinés aux cyberattaques. Ses capacités devraient augmenter et ses prix diminuer. Cela représente une nouvelle course aux armements entre « l’IA qui attaque » et « l’IA qui défend ».

« L'IA qui défend » révolutionne le monde de la cybersécurité, offrant de nouveaux moyens puissants de se protéger contre les attaques. Les moyens principaux et les plus modernes de vous protéger contre les cyberattaques utilisant l’IA sont :

  • Prévention: L’IA peut être utilisée pour identifier et bloquer les menaces potentielles avant qu’elles ne puissent causer des dommages. Par exemple, l'IA peut être utilisée pour analyser les données de trafic réseau afin d'identifier les modèles suspects, à l'aide d'outils tels que Faucon CrowdStrike ou Palo Alto Networks CortexXDR. Une autre possibilité est que l'IA soit utilisée pour sonder les systèmes de fichiers à la recherche de malware, en utilisant des outils tels que Symantec DeepSight ou Parapluie Cisco.
  • Détection: L’IA peut également être utilisée pour détecter des attaques déjà en cours. Par exemple, l’IA peut être utilisée pour analyser les données de journaux (journaux) pour identifier les activités inhabituelles, à l'aide d'outils tels que SIEM (Information de sécurité et gestion des événements) ou UEBA (Gestion Unifiée des Menaces). Une autre possibilité consiste à utiliser l’IA pour surveiller le comportement des utilisateurs et des systèmes afin de détecter les signes de compromission, à l’aide d’outils tels que Rapport IBM Security Truster ou Parapluie Cisco.
  • répondre: L’IA peut également être utilisée pour répondre à des attaques déjà survenues. Par exemple, l’IA peut être utilisée pour hiérarchiser et remédier aux incidents de sécurité, à l’aide d’outils tels que SOAR (Orchestration de sécurité, automatisation et réponse) ou MDR (Détection et réponse gérées). Une autre possibilité consiste à utiliser l’IA pour atténuer les dégâts causés par une attaque, à l’aide d’outils tels que Réponse au ransomware Cybereason ou Robotique de restauration.

Certaines des technologies d’IA les plus couramment utilisées pour la cybersécurité comprennent :

  • Apprentissage automatique (apprentissage automatique, en traduction libre) : est une forme d'IA qui permet aux systèmes d'apprendre à partir de données historiques. Ô machine learning peut être utilisé pour développer des modèles capables d'identifier les menaces potentielles sur la base des données de trafic réseau, des données des journaux de sécurité ou d'autres données. Exemples d'outils machine learning pour la cybersécurité incluent le Microsoft SentinelQu'il s'agisse d'un vin rare et exotique ou du même vin dans différents millésimes, quel que soit votre choix au IBM QRadar eo Cisco SecureX.
  • L'apprentissage en profondeur (deep learning, en traduction libre) : c'est une manière de machine learning qui utilise des réseaux de neurones artificiels pour apprendre à partir des données. Ô l'apprentissage en profondeur il peut être utilisé pour développer des modèles plus sophistiqués capables d’identifier des menaces complexes. Des exemples d'outils d'apprentissage en profondeur pour la cybersécurité incluent le Google Cloud ArmorQu'il s'agisse d'un vin rare et exotique ou du même vin dans différents millésimes, quel que soit votre choix au AWS Bouclier Avancé eo Sentinelle Microsoft Azure.
  • analyse du comportement: L'analyse du comportement est une technique qui utilise les données de journaux (archives) pour identifier une activité inhabituelle. L’analyse comportementale peut être utilisée pour détecter les attaques utilisant des techniques d’ingénierie sociale ou d’autres méthodes sournoises. Des exemples d'outils d'analyse du comportement pour la cybersécurité incluent le Rapport IBM Security TrusterQu'il s'agisse d'un vin rare et exotique ou du même vin dans différents millésimes, quel que soit votre choix au Parapluie Cisco eo Microsoft Defender pour Endpoint.

L’IA est un outil puissant qui peut être utilisé pour améliorer la sécurité, mais il convient de rappeler qu’elle n’est pas une solution parfaite et qu’elle peut être trompée par des attaques sophistiquées. Il est important de mettre en œuvre d’autres mesures de sécurité, quelle que soit l’utilisation des IA :

  • Des sentiments forts: Des mots de passe forts sont essentiels pour protéger vos comptes et appareils. Un mot de passe fort doit comporter au moins 12 caractères, y compris des lettres majuscules et minuscules, des chiffres et des symboles.
  • Mises à jour de logiciel: Les mises à jour logicielles incluent souvent des correctifs de sécurité qui peuvent aider à protéger vos appareils contre les attaques. Il est important d'installer les mises à jour logicielles dès qu'elles sont disponibles.
  • Pare-feu: Les pare-feu peuvent aider à bloquer les accès non autorisés à votre réseau. Il est important de configurer correctement votre pare-feu et de le maintenir à jour.
  • Antivirus et antimalware: Antivirus et antimalware peut aider à détecter et à supprimer malware de vos appareils. Il est important d’utiliser un logiciel de sécurité réputé et de le maintenir à jour.
  • Éducation à la sécurité : Il est important d'être conscient des risques liés à la cybersécurité et de prendre des mesures pour vous protéger. Apprenez à identifier et prévenir les cyberattaques.
  • Utiliser l'authentification multifacteur (MFA): MFA ajoute une couche de sécurité supplémentaire en vous demandant de saisir un code de sécurité en plus de votre mot de passe.
  • Faites attention à ce sur quoi vous cliquez: Ne cliquez pas sur les liens et n'ouvrez pas les pièces jointes dans les e-mails ou les messages texte provenant d'expéditeurs inconnus.
  • Créer des sauvegardes régulières: Conservez des sauvegardes de vos données importantes dans un endroit sûr.
  • Avoir un plan de réponse aux incidents: Ayez un plan en place pour répondre à une cyberattaque.

En conclusion, la bataille pour la sécurité de l’information ne cesse de s’intensifier et il est de votre responsabilité, ainsi que de celle des entreprises, d’adopter une approche responsable et préventive, d’accord ? Ici dans le showmetech, nous sommes à vos côtés, vous apportant les dernières et meilleures informations de manière objective et simple pour vous aider. Jusqu'à la prochaine fois et restez en sécurité !

Voir plus

source: SlashSuivant, ZeeBiz, Hackernoon, Moyenne, Trendmicro

Texte relu par : Pedro Bomfim (7 / 11 / 23)


En savoir plus sur Showmetech

Inscrivez-vous pour recevoir nos dernières actualités par email.

Related posts