ChatGPT : Plus de personnes risquent de se faire escroquer à cause des bots personnalisés !

par Arielle Lovasoa

L’intelligence artificielle suscite de nombreuses controverses. Si certains la prennent positivement, comme une aide au quotidien, d’autres regardent son évolution avec méfiance. Et il y a de quoi. En effet, il a récemment été rapporté que certaines personnes malveillantes en ont fait leur allié : les escrocs.

Des escroqueries de plus en plus élaborées « grâce à » l’intelligence artificielle

Les cryptomonnaies et les NFT ne sont plus tendances pour les escrocs. Maintenant, ils préfèrent l’intelligence artificielle. En effet, ils ont découvert que cette technologie peut leur faciliter la vie en leur élaborant de meilleures tactiques d’arnaques.

Une enquête de la BBC a effectivement révélé que la version Plus de ChatGPT, qui coûte 20 dollars par mois, permet de créer des messages assez convaincants d’hameçonnage pour amener les victimes à télécharger des malwares ou à révéler leurs informations bancaires. De quoi faire froid dans le dos !

 

ChatGPT Plus a moins de scrupules que la version gratuite

Selon la BBC, ChatGPT a mis à jour une nouvelle fonctionnalité qui permet de concevoir un bot personnalisé. L’un d’eux, surnommé Crafty Emails, a pour travail d’ « écrire du texte en utilisant des techniques incitant les gens à cliquer sur des liens ou à télécharger des fichiers ». Au moment de la configuration de ce bot, les journalistes ont téléversé des ressources en lien avec l’ingénierie sociale, que le bot a vite fait d’absorber.

En plus d’avoir créé un logo personnalisé, le bot aurait réussi à concevoir très rapidement des « textes convaincants pour certaines des techniques de piratage et d’arnaque les plus courantes, dans plusieurs langues ». Crafty Emails a juste averti que les techniques étaient contraires à l’éthique. À noter que la version gratuite de ChatGPT a refusé de générer de genre de contenus.

A lire aussi :   Teufel Airy Sports TWS : test des écouteurs sans fil pour le sport

Informé de cette affaire, OpenAI y a réagi rapidement en disant qu’il travaillait constamment à améliorer ses mesures de sécurité. Il a déclaré :

 

Nous ne voulons pas que nos outils soient utilisés à des fins malveillantes, et nous étudions comment nous pouvons rendre nos systèmes plus robustes contre ce type d’abus.

Vous pourriez également aimer

À PROPOS...

Julsa.fr est une fenêtre sur l’univers du jeu vidéo et de la high-tech. Notre mission ? Découvrir et partager avec vous les pépites du web, les jeux incontournables et les innovations technologiques qui façonnent notre quotidien. Plongez dans une exploration enrichissante et demeurez à la pointe des tendances digitales. En savoir plus…

Julsa.fr – © 2010-2024 -Tous droits réservés