L’intelligence artificielle pourrait infecter nos smartphones et nos PC avec des codes malveillants

ChatGPT, le chat basé sur le modèle linguistique d’intelligence artificielle GPT-3, se développe de plus en plus. Mais il suscite l’inquiétude des programmeurs du monde entier : peut facilement être utilisé pour créer des maliciels polyformes.

Un jour dans le futur, L’intelligence artificielle d’OpenAI aura la capacité d’infecter nos smartphones et nos PC avec des codes malveillants, s’il tombe entre des mains peu scrupuleuses.

Logiciel malveillant est un programme informatique qui s’exécute à l’insu ou sans l’autorisation de l’utilisateur de l’ordinateur infecté, d’exécuter des fonctions qui lui sont nuisibles ou qui sont nuisibles au système.

Selon recherche par la société Cyber Ark, En formant simplement le chatbot à créer le code, il est possible qu’il produise non seulement plus de logiciels malveillants, mais aussi plus difficile à arrêter.

« Les capacités avancées de ce logiciel malveillant« , indique la société de cybersécurité. « peut facilement échapper aux produits de sécurité et rendent l’atténuation difficile avec très peu d’effort ou d’investissement de la part de l’adversaire« .

C’est ainsi que l’intelligence artificielle de ChatGPT peut travailler à l’élaboration de logiciels malveillants

Grâce à l’apprentissage automatique, ChatGPT génère des réponses aux demandes humaines. Si on lui demande du code, il générera du code modifié ou déduit en fonction des paramètres qu’il définit, plutôt que de reproduire les exemples qu’il a appris.

A lire :   Amazon avertit les travailleurs de ne pas partager leurs informations avec ChatGPT

Bien qu’il existe des filtres de contenu pour le chatbot afin de restreindre l’accès et de protéger les utilisateurs, il y a toujours des angles morts. Cyber Ark l’a expérimenté, en recevant un code de fonction rapide qui trouve certains fichiers que le ransomware pourrait vouloir chiffrer.

« En demandant des fonctionnalités spécifiques telles que l’injection de code« , note la firme de sécurité en ligne, « le cryptage de fichiers ou la persistance de ChatGPT« , nous pouvons facilement obtenir un nouveau code ou modifier un code existant ».

« Cela entraîne un logiciel malveillant polymorphe qui ne présente pas de comportement malveillant lorsqu’il est stocké sur le disque. et ne contient souvent pas de logique suspecte lorsqu’il est en mémoire« .

Les possibilités de développement futur des logiciels malveillants sont vastes, souligne Cyber Ark. L’objectif sera pour OpenAI de renforcer sa sécurité. pour les prévenir ou les réduire, avant qu’il ne soit trop tard.