Ciberdelincuentes eluden las limitaciones de ChatGPT
Con el objetivo de propagar 'malware' a través de apps de chatbot.
Ciberdelincuentes han comenzado a distribuir versiones de la interfaz de programación de aplicaciones (API) de uno de los modelos de OpenAI, que permite crear ‘malware’ y correos electrónicos de ‘phishing’, saltándose de esta forma las restricciones implementadas por la compañía para evitar el abuso de su herramienta de inteligencia artificial (IA) ChatGPT.
ChatGPT es un chat basado en inteligencia artificial desarrollado por OpenAI y que está entrenado para mantener una conversación en texto. Para ello, se basa en el modelo de lenguaje GPT 3.5 y, en sus avances más recientes ha demostrado tener capacidad para generar y enlazar ideas, así como para recordar conversaciones previas.
Para el uso de este chatbot solo se necesita una cuenta en la plataforma creadora, desde donde se puede descargar de forma gratuita, de modo que «cualquier persona con recursos mínimos y cero conocimientos en código puede explotarlo», según el director técnico de Check Point ‘software’, Eusebio Nieva.
Un grupo de investigadores de dicha compañía de ciberseguridad comprobó que los actores maliciosos habían comenzado a utilizar ChatGPT para ejecutar campañas ‘malware’ siguiendo los métodos tradicionales, tal y como adelantó Check Point a mediados del mes pasado.
A pesar de estas facilidades, OpenAI ha establecido una serie de restricciones con las que detiene la creación de contenido malicioso en su plataforma, evitando así que los actores maliciosos abusen de sus modelos.
De ese modo, si solicitan a ChatGPT que escriba un correo electrónicio de ‘phishing’ suplantando la identidad de una organización, como puede ser un banco, o cree un ‘malware’, el modelo no responderá dicha petición, según ha dicho la compañía en una nueva publicación.
Sin embargo, los ciberdelincuentes han encontrado la forma de eludir las restricciones de este chatbot y han compartido los pasos que se debe seguir para sobrepasar estas limitaciones a través de foros clandestinos, donde revelan cómo usar la API de OpenAI.
Según los investigadores de Check Point, los estafadores proponen utilizar la API de uno de los modelos GPT-3 de OpenAI, conocido como text-davinci-003, en lugar de tomar como referencia ChatGPT, que es una variante de estos modelos diseñada específicamente para aplicaciones de chatbot.
Tal y como recuerda Ars Technica, OpenAI ofrece a los desarrolladores la API de text-davinci-003 y otras API de modelos distintos para poder integrar el bot en sus aplicaciones. La diferencia entre esta API y la de ChatGPT es que la primera no contempla la restricción de contenido malicioso.
Check Point comentó que la versión de la API del modelo GPT-3 la pueden utilizar aplicaciones externas con total libertad, como puede ser Telegram, una plataforma que los ciberdelincuentes han comenzado a utilizar para crear y distribuir ‘malware’.
La compañía de ciberseguridad también comenta en su blog que algunos usuarios están publicando y vendiendo el código que utiliza text-davinci-003 para generar dicho contenido malicioso de forma gratuita.