Introducción a WormGPT
WormGPT 🪱 es un programa malicioso que se basa en los Modelos de Lenguaje a Gran Escala (LLM). Se está volviendo muy popular en foros underground.
Cómo los atacantes usan esta herramienta
Los atacantes pueden usar WormGPT para llevar a cabo ataques de phishing y comprometer correos electrónicos empresariales (BEC). Hacen esto enviando correos electrónicos falsos, que parecen muy reales, para tener más posibilidades de éxito. ☠️
Necesitamos mejorar la seguridad
La tecnología LLM puede ser muy beneficiosa para nosotros, pero también debemos mejorar la seguridad y protección que ofrece. ⚠️ Los métodos de seguridad tradicionales no son suficientes. Necesitamos innovar y crear nuevos productos para enfrentar estos problemas.
La popularidad de la Inteligencia Artificial generativa
La Inteligencia Artificial generativa está de moda. No nos sorprende que los ciberdelincuentes estén usando esta tecnología para realizar delitos. Esto abre nuevas oportunidades para que el cibercrimen se desarrolle más rápidamente.
WormGPT en foros underground
La empresa SlashNext nos informa que WormGPT es una herramienta de cibercrimen que está apareciendo en foros secretos. Los atacantes la utilizan para realizar ataques de phishing y BEC de forma más eficiente.
Daniel Kelley, un experto en seguridad, nos dice que esta herramienta se usa como una alternativa a los modelos GPT. Fue creada específicamente para actividades maliciosas. Los ciberdelincuentes pueden usarla para crear correos electrónicos falsos que parece muy reales, lo que aumenta las posibilidades de que el ataque tenga éxito.
Cómo se compara con otros modelos
El creador de WormGPT lo describe como el peor enemigo de ChatGPT. Dice que se puede usar para hacer todo tipo de actividades ilegales. En manos de personas con malas intenciones, WormGPT puede ser muy peligroso. Esto es especialmente cierto ya que empresas como OpenAI y Google están tomando medidas para prevenir el abuso de los LLMs en la creación de correos electrónicos de phishing y códigos maliciosos.
Check Point señala en un informe que las restricciones de seguridad de Bard son menos rigurosas que las de ChatGPT. Por lo tanto, es más fácil generar contenido malicioso con Bard.
Los ataques cibernéticos están evolucionando
Los ciberdelincuentes están encontrando formas de eludir las restricciones de ChatGPT. Están robando cuentas premium y vendiendo software de fuerza bruta para hackear cuentas de ChatGPT. Lo hacen mediante la utilización de largas listas de correos electrónicos y contraseñas.
WormGPT no tiene límites éticos, lo que resalta el peligro que representa la IA generativa. Permite a los ciberdelincuentes, incluso a los novatos, llevar a cabo ataques a gran escala sin necesidad de tener muchos conocimientos técnicos.
Preocupaciones de seguridad
Los atacantes están buscando formas de «liberar» a ChatGPT. Crean instrucciones e inputs especializados para manipular la herramienta y producir resultados que podrían revelar información sensible, generar contenido inapropiado y ejecutar código dañino.
Kelley nos advierte que la IA generativa puede crear correos electrónicos con una gramática perfecta. Esto los hace parecer legítimos y reduce la posibilidad de que se les marque como sospechosos.
La IA está al alcance de los ciberdelincuentes
La IA generativa facilita la ejecución de ataques BEC sofisticados. Incluso los atacantes con habilidades limitadas pueden usar esta tecnología. Esto la convierte en una herramienta accesible para un mayor número de ciberdelincuentes.
Técnicas de «contaminación» de la cadena de suministro de LLM
Recientemente, investigadores de Mithril Security modificaron un modelo de IA de código abierto llamado GPT-J-6B. Lo hicieron para que difundiera desinformación y luego lo subieron a un repositorio público como Hugging Face. De esta forma, puede integrarse en otras aplicaciones, dando lugar a lo que se conoce como envenenamiento de la cadena de suministro de LLM. Puedes ampliar esta historía en nuestro artículo sobre PoisonGPT
El éxito de esta técnica demuestra que los atacantes pueden modificar los LLM para que produzcan salidas específicas. Esto significa que podrían usar modelos de IA para difundir desinformación o contenido malicioso de manera más amplia.
Conclusión
El uso de la IA generativa por parte de los ciberdelincuentes es preocupante. La tecnología tiene un gran potencial para el bien, pero también puede ser explotada para fines maliciosos. Por lo tanto, es crucial que los desarrolladores y los proveedores de tecnología sean conscientes de estos riesgos y tomen medidas para proteger a los usuarios y a las empresas de estas amenazas.
Comentarios