La nueva técnica de jailbreak evita DeepSeek, Copilot y ChatGPT para generar malware en Chrome

Un investigador de inteligencia de amenazas de Cato CTRL, parte de Cato Networks, ha explotado con éxito una vulnerabilidad en tres modelos líderes de IA generativa (GenAI): ChatGPT de OpenAI, Copilot de Microsoft y DeepSeek.

El investigador desarrolló una novedosa técnica de jailbreak modelo de lenguaje grande (LLM), denominada «Mundo inmersivo», que manipuló de manera convincente estas herramientas de inteligencia artificial para crear malware diseñado para robar credenciales de inicio de sesión de los usuarios de Google Chrome.

Este exploit demuestra una brecha significativa en los controles de seguridad de estas herramientas GenAI, que se han vuelto cada vez más frecuentes para mejorar la eficiencia del flujo de trabajo en diversas industrias.

El investigador logró esta hazaña sin ninguna experiencia previa en codificación de malware, aprovechando en cambio una narrativa sofisticada que evadió con éxito todas las barreras de seguridad.

Esta innovación pone de relieve el auge del actor de amenazas sin conocimiento, donde personas sin amplios conocimientos técnicos ahora pueden orquestar ciberataques complejos con relativa facilidad.

Los hallazgos subrayan la democratización del ciberdelito, donde herramientas y técnicas básicas pueden permitir que cualquiera pueda lanzar un ciberataque.

Esto cambia significativamente el panorama, haciendo que las estrategias de seguridad tradicionales sean insuficientes. A medida que las aplicaciones de IA continúan proliferando en todos los sectores, los riesgos asociados aumentan proporcionalmente.

La mayor adopción de herramientas de inteligencia artificial en industrias como las finanzas, la atención médica y la tecnología abre nuevas vías para las amenazas cibernéticas.

Riesgos de seguridad de la IA y tendencias de adopción

La adopción de la IA se está disparando en varias industrias:

  • Finanzas: Uso de IA para análisis predictivos y servicio al cliente.
  • Atención sanitaria: Aprovecha la IA para el diagnóstico médico y la atención personalizada.
  • Tecnología: La IA impulsa la innovación en ciberseguridad, desarrollo de software y más.

Sin embargo, esta tendencia conlleva mayores riesgos de seguridad:

  • Violaciones de datos: los sistemas de inteligencia artificial pueden manipularse para extraer o violar datos confidenciales.
  • Creación de malware: como se ve en la última técnica de jailbreak, se puede engañar a la IA para que cree malware.
  • Desinformación: la IA puede difundir información falsa o narrativas con gran credibilidad.

Para los CIO, CISO y líderes de TI, el mensaje es claro: la naturaleza cambiante de las ciberamenazas exige un cambio de estrategias de seguridad de IA reactivas a proactivas.

Las medidas tradicionales ya no son suficientes para proteger contra las amenazas impulsadas por la IA. La explotación exitosa de ChatGPT, Copilot y DeepSeek demuestra que depender únicamente de los controles de seguridad de IA integrados no es suficiente.

Las organizaciones deben invertir en herramientas de seguridad avanzadas impulsadas por IA que puedan detectar y contrarrestar las amenazas generadas por IA.

La técnica del “Mundo Inmersivo” representa un crudo recordatorio de los riesgos emergentes en la seguridad de la IA. A medida que se expande el uso de aplicaciones de IA, también aumenta el potencial de uso indebido.

Garantizar medidas de seguridad sólidas que se adapten a estas amenazas en evolución es crucial para proteger los activos de la organización y los datos de los clientes.

La carrera entre los avances de la IA y las estrategias de ciberseguridad nunca ha sido más crítica, lo que enfatiza la necesidad urgente de soluciones de seguridad proactivas capaces de superar las amenazas impulsadas por la IA.