Los atacantes están explotando activamente una vulnerabilidad de falsificación de solicitudes del lado del servidor (SSRF) en la infraestructura ChatGPT de OpenAI. La vulnerabilidad, identificada como CVE-2024-27564, se ha convertido en una amenaza importante a pesar de su clasificación de gravedad media.
Según una investigación de la firma de ciberseguridad Veriti, esta vulnerabilidad ya se ha utilizado como arma en numerosos ataques del mundo real, lo que demuestra cómo los actores de amenazas pueden aprovechar incluso fallas de seguridad moderadas para comprometer sistemas sofisticados de IA.
La escala de estos ataques es particularmente alarmante. La investigación de Veriti descubrió más de 10.479 intentos de ataque procedentes de una dirección IP maliciosa en tan solo una semana.
Estas cifras sugieren una campaña coordinada y persistente dirigida a organizaciones que utilizan la tecnología OpenAI.
Estados Unidos ha experimentado la mayor concentración de ataques con un 33%, seguido de Alemania y Tailandia con un 7% cada uno.
Otras regiones afectadas incluyen Indonesia, Colombia y el Reino Unido, lo que indica el alcance global de esta amenaza.
«Este patrón de ataque demuestra que ninguna vulnerabilidad es demasiado pequeña para importar: los atacantes explotarán cualquier debilidad que puedan encontrar», señalaron los investigadores en su informe.
La tendencia de explotación muestra un aumento en enero de 2025, seguido de una disminución en febrero y marzo, lo que posiblemente indica un cambio de táctica de los atacantes o una respuesta a las medidas de seguridad.
Vulnerabilidad de falsificación de solicitudes del lado del servidor
CVE-2024-27564 está clasificada como una vulnerabilidad de falsificación de solicitudes del lado del servidor, lo que permite a los atacantes inyectar URL maliciosas en los parámetros de entrada.
Esta técnica obliga a la aplicación ChatGPT a realizar solicitudes no deseadas en nombre del atacante. Las vulnerabilidades SSRF generalmente ocurren cuando los datos de entrada del usuario se utilizan para crear una solicitud sin la validación adecuada.
En este caso, los atacantes pueden manipular parámetros para controlar las solicitudes de otros servidores o incluso del mismo servidor.
La vulnerabilidad afecta explícitamente al componente pictureproxy.php de ChatGPT, como se identifica en la confirmación f9f4bbc.
Al manipular el parámetro «url», los atacantes pueden iniciar solicitudes arbitrarias, potencialmente eludiendo los controles de seguridad.
- Productos afectados: ChatGPT (componente pictureproxy.php en la confirmación f9f4bbc) Infraestructura ChatGPT de OpenAI
- Impacto: Realizar solicitudes arbitrarias expone información confidencial
- Requisitos previos de explotación: Posible explotación remota
- Puntuación CVSS 3.1: 6,5 (mediana)
Las instituciones financieras han surgido como objetivos principales de esta campaña. Los bancos y las empresas de tecnología financiera dependen en gran medida de servicios basados en IA e integraciones de API, lo que los hace particularmente susceptibles a los ataques SSRF.
Estas organizaciones enfrentan posibles consecuencias, incluidas violaciones de datos, transacciones no autorizadas, sanciones regulatorias y daños significativos a su reputación.
Recomendaciones
Quizás lo más preocupante es que el 35% de las organizaciones analizadas permanecen desprotegidas debido a configuraciones erróneas en sus sistemas de prevención de intrusiones (IPS), firewalls de aplicaciones web (WAF) y firewalls tradicionales.
Los expertos en seguridad recomiendan que las organizaciones implementen varias estrategias de mitigación de inmediato:
- Revise y corrija las configuraciones de IPS, WAF y firewall para garantizar la protección contra CVE-2024-27564.
- Implemente una validación de entrada estricta para evitar la inyección de URL maliciosas.
- Supervise los registros en busca de intentos de ataque desde direcciones IP maliciosas conocidas.
- Considere la segmentación de la red para aislar los componentes que manejan la búsqueda de URL.
- Priorizar las brechas de seguridad relacionadas con la IA en los procedimientos de evaluación de riesgos.
Este incidente representa otro ejemplo de actores de amenazas criminales y patrocinados por el Estado que atacan cada vez más los sistemas de inteligencia artificial con fines maliciosos.
Como se revela en un informe reciente, los atacantes han intentado hacer un uso indebido de ChatGPT para actividades dañinas en más de 20 incidentes desde principios de 2024.
La explotación de CVE-2024-27564 sirve como un claro recordatorio de que incluso las vulnerabilidades de gravedad media pueden plantear riesgos importantes cuando son utilizadas como armas por atacantes decididos.