OpenAI ha elevado significativamente su recompensa máxima por el programa de recompensas por errores a $100,000 para vulnerabilidades de seguridad críticas de carácter excepcional. Este incremento, que quintuplica el límite anterior de $20,000, pone de manifiesto la creciente importancia que esta empresa líder en inteligencia artificial otorga a la ciberseguridad.
Esta intensificación en la seguridad se produce en un momento en que sus modelos avanzan hacia la inteligencia artificial general (AGI) y su base de usuarios experimenta una expansión considerable, superando los 400 millones de usuarios activos semanales en los sectores empresarial, corporativo y gubernamental a nivel global.
El programa mejorado de recompensas por errores de seguridad de OpenAI ahora ofrece recompensas sustancialmente mayores a los investigadores de seguridad que identifican e informan de manera responsable vulnerabilidades significativas en la infraestructura y los productos de la empresa.
El programa tiene como objetivo incentivar el descubrimiento de fallas de seguridad sofisticadas que podrían comprometer los sistemas de OpenAI.
«Las amenazas a la seguridad evolucionan constantemente y, a medida que nos acercamos a AGI, esperamos que nuestros adversarios se vuelvan más tenaces, numerosos y persistentes», afirmó la compañía en su anuncio.
Para celebrar la expansión, OpenAI está lanzando períodos promocionales por tiempo limitado con bonificaciones adicionales para informes calificados dentro de categorías de vulnerabilidad específicas.
Cada promoción viene con criterios de elegibilidad claramente definidos y cronogramas accesibles en la página del Programa Bug Bounty de la compañía.
Lanzado hace dos años, este programa ya ha financiado 28 iniciativas de investigación, proporcionando información valiosa en áreas como la inyección rápida, la generación de código seguro y las defensas autónomas de ciberseguridad.
El programa ahora acepta propuestas para una gama más amplia de proyectos, centrándose en áreas críticas como:
- Parches de software: aprovechar la IA para detectar y parchear vulnerabilidades de manera eficiente.
- Privacidad del modelo: mejora de la solidez contra la exposición no deseada de datos de entrenamiento privados.
- Detección y Respuesta: Mejora de las capacidades contra amenazas persistentes avanzadas.
- Integración de seguridad: aumentar la precisión y confiabilidad de la integración de IA con herramientas de seguridad.
- Seguridad agente: aumento de la resiliencia de los agentes de IA contra ataques sofisticados.
Para facilitar la creación rápida de prototipos de ideas innovadoras, OpenAI está introduciendo microsubvenciones en forma de créditos API.
Estas microsubvenciones permitirán a los investigadores probar y perfeccionar rápidamente sus conceptos, fomentando un ecosistema de ciberseguridad más ágil y receptivo.
El aumento de la recompensa va acompañado de otras mejoras de seguridad en OpenAI.
La compañía se ha asociado con SpecterOps para llevar a cabo ejercicios continuos de equipos rojos adversarios que simulan ataques sofisticados en entornos corporativos, de nube y de producción.
OpenAI también está aprovechando su propia tecnología de inteligencia artificial para desarrollar agentes de seguridad que mejoren las capacidades de detección de amenazas y permitan una respuesta rápida a las tácticas adversas en evolución.
Estas defensas impulsadas por IA complementan las medidas de seguridad convencionales al tiempo que brindan inteligencia más precisa y procesable para contrarrestar ciberataques sofisticados.
“En OpenAI, la seguridad es un compromiso muy arraigado que se fortalece a medida que avanzan nuestros modelos y productos”, enfatizó la compañía.
A medida que OpenAI continúa desarrollando proyectos de IA de próxima generación, incluidas iniciativas de infraestructura como Stargate, las consideraciones de seguridad se están integrando desde cero.
Para los investigadores e ingenieros de seguridad interesados en estas iniciativas, OpenAI está reclutando activamente talentos para expandir su programa de seguridad en múltiples dimensiones.
Este aumento sustancial de la recompensa indica el reconocimiento de OpenAI de que a medida que sus sistemas de IA se vuelven más poderosos y se implementan más ampliamente, los riesgos de seguridad continúan aumentando, lo que requiere inversiones proporcionalmente más fuertes para identificar y abordar vulnerabilidades potenciales antes de que puedan ser explotadas.