O penAI destina $1 millón como fondos de programas y proyectos que involucren ciberseguridad y la inteligencia artificial.
Los delincuentes están ideando formas innovadoras de utilizar la inteligencia artificial con fines maliciosos, pero OpenAI se asegura de que los "defensores" estén bien preparados.
Presentando su último esfuerzo, el creador de ChatGPT y Dall-e está lanzando un Programa de Subvenciones de Ciberseguridad de $1 millón para impulsar y cuantificar la efectividad de las capacidades de ciberseguridad impulsadas por inteligencia artificial.
No es ningún secreto que OpenAI ha sido constantemente vocal sobre la necesidad de regular la inteligencia artificial para prevenir posibles aplicaciones maliciosas. El impacto de la tecnología de IA en manos de delincuentes, que han creado desde deepfakes hasta malware, ha hecho que el llamado a las armas sea cada vez más crítico. Es una carrera armamentista digital, y OpenAI está tratando de asegurarse de que los buenos no se queden rezagados.
OpenAI ha propuesto una serie de ideas de proyectos intrigantes: desde desarrollar trampas para atrapar a los atacantes, hasta ayudar a los desarrolladores a crear software seguro por diseño y optimizar los procesos de gestión de parches.
Las aspiraciones del programa son claras como el cristal: "Nuestro objetivo es facilitar el desarrollo de capacidades de ciberseguridad impulsadas por inteligencia artificial para los defensores a través de subvenciones y otro tipo de apoyo", dice OpenAI en su entrada oficial de blog. Se trata de cuantificar la efectividad de estos modelos de IA y comprender cómo potenciar su destreza en ciberseguridad.
Esta iniciativa de vanguardia busca lograr tres objetivos principales: en primer lugar, tiene como objetivo "empoderar a los defensores". OpenAI afirmó que quiere aprovechar el poder de la inteligencia artificial y la coordinación de individuos con ideas afines para inclinar la balanza a favor de aquellos que trabajan para mejorar la seguridad colectiva.
Lo siguiente en la agenda es "medir las capacidades". OpenAI quiere apoyar desarrollos que trabajen en métodos de cuantificación para evaluar la efectividad de los modelos de IA en ciberseguridad.
Por último, OpenAI también quiere "elevar el discurso", fomentando discusiones matizadas sobre la intersección entre la inteligencia artificial y la ciberseguridad.
Este movimiento desafía la visión tradicional en ciberseguridad. OpenAI enfatizó la relevancia del dicho de que "debe estar en lo correcto el 100% del tiempo, mientras que los atacantes solo tienen que estar en lo correcto una vez", pero ven el valor inherente en la coordinación hacia un objetivo común de mantener a las personas seguras. Están luchando para demostrar que, armados con inteligencia artificial, los defensores pueden cambiar el rumbo de los acontecimientos.
about 1 year ago
3 views
about 1 year ago
5 views