OpenAI comenzará a pagar a las personas hasta 20 mil dólares para ayudar a la empresa a encontrar errores en sus sistemas de inteligencia artificial, como el popular chatbot ChatGPT.
La compañía de inteligencia artificial escribió en una publicación de blog el martes que lanzó un programa de recompensas por errores a través del cual las personas pueden informar debilidades, errores o problemas de seguridad que encuentren al usar sus productos de inteligencia artificial. Dichos programas, que son comunes en la industria tecnológica, implican que las empresas paguen a los usuarios por informar errores u otras fallas de seguridad. OpenAI dijo que lo está implementando en asociación con Bugcrowd, que es una plataforma de recompensas por errores.
La compañía pagará recompensas en efectivo según el tamaño de los errores descubiertos, que van desde 200 dólares por lo que llama “hallazgos de baja gravedad” hasta 20 mil por “descubrimientos excepcionales”.
La compañía dijo que parte de la razón por la que está implementando el programa es porque cree que la “transparencia y la colaboración” son clave para encontrar vulnerabilidades en su tecnología.
“Esta iniciativa es una parte esencial de nuestro compromiso con el desarrollo de una IA segura y avanzada”, dijo la publicación del blog, escrita por Matthew Knight, jefe de seguridad de OpenAI. “A medida que creamos tecnología y servicios que son seguros, fiables y dignos de confianza, nos gustaría contar con su ayuda”.
La página de Bugcrowd para el programa de recompensas de OpenAI detalla una serie de problemas de seguridad relacionados con los modelos que no son elegibles para recompensas, incluidos avisos de jailbreak, preguntas que dan como resultado que un modelo de IA escriba código malicioso o consultas que dan como resultado que un modelo diga cosas malas. a un usuario.
El anuncio no es una completa sorpresa. Greg Brockman, presidente y cofundador de la empresa con sede en San Francisco, mencionó recientemente en Twitter que OpenAI había estado “considerando iniciar un programa de recompensas” o una red de “equipos rojos” para detectar puntos débiles.
Hizo el comentario en respuesta a una publicación escrita por Alex Albert, un entusiasta de las indicaciones de jailbreak de 22 años cuyo sitio web compila indicaciones escritas destinadas a eludir las protecciones que tienen los chatbots como ChatGPT.
“El equipo rojo democratizado es una de las razones por las que implementamos estos modelos”, escribió Brockman.