OpenAI reorganiza su comité de seguridad con la ayuda de un grupo de supervisión

Ciudad de México  

Sergio F Cara (NotiPress)

Un nuevo comité de seguridad y protección realiza una serie de recomendaciones a OpenAI

 

OpenAI está implementando una importante transformación en su Comité de Seguridad y Protección con el objetivo de reforzar las medidas de gobernanza y garantizar altos estándares de seguridad en sus productos. Esta reestructuración se lleva a cabo con el respaldo de un grupo de supervisión independiente, el cual realizó una exhaustiva revisión de 90 días sobre los procesos de seguridad de la empresa formulando una serie de recomendaciones clave a la junta directiva. En este nuevo organismo, no participa el CEO de OpenAI, Sam Altman, una decisión que apunta a fortalecer la independencia del comité.

El comité presentó recomendaciones en cinco áreas prioritariaspara mejorar las prácticas de OpenAI. Entre ellas, destaca la creación de una estructura de gobernanza independiente que será liderada por Zico Kolter, director del Departamento de Aprendizaje Automático de la Universidad Carnegie Mellon. El grupo también incluirá a figuras como Adam D'Angelo, CEO de Quora; el general retirado Paul Nakasone; y Nicole Seligman, exvicepresidenta de Sony Corporation. Este equipo tendrá autoridad para retrasar el lanzamiento de modelos de inteligencia artificial hasta que se resuelvan los problemas de seguridad identificados.

Además, el comité recomendó aumentar la segmentación de la información interna, reforzar los equipos de seguridad con personal especializado y continuar invirtiendo en la seguridad de la infraestructura de investigación de la empresa. También subrayaron la importancia de fomentar la colaboración en la industria para compartir mejores prácticas de seguridad.

Otro aspecto destacado es la necesidad demejorar la comunicación sobre las medidas de seguridad. OpenAI busca formas más transparentes de informar sobre su trabajo en esta área y contempla realizar pruebas independientes para asegurar que sus estándares de seguridad lideren la industria.

Para cumplir estos objetivos, se propuso la unificación de los equipos de investigación, seguridad y políticas dentro de OpenAI. De esta manera, pueden trabajar bajo un marco común de evaluación de riesgos aprobado por el comité.

La exclusión de Altman de este comité responde a una estrategia para garantizar la independencia del nuevo organismo y abordar las preocupaciones sobre la seguridad de los productos. Exmiembros de la junta, como Helen Toner y Tasha McCauley, señalaron que la estructura actual no garantiza una seguridad adecuada debido a los incentivos económicos que podrían interferir en la toma de decisiones. Con estas medidas, OpenAI busca fortalecer sus salvaguardas y, posiblemente, modificar su estructura corporativa hacia un modelo de negocio más comercial.

 

OpenAISeguridadEmpresas

¿Te gustó el contenido?

 

 

Recibe las noticias por correo

Entérate de la economía, noticias internacionales y el impacto en los negocios. Aviso de privacidad