1. El equipo de Superalineación de OpenAI, encargado de gobernar y dirigir la IA superinteligente, había prometido recursos que se les negaron, lo que provocó renuncias, incluido el codirector Jan Leike y el cofundador Ilya Sutskever.
2. El equipo de Superalineación se centró en la investigación de seguridad, pero a medida que los lanzamientos de productos tuvieron prioridad, lucharon por una mayor inversión inicial, citando preocupaciones sobre la cultura y los procesos de seguridad.
3. Después de las renuncias, John Schulman liderará el trabajo realizado anteriormente por el equipo de Superalignment, pero como un grupo poco asociado integrado en diferentes divisiones de la empresa, lo que genera preocupaciones sobre el enfoque en la seguridad en el desarrollo de la IA.
Al equipo Superalignment de OpenAI se le prometió el 20% de los recursos informáticos de la empresa para gobernar y dirigir sistemas de IA “superinteligentes”, pero sus solicitudes de recursos a menudo fueron rechazadas, lo que llevó a la dimisión de los miembros del equipo, incluido el codirector Jan Leike. Leike no estuvo de acuerdo con el liderazgo de OpenAI sobre las prioridades centrales y la falta de enfoque en la preparación para futuras generaciones de modelos y medidas de seguridad.
El equipo de Superalignment publicó investigaciones sobre seguridad y otorgó subvenciones a investigadores externos con el objetivo de resolver los principales desafíos técnicos del control de la IA superinteligente. El equipo enfrentó desafíos a medida que los lanzamientos de productos consumían más ancho de banda del liderazgo, lo que obstaculizaba las inversiones que creían que eran cruciales para la misión de la empresa.
El director ejecutivo de OpenAI, Sam Altman, enfrentó problemas con la junta directiva y estuvo a punto de ser despedido a fines del año pasado. Con la salida de Leike y el cofundador Ilya Sutskever, John Schulman se hizo cargo del trabajo del equipo de Superalignment, que ahora será un grupo de investigadores vagamente asociados integrados en toda la empresa. Esta reestructuración plantea preocupaciones sobre el enfoque en la seguridad en el desarrollo de la IA, con la posibilidad de que las medidas de seguridad pierdan prioridad.
OpenAI ha manifestado su compromiso de abordar las preocupaciones planteadas por las salidas y enfatizó la necesidad de un circuito de retroalimentación estrecho, pruebas rigurosas, seguridad de clase mundial y un equilibrio entre la seguridad y las capacidades en el desarrollo de la IA. A pesar de los cambios, persiste el temor de que el desarrollo de la IA de OpenAI pierda su enfoque en la seguridad.