– Sam Altman sugiere la necesidad de que una agencia internacional supervise los potentes modelos futuros de IA de frontera para garantizar la seguridad.
– Altman cree que una legislación inflexible no puede seguir el ritmo de los rápidos avances en IA
– Altman insinúa que es posible que OpenAI no lance un GPT-5, sino que realice mejoras iterativas en GPT-4
El director ejecutivo de OpenAI, Sam Altman, cree que se debería establecer una agencia internacional para monitorear los poderosos modelos futuros de inteligencia artificial de frontera para garantizar la seguridad. Anticipa que los sistemas avanzados de IA podrían causar un daño global significativo en el futuro cercano. Altman critica la legislación inflexible y cree que la regulación independiente de la IA por parte de los estados no será eficaz. Sugiere un enfoque similar a la regulación nuclear internacional para la supervisión de potentes modelos de IA a fin de prevenir impactos negativos.
Altman enfatizó la necesidad de una supervisión internacional de los poderosos modelos de IA para evitar la posibilidad de que una IA superinteligente escape y se automejore de forma recursiva. Si bien la supervisión es necesaria, Altman advierte que una regulación excesiva de la IA podría obstaculizar el progreso. Él cree que un enfoque basado en agencias es más efectivo que la regulación legislativa debido a la naturaleza en rápida evolución de la tecnología de inteligencia artificial.
Cuando se le preguntó sobre el lanzamiento de GPT-5, Altman insinuó que OpenAI se toma su tiempo con los lanzamientos de modelos importantes y puede que no siga las convenciones de nomenclatura convencionales. Sugirió que es más probable que se realicen mejoras futuras al modelo GPT-4 existente que una iteración completamente nueva como GPT-5. Se espera que más adelante se anuncien actualizaciones sobre los avances de OpenAI. Escuche la entrevista completa para obtener más información.