1. OpenAI ofrece información sobre las reglas de participación para sus modelos de IA conversacional como ChatGPT, incluido el cumplimiento de las pautas de la marca y el rechazo de cierto contenido.
2. Los grandes modelos de lenguaje como ChatGPT no tienen límites naturales sobre lo que pueden decir, lo que lleva a la necesidad de establecer barreras de seguridad sobre lo que deben y no deben hacer.
3. Los fabricantes de IA enfrentan desafíos a la hora de definir y hacer cumplir reglas para sus modelos, como rechazar afirmaciones falsas sobre figuras públicas o recomendar solo sus propios productos.
OpenAI proporciona información sobre el razonamiento detrás de las reglas de participación para modelos de IA conversacional como ChatGPT, que pueden incluir ceñirse a las pautas de la marca o negarse a crear contenido NSFW. Los modelos de lenguaje grandes carecen de límites naturales sobre lo que pueden decir, lo que lleva a la necesidad de barreras de seguridad para definir el comportamiento apropiado.
Navegar por dilemas éticos, como generar afirmaciones falsas o recomendaciones sesgadas, es un desafío para los fabricantes de IA que buscan controlar sus modelos sin obstaculizar las solicitudes legítimas. OpenAI ha publicado su “especificación de modelo” que describe reglas de alto nivel que gobiernan indirectamente sus modelos, enfatizando la importancia de la intención del desarrollador al dirigir las respuestas de la IA.
Las pautas abordan la priorización de la intención del desarrollador, la negativa a discutir temas no autorizados y el manejo de preocupaciones de privacidad, como compartir información personal. Determinar dónde trazar la línea es complejo y requiere instrucciones precisas para garantizar el cumplimiento de la IA. Si bien OpenAI no revela todas sus estrategias, compartir estas reglas brinda transparencia para los usuarios y desarrolladores.