Logotipo horizontal de Diego C Martín colores invertidos, blanco y naranja para findo negro

Una agencia del Reino Unido lanza herramientas para probar la seguridad de los modelos de IA

Categorías:  Autor: Diego C Martin 

1. El Instituto de Seguridad del Reino Unido lanza un conjunto de herramientas llamado Inspect para fortalecer la seguridad de la IA mediante evaluaciones más sencillas
2. Inspect evalúa el conocimiento y las capacidades de razonamiento de los modelos de IA y proporciona una puntuación basada en los resultados.
3. Inspect es extensible y ampliable, con componentes para conjuntos de datos, solucionadores y puntuadores, y se puede ampliar mediante paquetes Python de terceros.

El Instituto de Seguridad del Reino Unido ha presentado Inspect, un conjunto de herramientas de código abierto destinado a fortalecer la seguridad de la IA simplificando el proceso de desarrollo de evaluaciones de IA. Inspect evalúa el conocimiento básico y las capacidades de razonamiento de los modelos de IA y genera puntuaciones basadas en los resultados. Esto marca el primer lanzamiento de una plataforma de pruebas de seguridad de IA por parte de una entidad respaldada por el estado para un uso más amplio.

Inspect consta de conjuntos de datos, solucionadores y puntuadores, con la capacidad de ampliarse mediante paquetes Python de terceros. La extensibilidad de la herramienta permite la adaptación a nuevas técnicas de prueba, lo que la convierte en una herramienta colaborativa para la comunidad global de IA. Inspect se considera un paso fundamental para promover la responsabilidad y la evaluación en la industria de la IA.

Los puntos de referencia de IA son desafiantes debido a la naturaleza de caja negra de muchos modelos avanzados de IA. Inspect ofrece una solución que permite agregar y ampliar fácilmente técnicas de prueba, lo que proporciona transparencia en el proceso de evaluación. Los expertos elogian esta inversión pública en herramientas de IA de código abierto por su impacto potencial en la responsabilidad y la ética de la IA.

El Reino Unido y los EE. UU. se han asociado para desarrollar pruebas avanzadas de modelos de IA, centrándose en la evaluación de los riesgos asociados con la tecnología de IA. El NIST de EE. UU. también ha lanzado un programa para evaluar tecnologías de IA generativa, con el objetivo de detectar contenido falso o engañoso generado por IA. En general, el desarrollo y lanzamiento de herramientas como Inspect significan un compromiso creciente para garantizar la seguridad y la responsabilidad de la IA en la industria.

Enlace fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Artículos de la misma categoría

crossmenu
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram