Logotipo horizontal de Diego C Martín colores invertidos, blanco y naranja para findo negro

Los científicos desarrollan un modelo capaz de generar imágenes sin observar directamente contenidos protegidos por derechos de autor

Categorías:  Autor: Diego C Martin 

1. Marco desarrollado para entrenar modelos de IA en imágenes corruptas llamado Ambient Diffusion
2. Previene la infracción de derechos de autor al entrenar modelos con datos deliberadamente corruptos
3. Útil para aplicaciones científicas y médicas en campos con acceso limitado a datos no corruptos

Investigadores de la Universidad de Texas en Austin han desarrollado un nuevo método llamado Difusión Ambiental para entrenar modelos de IA en imágenes muy corruptas. Este marco permite que los modelos de IA se inspiren en imágenes sin copiarlas directamente, evitando problemas de infracción de derechos de autor. El equipo de investigación entrenó un modelo con datos corruptos y descubrió que producía imágenes únicas y de alta calidad evitando copiar ejemplos de entrenamiento.

El método Ambient Diffusion, desarrollado por investigadores como Alex Dimakis y Giannis Daras de UT Austin, así como Constantinos Daskalakis del MIT, permite controlar el equilibrio entre memorización y rendimiento en modelos de IA. Este enfoque podría tener aplicaciones en campos científicos y médicos donde el acceso a datos no corruptos es limitado, como en la astronomía y la física de partículas.

El profesor Adam Klivans, colaborador del proyecto, sugirió que la difusión ambiental podría ser beneficiosa en aplicaciones científicas y médicas donde la obtención de datos no corruptos es escasa o costosa. Al enseñar a los modelos a utilizar datos ruidosos o de mala calidad de manera más eficiente, el marco podría mejorar el rendimiento de los modelos de IA en campos con acceso limitado a datos de alta calidad.

Si se perfecciona aún más, Ambient Diffusion podría ayudar a las empresas de inteligencia artificial a crear modelos de conversión de texto a imagen que respeten los derechos de los creadores de contenido original y prevengan problemas legales relacionados con la infracción de derechos de autor. Si bien persiste la preocupación de que las herramientas de IA reduzcan las oportunidades laborales para artistas reales, la implementación de marcos como Ambient Diffusion puede ayudar a proteger las obras originales de la replicación accidental y al mismo tiempo permitir la innovación en la generación de imágenes de IA.

Enlace fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Artículos de la misma categoría

crossmenu
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram