Logotipo horizontal de Diego C Martín colores invertidos, blanco y naranja para findo negro

Instructor de educación física detenido por utilizar inteligencia artificial para imitar la voz del director

Categorías:  Autor: Diego C Martin 
img-1

1. El director deportivo de una escuela secundaria de Baltimore fue arrestado por crear un clip de audio falso de IA del director haciendo comentarios racistas que provocaron reacciones violentas e investigaciones.
2. Los expertos determinan que el clip de audio era falso de IA debido a inconsistencias; el exdirector deportivo supuestamente creó el clip en represalia por una investigación financiera, fue arrestado y acusado de múltiples delitos.
3. La falta de legislación sobre el uso de la IA para falsificar la voz de alguien pone de relieve la falta de preparación de la sociedad y las autoridades para manejar la tecnología de IA generativa; la mejor defensa puede ser asumir que el audio y el vídeo son falsos hasta que se demuestre lo contrario.

Un director deportivo de una escuela secundaria de Baltimore fue arrestado por usar inteligencia artificial para crear un clip de audio falso del director de la escuela, Eric Eiswert, haciendo comentarios racistas y antisemitas. La autenticidad del audio fue cuestionada en ese momento, pero el clip ampliamente compartido llevó a Eiswert a perder temporalmente su trabajo. Los expertos ahora han confirmado que el audio era efectivamente una falsificación de IA, basándose en varias inconsistencias en la grabación. Se alega que Dazhon Darien, el exdirector deportivo, creó el audio falso en represalia por una investigación sobre su malversación de fondos escolares. Darien ha sido arrestado y acusado de varios delitos relacionados con el incidente.

Actualmente no existe ninguna ley que aborde específicamente el uso de la IA para crear audio o vídeo falso, lo que pone de relieve la falta de preparación de la sociedad y las autoridades para abordar estos problemas. Se han propuesto en el Congreso proyectos de ley como la Ley de No Falsificaciones y la Ley de No Fraude de IA, pero no han sido aprobados. El hecho de que un experto tardara semanas en confirmar que el audio era falso demuestra los desafíos que supone identificar y abordar el contenido falso creado con tecnología de inteligencia artificial. La facilidad con la que se pueden generar tales falsificaciones genera preocupación sobre las posibles acciones de malos actores técnicamente más competentes en el futuro. Como resultado, puede ser necesario adoptar la postura de asumir que el contenido es falso hasta que se haya verificado que es genuino.

Enlace fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Artículos de la misma categoría

crossmenu
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram