– La IA ofendió a una actriz y perdió la voz.
– Sony no quiere que la IA escuche su música
– Los investigadores exploran la “caja negra” para decodificar la mente de la IA
Esta semana en noticias de IA, Scarlett Johansson se sintió ofendida por la voz de GPT-4o, que sonaba inquietantemente parecida a la de ella. Sony Music Group advirtió a las empresas que su música está prohibida para el entrenamiento de IA, lo que genera dudas sobre el uso de datos protegidos por derechos de autor. Investigadores de la Universidad de Texas encontraron una manera de entrenar modelos sin utilizar trabajos protegidos por derechos de autor, mientras que Bollywood ve una tendencia creciente de falsificaciones políticas de IA.
Microsoft presentó más herramientas de automatización del trabajo impulsadas por IA, mientras que las principales empresas de IA acordaron compromisos voluntarios de seguridad antes de la cumbre de IA en Seúl. Google publicó su Marco de seguridad Frontier para mitigar los riesgos de la IA, reconociendo los peligros potenciales.
Yann LeCun no está de acuerdo con la idea de una amenaza de extinción por parte de la IA y afirma que los modelos lingüísticos actuales no son más peligrosos que tener acceso a una biblioteca. En el mundo de los videojuegos, FRVR utiliza IA generativa para crear juegos a partir de lenguaje natural, lo que permite a los usuarios crear fácilmente sus propios juegos en su plataforma.
Eventos de IA como la conferencia City Week en Londres y la Cumbre de IA Generativa Empresarial en Silicon Valley discutieron el impacto de la IA en las industrias. El COMEX Global Technology Show en Medio Oriente ofrece una visión de un futuro moldeado por la IA, la realidad virtual y la cadena de bloques. También se destacaron otras historias interesantes sobre IA de la semana.