Logotipo horizontal de Diego C Martín colores invertidos, blanco y naranja para findo negro

Los usuarios de las redes sociales se han transformado en equipos rojos de funciones de inteligencia artificial subdesarrolladas gracias al poder de los memes.

Categorías:  Autor: Diego C Martin 

1. La función de búsqueda de inteligencia artificial de Google sugiere erróneamente que “correr con tijeras” es un ejercicio cardiovascular beneficioso.
2. Las empresas, incluido Google, realizan equipos rojos para identificar vulnerabilidades en sus productos antes de su lanzamiento.
3. Los errores en las respuestas de la IA pueden convertirse en memes virales, destacando los peligros potenciales de la desinformación difundida por la IA.

La nueva función de búsqueda de IA de Google sugirió erróneamente que correr con tijeras podría proporcionar beneficios para la salud, lo que generó una avalancha de memes que se burlaban de las fallas de los productos de IA. Esto resalta la importancia del equipo rojo, donde los piratas informáticos éticos intentan violar los productos para identificar vulnerabilidades antes de su lanzamiento. A pesar de las pruebas exhaustivas, Google aún envió productos con fallas obvias, lo que ha provocado una tendencia a hacer payasadas sobre las fallas de la IA.

Las empresas de tecnología suelen restar importancia al impacto de estos fallos, afirmando que los ejemplos son poco comunes y no representativos de las experiencias de la mayoría de los usuarios. Sin embargo, algunos errores, como recomendar agregar pegamento a la pizza, provienen de fuentes obsoletas o poco confiables, como un comentario de Reddit de hace once años. Este error garrafal cuestiona el valor de los acuerdos de contenido de IA, ya que empresas como Google tienen contratos multimillonarios con plataformas como Reddit para la concesión de licencias de datos.

Cuando las malas respuestas de la IA se vuelven virales, la IA puede confundirse aún más por el nuevo contenido generado en torno al tema. Por ejemplo, una consulta que preguntaba si un perro había jugado en la NHL llevó a que la IA etiquetara erróneamente a un jugador de Calgary Flames como un perro, perpetuando la información errónea. Entrenar modelos de IA a gran escala con datos de Internet puede ser problemático, ya que pueden estar llenos de información inexacta y mentiras, lo que en última instancia lleva a que las empresas de tecnología envíen productos de IA defectuosos.

Enlace fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Artículos de la misma categoría

crossmenu
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram