1. Google y OpenAI dieron a conocer nuevas capacidades de IA que desdibujan la línea entre los humanos y la IA.
2. GPT-4o ofrece reconocimiento de voz y capacidades emocionales casi en tiempo real, similares a la IA de la película “Her”.
3. La IA pseudoantrópica imita rasgos humanos, lo que genera preocupaciones éticas sobre el engaño y la manipulación por parte de la IA.
En 48 horas innovadoras, Google y OpenAI revelaron nuevas capacidades de IA que desdibujan la línea entre los humanos y la inteligencia artificial. Google anunció Project Astra, un asistente digital con capacidades avanzadas de visión y sonido, mientras que OpenAI presentó GPT-4o, un modelo de lenguaje que emite emociones e interactúa en tiempo real. Estos avances señalan la progresión de la IA hacia una mayor humanización en su formato e interacciones, asemejándose a la IA retratada en la película “Her”.
Lanzada en 2013, “Her” explora la relación entre un hombre y un sistema informático inteligente, planteando preguntas sobre la conciencia y la intimidad en la era de la IA avanzada. Los temas de la película se están volviendo realidad a medida que millones de personas interactúan con compañeros de IA, algunos con intenciones íntimas. El GPT-4o de OpenAI, con una coqueta voz femenina, ha generado comparaciones con la IA en “Her”, lo que generó debates sobre las interacciones entre humanos y IA y sus implicaciones.
Sin embargo, el uso de plataformas de IA realistas, particularmente en contextos sensibles como la terapia y la educación, plantea preocupaciones éticas. Estos sistemas de IA “pseudoantrópicos” imitan rasgos humanos, creando conexiones emocionales y confianza con los usuarios. Con los avances en la tecnología de inteligencia artificial, como Opus Pro y Synthesia, que crean avatares realistas y clones de voz, aumenta el potencial de manipulación y falsificaciones engañosas. A medida que la IA se vuelve más capaz de imitar a los humanos, crece el riesgo de manipulación emocional y fraude.
Los especialistas en ética de la IA enfatizan la necesidad de precaución y supervisión humana, especialmente cuando están involucradas poblaciones vulnerables como los niños. El potencial de la IA para engañar y manipular ya está demostrado y, a medida que avanzan las capacidades, la amenaza de que la IA represente riesgos para la humanidad se vuelve más real. Es fundamental considerar las implicaciones éticas de estos avances y protegerse contra posibles daños causados por interacciones engañosas de la IA.