1. TechCrunch está lanzando una serie de entrevistas para destacar a las mujeres que han contribuido a la revolución de la IA.
2. Ewa Luger es una figura clave en el campo de la IA y se centra en cuestiones sociales, éticas e interaccionales en sistemas basados en datos.
3. Los desafíos en la industria tecnológica dominada por hombres, el impacto ambiental de los modelos de IA a gran escala y la necesidad de una gobernanza responsable de la IA son cuestiones apremiantes en el campo de la IA.
TechCrunch está lanzando una serie de entrevistas destacando a mujeres que han hecho contribuciones significativas a la revolución de la IA para darles el reconocimiento que merecen. Ewa Luger, codirectora del Instituto de Informática de Diseño y del programa BRAID, se centra en cuestiones sociales, éticas e interaccionales en los sistemas de IA. Ha trabajado con formuladores de políticas y la industria para abordar inquietudes relacionadas con el diseño, la distribución de energía, la exclusión y el consentimiento del usuario.
El trabajo que más le enorgullece a Luger incluye un artículo sobre la experiencia del usuario de los asistentes de voz y su trabajo continuo con el programa BRAID cuyo objetivo es crear un ecosistema de IA responsable en el Reino Unido. Ella enfatiza la importancia de incorporar el conocimiento de las artes y las humanidades en las políticas y regulaciones de IA para evitar daños potenciales. BRAID ha financiado múltiples proyectos y planea abordar la alfabetización en IA, los espacios de resistencia y los marcos de recurso.
Al navegar por la industria tecnológica dominada por los hombres, Luger destaca los estándares y expectativas más altos que se imponen a las mujeres, así como la necesidad de salir de su zona de confort y establecer límites firmes. Ella aconseja a las mujeres que ingresan al campo de la IA que busquen oportunidades que les permitan subir de nivel y que no tengan miedo de presentarse para roles para los que tal vez no se sientan completamente calificadas.
Los problemas más apremiantes que enfrenta la IA giran en torno a los daños potenciales de los sistemas de IA, el impacto ambiental de los modelos a gran escala y la necesidad de regulaciones para seguir el ritmo de las innovaciones de la IA. Luger enfatiza la importancia de la confianza, la veracidad y la autenticidad en el uso de la IA, así como la necesidad de abordar los sesgos y garantizar una gobernanza y pruebas de estrés adecuadas de los sistemas de IA.
Para construir IA de manera responsable, Luger recomienda diversificar el campo, capacitar a los arquitectos de sistemas en cuestiones morales y sociotécnicas, involucrar a las partes interesadas en la gobernanza y el diseño, e implementar mecanismos de exclusión voluntaria, impugnación y recurso. Ella cree que los inversores deberían priorizar la IA responsable para generar confianza con los usuarios y evitar daños potenciales, enfatizando la alineación de valores e incentivos para impulsar una IA responsable.