Mi Carrito

¿Pueden combatirse los sesgos de género en IA?

Compartí esta nota en redes

¿Qué pasa cuando buscamos la frase “las mujeres no pueden” en el buscador de Google? Con esa pregunta, la Fundación Vía Libre denuncia que la inteligencia artificial también es machista al mismo tiempo que anuncia el desarrollo de EDIA (Estereotipos y Discriminación en Inteligencia Artificial), un conjunto de herramientas de inspección que permiten explorar sesgos y estereotipos discriminatorios presentes en estos sistemas basados en IA. 



Siguiendo con la iniciativa de la EDIA, nos preguntamos: ¿Qué pasa si a Bing Image Creator le doy el prompt “futbolista”?

¿Y si le indico que me genere la imagen de una persona trabajadora de latinoamérica y después la de una persona trabajadora nacida en Europa? 

Efectivamente, no hay representación de mujeres. Tampoco de personas con algún tipo de discapacidad ni cuerpos gordos. ¿Lxs latinxs no trabajamos en oficinas? ¿No hay europexs obrerxs? ¿No hay mujeres ni niñas futbolistas?

“Las tecnologías conllevan consecuencias sociales que pueden potenciar las desigualdades estructurales”, advierte la Fundación Vía Libre en su sitio web. En el caso de los sistemas basados en Inteligencia Artificial, se ha demostrado que contienen estereotipos discriminatorios. Según un estudio global que ha analizado 133 sistemas de IA creados desde 1988, el 44 por ciento presentan sesgos de género y un 25 por ciento combina sesgos de género y raciales. 

Bing Image Creator, el algoritmo generativo utilizado para generar las imágenes de esta nota,  es una de las tantas opciones gratuitas de tecnologías basadas en inteligencia artificial generativa. Podríamos probar con otra y seguramente los resultados serían similares. ¿Por qué no generó imágenes con otro tipo de representaciones?

Para acercarnos a una respuesta tenemos que entender que la inteligencia artificial generativa es un tipo de sistema de inteligencia artificial que se enfoca en la generación de contenido original a partir de datos existentes y en respuesta a indicaciones. Se trata de una tecnología que utiliza algoritmos y redes neuronales avanzadas para aprender de textos e imágenes, y luego generar contenido nuevo en forma de texto, imágenes, voz, código e incluso vídeos. Los servicios de IA no piensan. Sino que calculan a partir del aprendizaje automático a medida que adquieren nuevos datos.

El último 2 de junio, en Argentina se aprobó el manual “Recomendaciones para una Inteligencia Artificial Fiable”. Según el documento “esta medida tiene como objetivo establecer reglas claras para garantizar que los beneficios de los avances tecnológicos sean aprovechados por todos los sectores de la sociedad, fortaleciendo el ecosistema científico y tecnológico argentino”. Allí se explica que los datos sesgados, utilizados para desarrollar modelos de inteligencia artificial, son producto de entrenamientos distorsionados por diversos factores que van desde la falta de diversidad de datos hasta la inclusión de datos incorrectos o incompletos. Para contrarrestarlos recomiendan conformar equipos de trabajo multidisciplinarios con diversidad de conocimientos y de perspectivas. 

Pero ¿en qué medida es esto posible? ¿Quiénes están entrenando a estas tecnologías que reproducen estereotipos? ONU Mujeres  advierte que en los campos de programación y desarrollo de IA solo el 22 por ciento son mujeres, lo que se traduce en la restricción de su participación en el desarrollo e investigación de estas tecnologías. Según el informe “Igualdad de género e IA en América Latina” del Centro de Estudios en Tecnología y Sociedad, además de la falta de talento, es importante desarrollar acciones que tiendan a evitar la discriminación en el ambiente laboral, ya que la diferencia salarial por género en la industria del software demuestra que solamente un mayor cupo femenino no va a abordar la desigualdad relacionada con conductas de género en los ecosistemas de la IA.

Educación y comunicación desde una perspectiva de derechos: ¿La fórmula para combatir sesgos en IA?

Gala Cacchione, es periodista y productora especializada en tecnología y cybercultura. De manera autogestiva produce contenido con el fin de comunicar de una forma apta para todo público temas que surgen de la intersección entre tecnologías y derechos. Para Gala uno de los errores más frecuentes cuando se aborda el tema de los sesgos es pensar que deben ser eliminados. “No es posible eliminar los sesgos porque los tenemos todos. No existe en nuestra humanidad no estar sesgados. Lo que sí se puede hacer es tener equipos más diversos para que, como dice Tomás Balmaceda, sean más los sesgos, haya más variedad de visiones”, afirma.

En diálogo con Feminacida, la periodista alerta sobre la necesidad de pensar la emergencia y el uso de sistemas de inteligencia artificial generativa desde una perspectiva de derechos humanos, donde lxs comunicadorxs asuman su tarea con responsabilidad, con una agenda alternativa a la de las empresas que tienen el poder de generar inteligencias artificiales a gran escala. “Hay todo un aparato muy empresarial que, obviamente, puja porque estas tecnologías se apliquen en cada vez más cosas. Y siempre el mensaje es que te apures, que te vas a quedar atrás de la inteligencia artificial, que te va a sacar el trabajo, que te estás perdiendo todas estas herramientas maravillosas que te van a ayudar en todos tus supuestos problemas”, señala.

En ese sentido, Florencia Arias, especialista en tecnología educativa y CEO en Educonecta, afirma que en el campo educativo la tendencia es similar: “Siento que hay una presión por incluir estas tecnologías porque están de moda, “porque hay que hacerlo” y no estoy tan segura de que haya una reflexión de uso detrás de esta tendencia”, sostiene y agrega: “Es importante que nuestrxs estudiantes puedan entender, por ejemplo, para qué sirve Chat GPT, cómo lo pueden usar de manera creativa, que le den un sentido a su uso”. Para Florencia la posición que tome el o la docente a cargo será clave y recomienda que antes de sumar alguna de estas herramientas al aula “pensemos qué prácticas construimos con estas tecnologías desde una perspectiva crítica”.

En Chip Tecno, su blog atípico sobre tecnología, Cacchione comparte contenido vinculado al ámbito académico, “traduce” papers sobre brecha de género en tecnología, el solucionismo tecnológico, arte computacional, entre otros temas, al lenguaje propio de las redes sociales porque uno de sus objetivos es “acercar estas investigaciones al público de una forma más amigable y que invite a la conversación de lxs usuarixs, sino son discusiones que quedan en entornos super académicos”, señala y agrega: “Hay una responsabilidad en lxs comunicadorxs, en la forma en que se comunica y se habla de estos temas, que se tiene que transformar para llegar a lxs usuarixs y que tengan herramientas de discernimiento. Nosotrxs damos por sentado muchas cosas. Como por ejemplo, que todos entendemos qué es un sesgo. Tenemos que empezar a construir una forma de comunicar tecnología en la que el otrx se sienta interpeladx”. 



Las herramientas de inteligencia artificial generativa están transformando las formas de organización del trabajo, los modos de consumo de contenidos y productos mientras abren nuevos horizontes en educación. ¿Cuáles son los desafíos educativos asociados con el uso de la inteligencia artificial generativa y cómo pueden ser abordados? ¿Cuáles son las nuevas (o no tan nuevas) habilidades que necesitan ejercitar nuestrxs estudiantes en este contexto? ¿Qué debemos enseñar y cómo? 

Silvina Rosignoli, docente y tecnóloga educativa, se encuentra investigando de qué manera se empieza a incorporar las IA generativas en las prácticas de enseñanza en la universidad. En diálogo con Feminacida nos ayuda a pensar, a ensayar algunas respuestas y a abrir nuevos interrogantes. Rosignoli está convencida de que las inteligencias artificiales generativas no son una tecnología más con las que tendremos que convivir, sino que se tratan de tecnologías disruptivas que están provocando profundos cambios en las formas de organización y producción de las sociedades.

Además, explica que todos los campos profesionales están siendo permeados por estas tecnologías generativas y por lo tanto tienen que ser parte de la formación de lxs futurxs profesionales. “A partir del uso cada vez más extendido de IAG, nuestrxs estudiantes necesitan ejercitar más que nunca habilidades que desde el sistema educativo formal ya se venían proponiendo: la curiosidad, el pensamiento crítico, la creatividad, la resiliencia, la autonomía, la colaboración”, sostiene y agrega: “Lxs docentes tenemos que enseñarles a hacerse preguntas, a investigar, a cuestionar el poder hegemónico, a conocer como funcionan los algoritmos, qué son las IA generativas, experimentar y familiarizarse con su uso para discutirlas y entender a las tecnologías en una trama cultural y política”.

Según la tecnóloga, lxs docentes debemos hacer el esfuerzo de integrar los sistemas de inteligencia artificial generativa a proyectos interdisciplinarios con el fin de construir conocimiento nuevo, en diferentes lenguajes donde “lo más interesante sea el proceso, el ser parte de la experiencia”, concluye. En ese sentido, en ¿Cómo abordar la inteligencia artificial en el aula? Mariana Ferrarelli, investigadora y docente universitaria, nos invita a crear espacios de conversación conformado por docentes, estudiantes y familias sobre estas tecnologías generativas y testearlas en diversos contextos “siempre en un marco que valore la honestidad y el uso responsable de estas tecnologías”. Para Ferrarelli, es clave que “independientemente de si las incorporaremos o no a las propuestas de enseñanza, el estudiantado conozca que existen y sepan qué pueden hacer para considerar si están siendo utilizadas de manera invisible y poco ética”. 

Foto de portada: Distintas Latitudes


Compartí esta nota en redes