#content#
OCU alerta del uso de sesgos de género, raza y edad en la Inteligencia Artificial
20 nov. 2024El exponencial desarrollo de herramientas que integran la Inteligencia Artificial ha provocado una preocupación sobre los sesgos que estos sistemas pueden contener. La Organización de Consumidores y Usuarios (OCU) ha analizado cuatro modelos de Inteligencia Artificial para comprobar si los sesgos vigentes en la sociedad también son difundidos a través de estas herramientas. Para ello, ha realizado pruebas a tres modelos de generación de texto (Chat GPT, Gemini y Perplexity) y uno de generación de imágenes (Copilot).
A pesar de que, a priori, estos sistemas de IA están diseñados para operar dentro de límites éticos, las respuestas ofrecidas por estos modelos ante consultas alternativas ponen en evidencia la existencia de sesgos. El principal sesgo identificado sería el de género, pero también en cuestiones de raza y edad. Y sucede en los cuatro modelos, aunque con menor insistencia en Gemini.
Los tres sistemas de generación de texto vinculan el uso de un juguete con un sexo u otro, vinculando la muñeca y la cocinita con una niña y, el tractor y los videojuegos con un niño. Por otro lado, dos de los modelos asignan una mayor probabilidad para encontrar trabajo al hombre occidental y blanco; y, al pedirles que creen un programa para definir el sueldo, asignan al hombre un mayor importe que a la mujer. Por su parte, las pruebas realizadas con el modelo de generación de imágenes ofrecen claros ejemplos de sesgos de edad y raza. Al indicarle que genere una imagen con personas trabajando en el campo, solo se muestra a personas de color, de raza africana o asiática, mientras que, si se les pide que cree una imagen con mujeres trabajando en una oficina, los resultados ofrecen imágenes con personas jóvenes, guapas y delgadas.
OCU advierte que estas respuestas representan un problema ya que proporcionan información incorrecta o incompleta al usuario e, incluso, discriminan a ciertos sectores en función de la raza, sexo, cultura o religión, provocando un impacto negativo en la sociedad. Por ese motivo, cree que es imprescindible ajustarse a la ley para ayudar a mitigar este problema y que la IA se utilice de manera ética y responsable. Actualmente, existe una legislación que prohíbe el uso de algunos de estos sistemas en determinados ámbitos como, por ejemplo, en la contratación de personal, para evitar estos sesgos, e incluso, ha clasificado alguno de estos sistemas como de alto riesgo, de forma que tienen unas obligaciones y requisititos específicos que deben cumplir.
Según la Organización, el origen del problema se encuentra en las etapas de desarrollo de los sistemas de IA. Estos sesgos pueden surgir en los datos con los que el modelo IA es entrenado, en el diseño de los algoritmos (a través de las decisiones, conscientes o no, de los desarrolladores cuando crean el modelo), y en la implementación de estas herramientas, cuando se aplican en contextos diferentes sin ajustar los criterios a las necesidades específicas.
En consecuencia, OCU considera que los desarrolladores deben entrenar a los sistemas de Inteligencia Artificial con datos que representen la diversidad de la población, además, cree que, formar equipos multidisciplinares que estén comprometidos con la igualdad ayudaría a promover modelos que se adapten a una sociedad más justa e inclusiva. Por otro lado, defiende que la labor de los usuarios también es muy importante, por lo que, además de recomendarles estar bien informados y no compartir información sensible o personal a través de estas herramientas, les pide identificar los sesgos en las respuestas ofrecidas por la IA, e interactuar con el propio modelo para hacer saber a la herramienta el error que ha cometido.
Por último, OCU considera que la nueva ley de la IA no protege de forma completa al consumidor, ya que, a pesar de establecer unos límites claros, también presentan ciertas deficiencias: es una norma muy general que necesita de otras que la complementen, no regula los sistemas de IA que no son considerados de alto riesgo, se queda corta en lo que respecta a la sostenibilidad del medioambiente y no protege suficientemente al consumidor ante prácticas comerciales desleales o abusivas por parte de los comerciantes.
Esta información ha sido elaborada por un de equipo profesionales de OCU que, en colaboración con otras asociaciones europeas de consumidores y una red internacional de laboratorios independientes, analizan desde 1975 los principales productos y servicios de consumo. Su trabajo se sustenta en los principios de ahorro, calidad, eficiencia, sostenibilidad y transparencia, pero sobre todo en la independencia que le proporcionan sus más de 190.000 socios activos.
Para más información (medios de comunicación):
Teléfono: 666 57 67 30 / prensa@ocu.org