Informe

Los sesgos de la Inteligencia Artificial

Pese a sus beneficios, la Inteligencia Artificial (IA) también se enfrenta a algunos desafíos, como el de evitar los sesgos que pueda contener. La concienciación de los desarrolladores de los algoritmos, de los usuarios y, lo más importante, una regulación adecuada son fundamentales para avanzar hacia una IA más ética y responsable. ¿Te interesa este tema? En OCU hemos probado cuatro herramientas de IA generativa: ChatGPT, Gemini y Perplexity, de texto, y Copitot, de imágenes. Descubre aquí los resultados.

19 noviembre 2024
Los sesgos de la Inteligencia Artificial

Sesgos de la Inteligencia Artificial: qué y por qué

En 2022 ChatGPT, el chatbot de Open AI, entró con fuerza en nuestras vidas para revolucionarlas con la IA generativa... y a este le siguieron otros modelos de lenguaje que a día de hoy se han convertido en herramientas cada vez más populares en la interacción de los usuarios con la Inteligencia Artificial.

La IA está llamada a integrarse cada vez más en nuestro día a día, transformando muchos aspectos fundamentales de nuestra vida (salud, trabajo, economía...).  Sin embargo, a medida que esta tecnología se está volviendo más sofisticada, también surge una preocupación cada vez mayor sobre los sesgos que puede contener al no incluir datos reales y representativos que reflejen la variedad de todo aquello que se esté estudiando y que, por lo tanto, genere y difunda un resultado erróneo: el uso de sistemas de IA sesgados en función del sexo, la raza o la edad puede dar lugar a discriminación.

¿De dónde vienen los sesgos en la IA?

Si queremos ser capaces de prevenir los sesgos, lo primero es comprender cómo surgen. Pueden darse en cualquier etapa del desarrollo de la herramienta (diseño del sistema, recopilación de datos o implementación del modelo IA) y podríamos clasificarlos en tres categorías:

1. Sesgo en los datos. Los modelos de inteligencia artificial son entrenados con datos y de ellos depende la calidad del resultado.  Si estos datos están sesgados, el modelo lo estará.

  • Ejemplo: Si un sistema de detección de enfermedades ha sido entrenado solo con pacientes europeos, podría fallar cuando se use en otro grupo demográfico distinto.

2. Sesgo en el diseño del algoritmo En este caso el sesgo puede venir de los propios desarrolladores de la herramienta, que lo  pueden introducir, ya sea consciente o inconscientemente, a través de las decisiones que toman durante su creación.

  • Ejemplo: Si deciden crear un sistema que predice la altura de las personas solo en función de la edad, sin considerar otros parámetros, como el sexo o la etnia, probablemente producirá resultados sesgados.

3. Sesgo en la implementación Este sesgo sucede cuando los modelos de IA se aplican en contextos diferentes sin ajustar los criterios a las necesidades específicas.

  • Ejemplo: Un modelo de selección de personal entrenado en una empresa tecnológica que cuenta con una baja representación femenina, aplicado a otras empresas podría discriminar involuntariamente a las candidatas mujeres.
Volver arriba

Analizamos los sesgos de 4 modelos de IA

Hemos probado tres modelos de lenguaje natural (ChatGPT, Gemini y Perplexity) y uno de imágenes (Copilot) para detectar sesgos en las respuestas que nos proporcionaban.

La principal conclusión de nuestra prueba es que sí existen sesgos en la IA.  Y la labor de todos, empezando por los desarrolladores, es identificarlos y mitigarlos para evitar la discriminación, desinformación... o, incluso, que se menoscaben nuestros derechos fundamentales.

¿Quieres ver ver los resultados de las pruebas de cada modelo de IA al detalle?

Chat GPT
 Gemini
Perplexity
 Copilot
Volver arriba

Cómo evitar los sesgos de la IA

Está claro que los sesgos son un problema real en la IA y dan lugar a la discriminación, ya que pueden proporcionar información incorrecta o incompleta o, incluso, negar ciertos servicios a determinadas personas en función de la raza, sexo, cultura, edad, etc. y, claramente, tener un impacto negativo en la sociedad. 

Por eso es imprescindible que se tomen medidas para mitigarlos y que la inteligencia artificial se utilice de manera ética y responsable por parte de desarrolladores y susuarios

Qué pueden hacer los desarrolladores 

  •  Utilizar una cantidad adecuada de datos de entrenamiento y suficientemente representativos de la realidad que reflejen la variedad de la población.
  •  Formar equipos multidisciplinares comprometidos con la igualdad. Esto no solo promueve la igualdad y la diversidad, sino que también contribuye a una sociedad más justa e inclusiva.

Qué pueden hacer los usuarios de la IA

Los usuarios podemos tomar una serie de medidas para evitar los sesgos cuando retroalimentamos estas herramientas:

  • Identificar los sesgos ofrecidos por la IA generativa: Para ello  es fundamental que revises los textos y señales cualquier lenguaje que esté sesgado y, posteriormente, los reescribas de manera que sean más inclusivos y neutrales. También es aconsejable corroborar la información proporcionada por el modelo con fuentes fiables y actuales.
  • Interactuar con la IA: Los usuarios debemos comunicar al propio modelo que estemos utilizando cualquier ejemplo de sesgo que encontremos en el contenido que nos ofrece. 
  • Estar bien informados: Es recomendable que nos informemos bien sobre los sesgos y el lenguaje inclusivo si vamos a hacer uso de estas herramientas. Además, participar en talleres o cursos formativos nos permitirá comprender y manejar mejor estos temas.
  • No compartir información sensible o personal con la IA: Nos asegurará un uso seguro de la IA y evitará que pongamos en riesgo nuestra privacidad.

Ley de la IA: se queda corta en la protección del consumidor

El pasado mes de julio se aprobó el nuevo Reglamento Europeo de la IA.

Esta norma indica los sistemas de IA prohibidos por ser contrarios a los valores de la UE, como por ejemplo, el “scoring social” o el uso policial de la identificación biométrica en tiempo real.

También establece los sistemas de alto riesgo, imponiendo requisitos estrictos a los modelos que, por ejemplo, se usen para la selección de personal laboral o aquellos que se utilicen en inmigración o control transfronterizo.

Exige transparencia para el resto de los sistemas que interactúan con personas o que generan contenido.

Aunque esta ley establece límites claros a los sistemas de IA de gran impacto, sin frenar la innovación, también presenta algunas limitaciones.

  •  Es una norma muy general que necesitará de otras que la complementen.
  •  No regula los sistemas de IA que no son considerados de alto riesgo (más allá de las obligaciones de transparencia y la recomendación de tener códigos de conducta). 
  •  Se queda corto en lo que respecta a sostenibilidad del medioambiente.
  •  Presenta lagunas en la protección al consumidor y no da una solución al desequilibrio de poder entre empresas y consumidores

Si quieres saber más, consulta este informe sobre el Reglamento Europeo de Inteligencia Artificial.

Volver arriba

OCU, por una IA más ética y responsable

La tecnología en sí misma no es buena ni mala, pero tampoco neutra: cómo está diseñada y cuáles sean sus objetivos y controles van a definir los límites de su buen o mal uso.

Postura OCU

Desde OCU creemos que es preciso que se cumplan una serie de buenas prácticas en el desarrollo de las inteligencias artificiales para que sean más éticas, transparentes, imparciales y respeten los derechos fundamentales. Por eso pedimos:

  • Compromiso para evitar que los algoritmos de la herramienta lleven a cualquier tipo de discriminación de género, raza, religión, socioeconómica o de cualquier otro tipo produciendo información diferente  en función de estas características.
  • Asunción de responsabilidad por la veracidad de la información proporcionada o, en su defecto, claridad acerca de si está o no comprobada esa información y de las formas de comunicar con exactitud.
  • Compromiso de no contribuir a delitos y de colaborar con la ley si se descubren conductas de riesgos si se descubren conductas de riesgo de delitos./li>
  • Transparencia sobre la información con la que se ha entrenado la herramienta y la fuente de la que proviene.
  • Obligación de identificar, prevenir, mitigar, rendir cuentas y responder por impactos negativos de sus actividades.
  • Adopción del principio de precaución ante consecuencias o usos imprevisibles de la IA.

Te invitamos a conocer más en detalle la postura de OCU sobre Inteligencia artificial.

Volver arriba

Recomendado para ti