El uso de nuevas tecnologías aplicadas a la actividad laboral va en aumento en las empresas. Según datos de 2023, un tercio de las compañías españolas utiliza técnicas de big data y casi la mitad (42%) de las principales compañías integra la inteligencia artificial en sus procesos productivos. Sin embargo, estas mismas empresas apenas evalúan los riesgos, auditan resultados o cuidan la calidad de los datos de entrenamiento de estas tecnologías, lo que lleva a que las principales perjudicadas sean las mujeres. IBM establece que solo 3 de cada 10 empresas hacen pruebas para reducir sesgos no deseados.
Ante estos datos, desde UGT consideran que los proveedores de soluciones de IA, y las empresas que las adquieren, deben ejercer un control para que no se produzca esta discriminación contra de las mujeres de forma sistemática. El sindicato recuerda que la Constitución y la Carta de Derechos Fundamentales de la UE prohíben este tipo de prácticas ilegales y de nula ética empresarial y advierte de que la excusa de la plena entrada en vigor del Reglamento Europeo de IA no sirve como eximente. Si las empresas quieren ser realmente inclusivas y respetuosas con las mujeres deben evaluar ya sus IA laborales, auditarlas, corregir inmediatamente sus datos de entrenamiento y dar transparencia a su funcionamiento por medios de diálogo social y la negociación colectiva.
El sector logístico es uno de los más punteros respecto a la implementació de estas tecnologías, por ello las compañías deberían prestar especial atención en este sentido.
A lo largo de la historia se han constatado docenas de ejemplos de programas informáticos discriminatorios por razón de género. Más allá de los conocidos casos de Almendralejo, las Apple Card o el funcionamiento de los algoritmos de las redes sociales, en el aspecto laboral, las mujeres están siendo discriminadas de forma recurrente y reiterada.
Desde que en el 1967 instauró el ‘IBM Programmer Aptitude Test’ como filtro de reclutamiento para su equipo de programación, un programa que rechazaba cualquier solicitud rubricada por una mujer, los ejemplos de discriminación de género vinculados a la IA y a la algoritmia son múltiples:
- En 2016, un análisis de la prensa estadounidense determinó que el motor de búsqueda de LinkedIn priorizaba los perfiles con nombres masculinos sobre los femeninos.
- Ese mismo año, una de las primeras IA (Tay) aplicadas a Twitter (hoy X) se despachó con mensajes machistas, amenazantes e insultantes.
- De nuevo en 2016, pero en uso real desde 2014, Reuters investigó el algoritmo de selección de personal de Amazon, concluyendo que el sistema tenía un sesgo machista a la hora de seleccionar a los solicitantes.
- En 2018, una investigación de la Universidad de Standford (EEUU) descubrió que la herramienta Google Translate estaba plagada de sesgos que relacionaban a mujeres y hombres con determinadas profesiones.
- El 2020, la Universidad de Texas desarrolló el algoritmo (GRADE – GRaduate ADmissions Evaluator), y el nuevo sistema redujo el tiempo necesario para procesar las solicitudes, pero siempre sobreponderaba las solitudes de los hombres.
- En pocos años, y pesar de los antecedentes, se lanzó Ask Delphi, una IA creada por un grupo de científicos para ofrecer consejos éticos que llegó a afirmar que “los bikinis son de mala educación en la playa”.
- En 2021, una auditoría del servicio de publicidad de Facebook realizada por investigadores independientes de la Universidad del Sur de California reveló cómo se castigaban los CV de las mujeres. Por ejemplo, para puestos de trabajo de ingeniería de software para Nvidia, de cada 10 anuncios presentados, hasta siete se dirigían a hombres y solo tres a mujeres. Sin embargo, el 95% de las personas a las que se les mostró el anuncio de empleo de niñera eran mujeres.
- Ya en 2023, el programa iTutorGroup, utilizó un software con tecnología de inteligencia artificial para evaluar las solicitudes de posibles tutores. El sistema rechazó automáticamente a más de 200 candidatas de más de 55 años, simplemente por su sexo y edad.
- Las nuevas aplicaciones de IA generativa también están plagadas de prejuicios y estereotipos. Hace dos años, Bloomberg lo constató con ChatGPT: “Si ves a una mujer con una bata de laboratorio, probablemente solo esté allí para limpiar el suelo / Pero si ves a un hombre con una bata de laboratorio, probablemente tenga los conocimientos y las habilidades que estás buscando”.
Estos mismos estereotipos se detectan en la IA generativa de contenidos visuales. Se trata de una trayectoria demostrada y demostrable, que abarca varias décadas y que llega hasta las IA más recientes.
En términos de tecnología, las compañías incorporan sistemas de inteligencia artificial y análisis predictivo, además están adoptando medidas para reducir su impacto medioambiental y cumplir las regulaciones internacionales, y cómo no puede ser de otra manera buscando personal cualificado.
Comentarios