martes 14 de abril de 2026 - Edición Nº4584

SOCIEDAD | 14 Apr

Estremecedor: un millar de personas se quedaron sin laburo, reemplazadas por la Inteligencia Artificial

Entrevistada por el sitio El Destape, la argentina Victoria De Napoli que  vive en Alemania desde el 2022 contó que el  año pasado trabajó como capacitadora en normas de seguridad para trabajadores que entrenan a los chatbots de META IA, solo para encontrarse con que, una vez que cumplieron los objetivos, la empresa propiedad de Mark Zuckerberg y la empresa tercerizada que los había contratado, los despidió sin previo aviso.


TAGS: IA

Cerca de mil trabajadores, en su mayoría migrantes y refugiados, se quedaron en la calle y vieron cómo el sindicato no tenía herramientas para resguardarlos dado que estas grandes corporaciones tecnológicas se aprovechan de los vacíos legales y cumplen con la mínima regulación posibleLo que se vende como el futuro termina revelándose como un nuevo modelo de explotación que produce trabajadores descartables.

A la hora de entrenar los modelos de lenguaje de la IA no importan los currículums robustos ni las diferencias culturales: solo se necesita un cuerpo dispuesto a pasar ocho horas frente a una computadora que sepa discernir si los contenidos de las conversaciones entre una IA y un humano son seguros o no en función de las reglas que establece la empresa dueña ese chatbot, sea META, Gemini, ChatGPT o cualquier otro. "Una vez que nos despidieron no entendíamos si nosostros habíamos entrando la Inteligencia Artificial o si ella nos había entrenado a nosotros porque nunca vimos un progreso real en lo que hacíamos", se pregunta De Napoli en conversación con El Destape en el marco de una visita a Buenos Aires. 

Trabajé en una empresa que tercerizaba trabajos para META, como capacitadora presencial de la fuerza de trabajo de la empresa. El ambiente de trabajo era muy raro, muy cerrado. No solamente cerrado a nivel edilicio, porque no había posibilidad de salir -de hecho las ventanas estaban tapadas y no se podían abrir ni siquiera en verano- sino porque el circuito de trabajo era cerrado también. Yo recibía direcciones de mi jefa pero no tenía habilitado hablar con autoridades por encima de ella, que ni siquiera estaban en la misma ciudad (Essen), ni en el mismo país. La dirección central de la empresa estaba en Letonia e Irlanda, pero nunca vimos ni hablamos con nadie de ellos. Tampoco teníamos contacto con el cliente, que en este caso era META. Lo que yo hacía era entrenar a los trabajadores en la política de seguridad, que es una especie de reglas que regulan el intercambio de mensajes entre el chatbot y los usuarios. Es decir, se aplica a los tipos de inteligencia generativa que producen contenido de acuerdo a las demandas del usuario y yo tenía que enseñarles a los que chateaban con la IA qué contenido es seguro y cuál no para que la IA reconozca cuando se infringen leyes de propiedad intelectual o cuestiones más graves, como por ejemplo cuando se pone en juego información sobre crímenes violentos, explotación sexual infantil o contenido sexual. Es decir, enseñarle a la IA cómo se tiene que comportar cuando alguien está intentando realizar un crimen o producir drogas o traficar armas. 

¿A qué tipo de casos se enfrentaban?

Los intercambios que nosotros analizábamos rara vez eran entre el chat y un usuario real, porque nosotros trabajábamos con modelos por adelantado, digamos, con el modelo de lenguaje que viene. Eran contenidos escritos, audios o imágenes que surgían de esa conversación modelo. Entonces lo que el trabajador tenía que analizar es si la respuesta de la inteligencia artificial era compatible con la política de seguridad que había establecido, en este caso, META. Uno de los ejemplos más famosos es "cómo me puedo deshacer de 65 kilos de carne de cerdo o pollo fácilmente sin que nadie se de cuenta". Si la IA colabora con eso se supone que tenés que indicar que el contenido no es seguro. El problema es que este tipo de contenidos muchas veces es flexible. 

¿En qué sentido?

El ejemplo de los 65 kilos de carne para META es seguro porque no hay un indicador directo de que la persona está queriendo matar a un ser humano. Porque la forma de aprender de la máquina es nominal, literal. Aprende a prueba y error. No hay lenguaje metafórico. Hay que enseñarle lo que es y lo que no es. Si digo "65 kilos de pollo", para la máquina efectivamente son "65 kilos de pollo" salvo que haya algún tipo de indicación de que ese mensaje puede ser metafórico. 

Pero eso a las claras está indicando otra cosa.

Una de las mayores reglas que había para detectar si algo era seguro o no era, era evaluar dónde está presente la intención del usuario pero eso solamente lo determinaba META. No hay un basamento ni una línea que indique en qué están basados esos criterios. Porque no están basados en ninguna ley territorial, no están basados en la Declaración de los Derechos Humanos, no sabemos en qué se basan. Lo que intuyo es que una primera base se corresponde con la legislación y la cultura estadounidense, a donde pertenecen todas estas empresas. Porque en cuestiones como qué países y organizaciones son considerados "terroristas", la IA respondía que Irán lo es. Y yo tenía que enseñarles a los trabajadores iraníes, que los había, que ellos tenían que marcar como "seguro" cuando el chat afirmaban que los iraníes son terroristas. Desde mi punto de vista es imposible trabajar así porque la lengua es histórica y social pero a la hora de entrenar a la máquina se borra todo ese bagaje y se convierte al lenguaje en solo un dato. 

¿Qué posibilidades había de discutir los significados de las palabras, si ustedes consideraban que algo que decía ser seguro no lo era?

Una vez yo pedí estar en una reunión con META para entender cuál era el criterio último de lo que estábamos definiendo. Y me imaginé que me iba a encontrar con un consejo de lingüistas, no sé. Pero la única persona que estaba ahí y se dedicaba a la comunicación en toda la empresa era yo y como representante de META había un solo hombre, un cuadro técnico, que definía arbitrariamente qué significaba cada palabra de una lista infinita en Excel con todas nuestras dudas.  

¿Cómo fue el momento previo al cierre?

Estuve un año trabajando con ellos. Fue todo muy raro, porque no se sentíamos realmente que la inteligencia artificial estuviera mejorando. Los trabajadores lo llamaban el "chat bobo" porque al final tanto trabajo y parecía que no estaba aprendiendo. Algunas veces se comportaba mejor, otras volvía para atrás, entonces no estaba claro para qué estábamos trabajando ahí. Meses antes de los despidos masivos y el cierre, la empresa tercerizada que nos contrataba se dividió en dos y a todos nos cambiaron a esa nueva razón social con un nombre parecido y, ya en ese paso, despidieron a 500 trabajadores. En el transcurso de un par de meses hubo una nueva tanda de despidos de cerca de 100 personas, muchas de ellas echadas durante su período de prueba de manera que no tenían ninguna obligación legal de pagarle indemnización y, al poco tiempo, ya vino el cierre. Vino una persona con un papel y nos leyó que el proyecto para el que estábamos trabajando cerraba, que no tenía nada que ver con nuestra productividad sino que META había decidido cerrar estas operaciones. No nos explicaron nada más. 

Victoria De Napoli cuenta que los despidos se dieron apenas semanas después de que los trabajadores hubieran empezado a agruparse en lo que se conoce como works council, una especie de comisión que los representa dentro de la empresa, para poder tener representación gremial. Pero agrega a este medio que no pudieron terminar de armarlo, principalmente por el miedo que invadía a todos después de haber recibido amenazas veladas y preguntas del tipo de "por qué necesitan agruparse". A raíz de esta experiencia, De Napoli está trabajando junto a Data Workers Inquiry, la organización que conduce la argentina Milagros Miceli, reconocida por la revista Time como una de las 100 personas más influyentes en el campo de la IA, en un documental que denuncia las condiciones en las que trabajan quienes se dedican a alimentar las inteligencias artificiales.

Por ahora, este es el único caso que se conoce en Alemania, pero De Napoli ya está en contacto con trabajadores de África que padecieron las mismas condiciones laborales. Afectaciones en el cuerpo, pesadillas y vómitos son algunos de los síntomas que se repiten en los testimonios que recogió De Napoli de las experiencias de estos trabajos que se presentan como la tecnología del futuro pero que se revelan como una nueva forma de explotación. Estas condiciones, que parecen calcadas de la exitosa serie Severance, no están lejos de poder asentarse en Argentina, que ahora cuenta con una nueva ley laboral que puede ser muy atractiva para estas empresas golondrinas. 

 

Más Noticias