Unos meses después de graduarse de la universidad en Nairobi, un hombre de 30 años al que llamaré Joe consiguió un trabajo como anotador, el trabajo tedioso de procesar la información cruda utilizada para entrenar la inteligencia artificial. La IA aprende encontrando patrones en enormes cantidades de datos, pero primero esos datos tienen que ser clasificados y etiquetados por personas, una enorme fuerza laboral en su mayoría oculta detrás de las máquinas. En el caso de Joe, estaba etiquetando imágenes para coches autónomos, identificando cada vehículo, peatón, ciclista, todo lo que un conductor necesita saber, cuadro por cuadro y desde todos los ángulos posibles de la cámara. Es un trabajo difícil y repetitivo. Un clip de unos segundos tardó ocho horas en ser etiquetado, por lo que a Joe le pagaron alrededor de $10.
Luego, en 2019, surgió una oportunidad: Joe podría ganar cuatro veces más dirigiendo un campamento de anotación para una nueva empresa que buscaba etiquetadores. Cada dos semanas, 50 nuevos reclutas se presentaban en un edificio de oficinas en Nairobi para comenzar su aprendizaje. Parecía haber una demanda ilimitada de trabajo. Se les pediría que categorizaran la ropa vista en selfies, miraran a través de los ojos de los robots aspiradores para determinar en qué habitaciones estaban y dibujaran cuadrados alrededor de los escaneos lidar de las motocicletas. Más de la mitad de los estudiantes de Joe solían abandonar antes de que terminara el campamento. "Algunas personas no saben cómo quedarse en un lugar por mucho tiempo", explicó con una graciosa subestimación. Además, reconoció, "es muy aburrido".
Pero era un trabajo en un lugar donde los trabajos eran escasos, y Joe graduó a cientos de estudiantes. Después del campamento, regresaron a casa para trabajar solos en sus dormitorios y cocinas, prohibidos de decirle a nadie en qué estaban trabajando, lo que realmente no era un problema porque rara vez lo sabían ellos mismos. La etiquetación de objetos para coches autónomos era obvia, pero ¿qué hay de categorizar si los fragmentos de diálogo distorsionados fueron hablados por un robot o un humano? ¿Subir fotos tuyas mirando a una cámara web con expresión neutra, luego sonriendo, luego usando un casco de motocicleta? Cada proyecto era un componente tan pequeño de algún proceso más grande que era difícil decir para qué se estaba entrenando en realidad a la IA. Tampoco los nombres de los proyectos ofrecían ninguna pista: Crab Generation, Whale Segment, Woodland Gyro y Pillbox Bratwurst. Eran nombres de código no secuenciales para un trabajo no secuencial.
En cuanto a la empresa que los emplea, la mayoría solo la conocía como Remotasks, un sitio web que ofrece trabajo a cualquier persona que hable inglés. Al igual que la mayoría de los anotadores con los que hablé, Joe no sabía hasta que se lo dije que Remotasks es la filial del trabajador de una compañía llamada Scale AI, un proveedor de datos de Silicon Valley multimillonaria que cuenta entre sus clientes a OpenAI y al ejército estadounidense. Ninguno de los sitios web de Remotasks o Scale menciona al otro.
Gran parte de la respuesta pública a los modelos de lenguaje como el ChatGPT de OpenAI se ha centrado en todos los trabajos que parecen estar automatizados. Pero detrás incluso de los sistemas de IA más impresionantes hay personas, una gran cantidad de personas que etiquetan datos para entrenarlos y aclaran datos cuando se confunden. Solo las compañías que pueden permitirse comprar estos datos pueden competir, y aquellos que los obtienen están altamente motivados para mantenerlos en secreto. El resultado es que, con pocas excepciones, se sabe muy poco sobre la información que da forma al comportamiento de estos sistemas, y se sabe aún menos sobre las personas que los moldean.
Para los estudiantes de Joe, era un trabajo despojado de todos sus adornos normales: un horario, colegas, conocimiento de en qué estaban trabajando o para quién estaban trabajando. De hecho, rara vez lo llamaban trabajo en absoluto, solo "asignación de tareas". Eran asignadores de tareas.
El antropólogo David Graeber define los "trabajos de mierda" como empleos sin significado o propósito, trabajos que deberían ser automatizados, pero por razones de burocracia, estatus o inercia no lo son. Estos trabajos de IA son su extraña pareja: trabajos que la gente quiere automatizar, y a menudo piensa que ya están automatizados, pero que todavía requieren un humano como sustituto. Los trabajos tienen un propósito; es solo que los trabajadores a menudo no tienen idea de qué se trata.
El auge actual de la IA, los chatbots que suenan convincentemente humanos, las obras de arte que se pueden generar a partir de simples sugerencias y las valoraciones multibillonarias de las empresas detrás de estas tecnologías, comenzó con un logro sin precedentes de trabajo tedioso y repetitivo.
En 2007, la investigadora de IA Fei-Fei Li, entonces profesora en Princeton, sospechó que la clave para mejorar las redes neuronales de reconocimiento de imágenes, un método de aprendizaje automático que había estado languideciendo durante años, era entrenar con más datos, millones de imágenes etiquetadas en lugar de decenas de miles.