Pulido y vacío: la IA como amplificador de lo que ya éramos
Un profesor de Wharton dice que las empresas tratan la inteligencia artificial como software normal. Investigadores de Stanford le pusieron nombre al resultado: workslop. Los dos argumentos describen el mismo problema desde extremos distintos y llegan a la misma conclusión incómoda. Por Alicia Bañuelos
Hay una imagen en el artículo de Ethan Mollick, profesor de Wharton y uno de los analistas de IA más leídos del momento, que vale la pena citar antes de discutirla: las empresas, dice, reciben la inteligencia artificial como si fuera un misterioso artefacto alienígena y su primera decisión es usarlo de pisapapeles. La imagen es buena. Lo que Mollick no agrega —quizás porque ningún artículo de The Economist puede permitirselo— es que en la historia real de los artefactos alienígenas, el departamento que los recibe primero los clasifica, los blinda, convoca una reunión interdisciplinaria para verificar si cumplen con las políticas de seguridad de la información y los devuelve al área de sistemas para evaluación de viabilidad.
Eso es, exactamente, lo que está pasando. Y tiene consecuencias medibles.
El error de fondo, según Mollick, es tratar la IA como software convencional. El software tradicional es determinista: introduces un dato y obtienes un resultado previsible basado en reglas fijas. La IA es probabilística. No ejecuta instrucciones; genera respuestas. Cuando las organizaciones intentan encasillarla bajo los mismos protocolos que usaban para aprobar una actualización de Excel —asignarle un KPI¹, pasarla al área de TI, blindarla con políticas de seguridad diseñadas para otra cosa— el resultado predecible es una herramienta potencialmente transformadora convertida en procesador glorificado de minutas.
La diferencia entre el slop de redes sociales y el workslop laboral es una sola: el primero se puede ignorar. El segundo llega con el membrete de la empresa y obliga a hacer algo con él.
El mecanismo es preciso y tiene nombre técnico: transferencia cognitiva. Quien delega en la IA sin revisar el resultado no elimina trabajo del sistema, lo desplaza. El esfuerzo que el emisor se ahorró al no pensar el documento se le cobra con intereses al receptor, que ahora tiene que descifrar qué parte del texto es veraz y cuál es una alucinación del modelo, detectar errores de contexto que la máquina no comprende, inferir la intención real sepultada bajo párrafos de relleno, y en muchos casos rehacer el trabajo desde cero. Los investigadores lo llaman un “impuesto cognitivo” que se cobra aguas abajo, en silencio, sin que aparezca en ningún presupuesto de transformación digital.
El dato del MIT no es un detalle menor: no es que las empresas estén usando mal una tecnología que sí funciona para otros. Es que casi nadie está viendo retorno, y el workslop es, según los investigadores de Stanford, uno de los mecanismos que explican por qué. El fenómeno tiene además una dimensión social que los datos revelan con inusual precisión: el 50% de quienes reciben workslop percibe al emisor como menos creativo, menos capaz y menos confiable. Y sin embargo —aquí el dato que incomoda— el 18% de los propios usuarios de IA admite haber enviado contenido que sabía era de baja calidad. La gente condena lo que también hace.
EL MODELO QUE NO FUNCIONA DONDE MÁS SE NECESITA
Mollick propone tres pilares para evitar que la IA se convierta en fábrica de desperdicio. En teoría, suenan razonables. En la práctica, describen con notable precisión lo que las organizaciones disfuncionales llevan décadas prometiendo hacer y nunca hacen.
El límite real del argumento de Mollick es que su modelo funciona en organizaciones que ya tienen los recursos, la madurez institucional y el liderazgo capaz de ejecutarlo. Las que no los tienen —que son, estadísticamente, la mayoría— reciben el diagnóstico correcto y la receta imposible. No porque el modelo sea malo, sino porque asume condiciones que, si existieran, ya habrían producido mejores resultados sin necesidad de la IA.
LA CONCLUSIÓN QUE LOS DOS ESTUDIOS EVITAN NOMBRAR
Ambos argumentos convergen en el mismo punto incómodo: la tecnología no transforma la cultura, la amplifica. Las empresas que realmente se están transformando con IA son, en gran medida, las mismas que ya tenían procesos sólidos de pensamiento crítico y comunicación clara. Para ellas, la IA es un acelerador. Para las demás, es una máquina de producir volumen a escala industrial en organizaciones que siempre premiaron el volumen sobre el valor.
“Cuando recibes un correo de un colega y sospechas que ni él mismo lo ha leído, el tejido de colaboración de la empresa empieza a deshilacharse.”
La solución normativa que propone Stanford —transparencia sobre qué partes de un trabajo fueron asistidas por IA, responsabilidad total del emisor sobre el contenido, y criterio explícito sobre dónde no se debe usar IA porque el valor reside precisamente en el proceso de pensar— es más fácil de enunciar que de ejecutar en organizaciones donde la cultura ya recompensa exactamente lo contrario.
Queda una ironía que ninguno de los dos estudios nombra pero que conviene señalar: gran parte de la literatura corporativa sobre IA —incluyendo análisis, consultoras y ciertos artículos de opinión— presenta los mismos síntomas que describe. Textos extensos, llenos de datos y subtítulos, que al terminar de leerse no dejan ningún conocimiento nuevo. En un mundo saturado de contenido generado a velocidad industrial, pensar con precisión se ha convertido en la ventaja más escasa.
Eso también tiene nombre. Y ya lo saben.
LA MEJOR OPCIÓN PARA VER NUESTROS CONTENIDOS
Suscribite a El Diario de la República y tendrás acceso primero y mejor para leer online el PDF de cada edición papel del diario, a nuestros suplementos y a los clasificados web sin moverte de tu casaMás Noticias
