Nos cambiaron el mundo mientras revisábamos el mail
Apuntes sobre el AI Index Report 2026 de la Universidad de Stanford. Por Alicia Bañuelos
Cada año, un grupo de investigadores de la Universidad de Stanford publica el AI Index Report: cuatrocientas y pico páginas de datos, gráficos y análisis sobre el estado mundial de la inteligencia artificial. Es, en su género, un documento extraordinario: riguroso, independiente, repleto de cifras que uno puede citar en conversaciones para parecer informado. Este año salió la novena edición, correspondiente a 2026, y como siempre hay que agradecerle una cosa fundamental: la honestidad involuntaria. Porque entre toda esa prolijidad académica, el informe termina confirmando, dato tras dato, algo que la mayoría de las personas sospecha pero que pocas instituciones se atreven a decir con todas las letras: nadie tiene esto bajo control.
Veamos, entonces, qué nos trajo el futuro este año.
La tecnología avanza. Los demás, a ver cómo se arreglan.
El informe abre con una frase que resume el espíritu de la época: la pregunta ya no es si la inteligencia artificial llegó, sino si los sistemas que la rodean pueden seguirle el ritmo. Gobiernos, sistemas educativos, marcos legales, mecanismos de evaluación: todos corriendo detrás de una tecnología que no espera. Es, reconozcámoslo, una forma elegante de decir que el tren salió y que el resto del mundo todavía está buscando dónde comprar el boleto.
La adopción de la inteligencia artificial generativa —esa que escribe textos, produce imágenes y contesta preguntas— alcanzó el 53% de la población mundial en apenas tres años. Para poner eso en perspectiva: la computadora personal tardó más de una década en llegar a ese nivel. El internet, también. La IA generativa lo hizo en el tiempo que dura un gobierno de turno. Y sin que nadie votara por ella.
Las empresas, por su parte, se subieron al tren con entusiasmo: el 88% de las organizaciones ya usa inteligencia artificial en alguna forma. Los estudiantes universitarios la usan en un 80%. La inversión privada global más que se duplicó en 2025. Todo crece, todo escala, todo se acelera. El valor que generan estas herramientas para los consumidores en los Estados Unidos ya se estima en 172 mil millones de dólares anuales, con el detalle encantador de que buena parte de ese valor viene de servicios que la gente usa gratis. Es el modelo de negocio del siglo XXI: tú pones tus datos, ellos se hacen ricos, y todos contentos.
Uno de los hallazgos más celebrados del informe es que los modelos de inteligencia artificial ya pueden resolver problemas de matemáticas del nivel de la Olimpiada Internacional. El modelo Gemini Deep Think, de Google, obtuvo una medalla de oro. Una medalla de oro en matemáticas olímpicas. El tipo de prueba que supera menos del 1% de los estudiantes más talentosos del planeta.
El mismo informe, en la página siguiente, señala con la misma calma que estos modelos logran decir la hora correcta en un reloj analógico sólo el 50,1% de las veces. Es decir: cara o seca. Mejor que nada, pero apenas. Le preguntaron a cuatro modelos de IA generativa qué hora mostraban las imágenes de relojes analógicos. Ninguno de ellos logró decir la hora de forma precisa.
Los investigadores llaman a esto "la frontera irregular" de la IA: sistemas capaces de proezas extraordinarias en dominios específicos, que colapsan ante tareas que cualquier niño de siete años resuelve sin esfuerzo. No es un defecto que se va a corregir con la próxima actualización. Es una característica estructural de cómo funciona esta tecnología. Pero claro, es más fácil publicar el titular de la medalla de oro que el del reloj.
Los robots, mientras tanto, siguen sin poder limpiar una casa. En entornos de laboratorio, controlados y predecibles, alcanzan un 89% de éxito en tareas de manipulación. En el mundo real, con sus enchufes en lugares inesperados y sus vasos mal puestos, el éxito cae al 12%. Uno de cada ocho intentos. Si usted contratara a alguien que complete su trabajo bien una vez cada ocho intentos, lo despediría antes del mediodía. A la IA le publicamos estudios.
Aquí es donde el informe se pone realmente interesante, en el sentido en que "interesante" es la palabra que usamos cuando las cosas empiezan a doler.
La inteligencia artificial muestra ganancias de productividad medibles y reales en áreas específicas: entre un 14% y un 26% en servicio al cliente y desarrollo de software. Son números genuinos, no publicidad. El problema es lo que viene después de ese dato: en el campo del desarrollo de software, donde los beneficios de productividad son más claros, los desarrolladores estadounidenses de entre 22 y 25 años vieron caer su empleo casi un 20% en un solo año. Los desarrolladores mayores, en cambio, siguieron creciendo en número.
En otras palabras: la tecnología hace el trabajo más rápido, y quien pierde el trabajo es el que recién empieza. El junior, el que todavía está aprendiendo, el que más necesita esa primera oportunidad para adquirir experiencia. La IA no reemplazó al experto; reemplazó la escalera por la que el experto llegó a serlo.
El informe lo registra con su característica neutralidad científica, sin juzgar. Nosotros sí podemos hacerlo.
El capítulo sobre IA responsable es, sin duda, el más incómodo del informe. Y también el más revelador.
Los incidentes documentados relacionados con inteligencia artificial —casos donde la tecnología causó daños, errores graves o consecuencias no previstas— saltaron de 233 en 2024 a 362 en 2025. Un aumento de más del 55% en un año. Casos de discriminación algorítmica, errores médicos, desinformación amplificada, sistemas que funcionaron exactamente como fueron diseñados pero con resultados que nadie quería.
Mientras tanto, casi todas las empresas líderes reportan con detalle sus benchmarks de capacidad —lo bien que sus modelos resuelven problemas— pero el reporte sobre seguridad y responsabilidad "sigue siendo irregular". La traducción es sencilla: las empresas miden y publican lo que les conviene. Lo que no conviene, se mide menos o no se publica. Es un principio universal de la comunicación corporativa que, en este caso, tiene consecuencias que van más allá del trimestre fiscal.
Hay un detalle técnico del informe que merece mención especial: resulta que mejorar una dimensión de seguridad en un sistema de IA tiende a empeorar otra. Hacer un modelo más privado lo hace menos preciso. Hacerlo más justo en un aspecto lo hace menos robusto en otro. No hay forma conocida de mejorar todo al mismo tiempo. Es el equivalente tecnológico de apretar un globo: el aire va a algún lado, siempre.
La corriente eléctrica que nadie mencionó en el anuncio
El informe también documenta, con loable precisión, el costo ambiental de todo esto. El entrenamiento de Grok 4, uno de los modelos más recientes, generó el equivalente a más de 72 mil toneladas de dióxido de carbono. La capacidad instalada de centros de datos de inteligencia artificial ya es comparable al consumo eléctrico del estado de Nueva York en hora pico. No se trata de demonizar la tecnología. Se trata de saber cuánto cuesta lo que consumimos. Y actualmente ese costo no aparece en la factura.
La brecha de la percepción: expertos vs. el resto del mundo
El capítulo de opinión pública ofrece uno de los datos más sorprendentes del informe, aunque quizás no debería sorprender a nadie. La desconexión entre quienes construyen estas herramientas y quienes viven sus efectos es abismal.
Cuando se les preguntó sobre el impacto de la IA en el empleo, el 73% de los expertos esperaba efectos positivos. Entre la población general, ese número era del 23%. Una brecha de 50 puntos. En la economía: expertos 69%, público general 21%. En salud, el 84% de los expertos espera que la IA tenga un impacto positivo. Entre el público general, sólo el 44% comparte ese optimismo.
Hay varias formas de leer esta brecha. Una es que los expertos saben más y el público está mal informado. Otra es que los expertos trabajan en el sector, reciben salarios vinculados al crecimiento del sector, y tienen incentivos estructurales para ser optimistas. El informe presenta el dato sin tomar partido. Nosotros podemos notar que "quien cobra del negocio tiende a ver el negocio con buenos ojos" es una observación bastante antigua que no requiere un doctorado para comprenderse.
El dato más llamativo, sin embargo, es este: los Estados Unidos registraron el nivel más bajo de confianza en su propio gobierno para regular la inteligencia artificial de todos los países encuestados. Un 31%. El promedio global fue del 54%. Los países del sudeste asiático lideraron con más del 80%. Y cuando otra encuesta —la de Pew Research, con 25 países— preguntó a quién confiaría la regulación de la IA a nivel global, la respuesta mayoritaria no fue Washington ni Pekín: fue Bruselas.
El país que produce la mayor parte de esta tecnología es también el que menos confía en que alguien la regule bien.
Lo que el informe dice entre líneas
El AI Index 2026 es, en el fondo, un documento sobre la velocidad y sus consecuencias. Una tecnología que llegó más rápido de lo que ningún marco institucional podía absorber, generando riqueza en unos pocos lugares, empleo precario entre los más jóvenes, impacto ambiental creciente, y una brecha cada vez más visible entre lo que la tecnología puede hacer y lo que las instituciones son capaces de gestionar.
El informe lo dice con elegancia académica: "la escala está superando la capacidad de adaptación de los sistemas que la rodean". Nosotros podemos decirlo de forma más directa: está pasando algo muy grande, muy rápido, y las decisiones sobre cómo moldear ese proceso las están tomando, casi exclusivamente, quienes tienen intereses financieros en el resultado.
La Argentina, mientras tanto, tiene investigadores de primer nivel y un sistema científico que sobrevivió décadas de vaivenes presupuestarios. No tiene, en cambio, una estrategia nacional de IA —algo que el informe registra que más de la mitad de los países en desarrollo ya adoptaron en 2025. La producción real de tecnología, los modelos de frontera, el hardware que los hace funcionar y el dinero que los financia siguen concentrados en un puñado de empresas y dos o tres países. El código es abierto, pero las reglas del juego, no.
Recomendación final
El AI Index 2026 está disponible gratuitamente en línea. Son 423 páginas. Si le falta tiempo, los 15 puntos de "Top Takeaways" del comienzo bastan para entender el panorama. Si le falta ánimo después de leerlos, es una reacción completamente razonable.
Lo importante es esto: las decisiones sobre cómo se despliega esta tecnología, quién paga sus costos, quién se queda con sus beneficios y quién tiene voz en su regulación son decisiones políticas, no técnicas. Y las decisiones políticas, en teoría, requieren ciudadanos informados.
El futuro, según Stanford, ya llegó. La pregunta es si llegaremos nosotros también.
Basado en el AI Index Report 2026, Stanford University, Institute for Human-Centered AI, publicado en abril de 2026.
LA MEJOR OPCIÓN PARA VER NUESTROS CONTENIDOS
Suscribite a El Diario de la República y tendrás acceso primero y mejor para leer online el PDF de cada edición papel del diario, a nuestros suplementos y a los clasificados web sin moverte de tu casaMás Noticias
