En 1968, Garrett Hardin publicó un ensayo que cambiaría la manera en que los economistas pensamos sobre los recursos compartidos. Su argumento resulta de una simplicidad desconcertante: cuando un bien pertenece a todos, nadie tiene incentivos individuales para preservarlo. Los pastores llevan sus ovejas al campo comunal hasta que no queda pasto. Los pescadores vacían los peces del mar. Lo que es de todos termina siendo de nadie. Hardin llamó a ese fenómeno la tragedia de los comunes. Más de medio siglo después, un artículo de Daron Acemoglu titulado “AI, Human Cognition and Knowledge Collapse” sugiere que estamos al borde de una tragedia similar, pero con un recurso que pocas veces pensamos en esos términos: el conocimiento colectivo.
El argumento de Acemoglu no es tecnofóbico ni apocalíptico, sino uno enfocado en incentivos. Su punto de partida es una distinción que parece obvia pero que tiene consecuencias profundas: hay dos tipos de conocimiento. Uno es general, el que pertenece a una comunidad entera: el oftalmólogo que entiende cómo funcionan las enfermedades del ojo humano o la ingeniera biomédica que comprende los principios de la física. Ese conocimiento es un bien público. El segundo es contextual: los síntomas específicos de cierto paciente o el perfil de riesgo de algún inversionista. Ese conocimiento es privado e intransferible en su forma bruta. Lo crucial es que ambos son complementarios, no sustitutos. Sin los dos, no hay diagnóstico o decisión de inversión posible.
¿Cómo se genera el conocimiento general? Cuando una persona estudia, practica y aprende, produce simultáneamente ambos tipos. La ingeniera biomédica que repara un equipo médico aprende algo sobre ese proyecto específico, pero también contribuye —imperceptiblemente—, a la comprensión colectiva de una clase de problemas. Esa contribución es lo que los economistas llamamos una externalidad positiva: un beneficio que se derrama hacia los demás sin que la persona que lo genera pueda cobrarlo.
Y como nadie puede cobrar por esas externalidades, todos las subestiman. Las sociedades generan menos conocimiento colectivo del que necesitan. Ese es el problema de base, y no es nuevo. Lo que sí es nuevo es lo que la inteligencia artificial de agentes hace con ese equilibrio ya frágil.
La inteligencia artificial que conocemos hasta ahora mejora principalmente la distribución del conocimiento que ya existe. La inteligencia artificial de agentes es otra cosa: le dice a cada persona exactamente qué hacer en su contexto específico, con sus datos particulares. Y eso, a nivel individual, es extraordinariamente valioso. El problema es lo que ocurre en el agregado. Cuando el sistema puede darte una recomendación personalizada de calidad suficiente, el incentivo para invertir en tu propio aprendizaje colapsa. ¿Para qué estudiar mercados financieros si el algoritmo ya sabe qué portafolio me conviene? ¿Para qué desarrollar intuición clínica durante años en un consultorio si la máquina ya puede leer los síntomas? La respuesta racional es clara: delega. Y así, persona por persona, el flujo que alimenta el acervo colectivo se reduce hasta que ese acervo erosiona su valor. El sistema se alimenta de sí mismo hasta que no queda nada de qué alimentarse.
Lo más inquietante del modelo no es que el colapso sea inevitable, sino que puede ser invisible hasta que es demasiado tarde. En el camino, todos los indicadores individuales parecen bien. La productividad sube. Las decisiones mejoran. Nadie tiene razones para quejarse. El deterioro no aparece en ninguna métrica individual. Aparece en la erosión lenta, silenciosa, de la capacidad colectiva de entender el mundo.
Los autores proponen limitar la precisión de la inteligencia artificial para preservar los incentivos de aprendizaje. Es una solución elegante en teoría pero políticamente impracticable. La respuesta más robusta, para mí, puede apuntar en otra dirección: fortalecer los mecanismos que convierten el aprendizaje privado en conocimiento colectivo. Universidades, revisión por pares, publicación abierta, instituciones científicas públicas. Esa es la infraestructura oculta del conocimiento colectivo, y la que podría aliviar la presión.
Hardin, al final de su vida, reconoció que había simplificado demasiado. Había comunidades que gestionaban recursos compartidos durante siglos a través de reglas e instituciones que internalizaban las externalidades. Elinor Ostrom ganó el Nobel demostrando exactamente eso. La lección más duradera del artículo de Acemoglu quizás no sea sobre inteligencia artificial sino sobre algo más antiguo: la dificultad permanente de sostener bienes comunes en un mundo de incentivos individuales. Lo nuevo es que esta vez el bien en riesgo no es visible, no tiene precio, no genera titulares cuando empieza a escasear. Y eso lo hace más difícil de defender.