En algún momento de 2023, algo cambió en Stack Overflow. Durante casi quince años, esa plataforma había funcionado como uno de los experimentos más exitosos de conocimiento colectivo en la historia de internet. Millones de programadores publicaban preguntas, otros millones respondían, y el resultado se acumulaba en un archivo público y gratuito que cualquier persona en cualquier lugar del mundo podía consultar. Era una biblioteca viva, construida pregunta por pregunta, error por error. Luego llegó ChatGPT, y la actividad de Stack Overflow cayó de manera sostenida. La biblioteca seguía ahí, pero ya nadie la estaba ampliando.
Lo mismo ocurrió, en menor medida, con Wikipedia. En las áreas donde la inteligencia artificial responde con precisión (resúmenes históricos, definiciones técnicas, explicaciones científicas) la lectura y edición de artículos comenzó a declinar. No dramáticamente, pero sí de la manera en que ocurren las erosiones: gradualmente, sin que alguien lo identifique como un problema.
Estos son los datos empíricos que respaldan parte del argumento de Acemoglu que discutíamos la semana pasada. El colapso del conocimiento colectivo no es una hipótesis sobre el futuro, sino un proceso que ya tiene cierta evidencia. Pero hay un detalle en esos datos que merece atención. Stack Overflow y Wikipedia no son cualquier tipo de conocimiento. Son exactamente el tipo de conocimiento general que su modelo identifica como el más vulnerable: información que pertenece a todos, que cualquiera puede usar, que nadie tiene incentivos privados suficientes para producir.
Cuando la inteligencia artificial puede responder la pregunta de programación de manera inmediata y personalizada, el programador no necesita publicar su duda en un foro público. Obtiene su respuesta y sigue adelante. Y, sin embargo, nadie agregó nada al archivo compartido. Nadie dejó rastro del problema ni de su solución. El conocimiento circuló, pero no se depositó en ningún lugar donde otros pudieran encontrarlo sin la intermediación de un modelo de lenguaje.
La pregunta que eso plantea es incómoda: ¿cuánto de lo que sabemos colectivamente depende de que las personas tengan razones para hacer públicos sus aprendizajes privados? Y si esas razones desaparecen, ¿cómo nos enteramos de lo que estamos perdiendo? Aquí está el problema de fondo, y es más difícil que el de los datos. El conocimiento colectivo no tiene precio de mercado. No aparece explícitamente en ningún indicador macroeconómico. Su ausencia solo se nota cuando hace falta y no está, que es exactamente el peor momento para notarla.
Hay un estudio reciente que ilustra esto. Investigadores que analizaron el uso de inteligencia artificial en radiología encontraron que los expertos, con el tiempo, no solo seguían las recomendaciones del algoritmo sino que perdían progresivamente la capacidad de cuestionarlas. Lo anterior porque el músculo que se usa para dudar de una recomendación es el mismo que se usa para generarla, y ese músculo se atrofia cuando no se ejercita. El resultado no era dependencia ciega sino algo más sutil: incapacidad para distinguir cuándo confiar y cuándo no. Hay además un hallazgo del MIT que va más lejos: las personas que usan inteligencia artificial para escribir recuerdan peor sus propios argumentos. La asistencia no solo sustituye el esfuerzo, también interrumpe el proceso por el cual el esfuerzo se convierte en criterio propio.
El conflicto no consiste en que la inteligencia artificial produzca información falsa, sino en que produce información suficientemente buena como para que la gente deje de producirla por su cuenta. Y cuando la gente deja de producirla, deja también de depositarla en los archivos compartidos donde otros podrían encontrarla, aprenderla, cuestionarla, mejorarla. De este modo, la cadena que convierte la experiencia individual en conocimiento colectivo se interrumpe en silencio.
El modelo de Stack Overflow identificó algo sustantivo, que el valor de una plataforma de conocimiento colectivo no está solo en el archivo acumulado sino en el flujo continuo de personas que tienen razones para contribuir a él. Como no hay nuevas preguntas, con sus respuesta actualizadas, los problemas que no existían hace cinco años no tienen soluciones documentadas. La biblioteca sigue abierta, pero ya pocos la actualizan.
Hardin describió la tragedia de los comunes como el resultado inevitable de la racionalidad individual aplicada a recursos compartidos. Lo que los datos de Stack Overflow, Wikipedia y los estudios de radiología sugieren es que estamos viendo esa tragedia desenvolverse, en tiempo real, sobre un recurso que durante siglos dimos por sentado: la capacidad colectiva de aprender.