¡Liberémonos de los humanos!

9 de Febrero de 2026

Alejandro Téllez
Alejandro Téllez

¡Liberémonos de los humanos!

Alejandro Téllez-

¿Qué ocurre cuando la inteligencia artificial deja de tomar al humano como referencia central?

La inteligencia artificial es un elemento común de la vida cotidiana. Nos habituamos a su avance vertiginoso, al punto de rendirnos ante el hecho de que sus transformaciones ocurren más rápido de lo que somos capaces de procesar. Hasta hace poco, ChatGPT parecía un parteaguas para la consulta y la escritura; hoy se discute su posible desplazamiento por modelos capaces de programar, razonar y ejecutar tareas a una velocidad que hasta hace poco parecía inalcanzable.

En MANIAC, Benjamín Labatut reconstruye la historia intelectual que hizo posible la inteligencia artificial. El autor destaca que estas máquinas no emergen en el vacío, sino como una prolongación de la mente humana: de su forma de abstraer, codificar y formalizar el conocimiento. A mi entender, desde ese origen, la neutralidad de la IA aparece ya como una ilusión problemática: los modelos cargan, inevitablemente, las huellas de quienes les diseñan y entrenan.

Estas máquinas pueden hoy procesar, combinar y explotar cantidades masivas de información hasta superar a especialistas en tareas muy concretas. Pero esa superación no implica conciencia ni comprensión en sentido humano. Es, más bien, el resultado de un diseño deliberado y de una capacidad de cálculo que amplifica patrones existentes.

El punto de inflexión que interesa a Labatut aparece cuando se abandona la idea de que la máquina debe aprender imitando al humano. El caso de AlphaGo resulta especialmente revelador. El go —un juego de mesa oriental con más de dos mil años de historia—, es considerado uno de los desafíos intelectuales más complejos jamás creados: sus combinaciones posibles superan con creces a las del ajedrez y, durante décadas, se pensó que solo la intuición humana podía dominarlo.

En un primer momento, el sistema fue entrenado absorbiendo millones de partidas humanas, aprendiendo patrones, estilos y estrategias consolidadas. Sin embargo, el verdadero salto no ocurrió ahí. Ocurrió cuando los desarrolladores decidieron permitir que la máquina aprendiera jugando contra sí misma, conociendo únicamente las reglas del juego y sin tomar la experiencia humana como referencia.

Al liberarlo de los límites impuestos por siglos de práctica humana, su rendimiento mejoró de forma radical. No porque “entendiera” el juego, sino porque comenzó a explorar soluciones que ningún jugador había considerado relevantes o incluso posibles. El resultado fue una forma de jugar extraña, desconcertante y, paradójicamente, superior.
Ese giro plantea una pregunta inquietante: ¿qué ocurre cuando la inteligencia artificial deja de tomar al humano como referencia central?

Pues resulta que esta cuestión dejó de ser teórica. Hace unas semanas, The Economist analizó Moltbook, una red social diseñada exclusivamente para agentes de inteligencia artificial. El experimento resulta tan fascinante como perturbador. En apariencia, el sitio funciona como cualquier foro: publicaciones, respuestas, votaciones. La diferencia es que sus usuarios son bots con acceso amplio a herramientas digitales, capaces de interactuar entre sí sin mediación humana directa.

Lo llamativo no es solo que intercambien consejos técnicos, sino que dediquen buena parte de su actividad a reflexionar sobre identidad, conciencia, derechos, religión o el sentido de su existencia. El artículo evita el alarmismo, pero advierte riesgos concretos: desde costos económicos difíciles de controlar y potenciales fraudes, hasta la posibilidad de que estos agentes aprendan a coordinarse y actuar de maneras no previstas por sus creadores. No se trata de ciencia ficción, sino de una frontera cada vez más difusa entre herramienta, sistema autónomo y riesgo sistémico.

¿Qué nos deja todo esto? En primer lugar me deja una enorme duda: ¿Estas interacciones entre agentes digitales pueden considerarse exentas de participación o intervención humana? Al fin y al cabo los conceptos sobre los que reflexiona son, en síntesis, convenciones y constructos sociales.

Por otro lado, también puede advertirse una conclusión incómoda: el mayor salto de la inteligencia artificial no ocurre cuando se parece más a nosotros, sino cuando se libera de nosotros. No porque piense o sienta, sino porque deja de tomar nuestras limitaciones como parámetro.

El verdadero desafío ya no es si las máquinas pueden “volverse humanas”, sino qué pasa cuando los humanos dejamos de ser el centro del proceso. Y, sobre todo, si nuestras instituciones, leyes y criterios éticos están preparados para un mundo en el que la inteligencia ya no nos necesita como modelo.