En las dos entregas anteriores hablamos de escala. Primero, de impactos ambientales que existen pero siguen subestimados. Después, de cómo la demanda energética asociada a la inteligencia artificial empieza a influir en decisiones estructurales del sistema eléctrico. El hilo conductor ha sido el mismo: no estamos ante un fenómeno invisible, sino ante uno que todavía no hemos incorporado plenamente en nuestros marcos de decisión.
Toda tecnología vigente atravesó una fase en la que su expansión superó la capacidad institucional para regularla. La historia industrial está llena de ejemplos: del carbón al petróleo, de los ferrocarriles a las telecomunicaciones. En cada caso, la discusión no giró únicamente en torno a la innovación, sino alrededor de algo más básico: como incorporar sus costos reales al interés público. La inteligencia artificial ya está en ese punto de inflexión.
Hasta ahora, la mayor parte de las respuestas han sido voluntarias. Compromisos corporativos de neutralidad de carbono, metas de uso responsable del agua, informes de sostenibilidad cada vez más detallados. Es un avance. Pero los compromisos voluntarios no sustituyen reglas comunes. Son declaraciones de intención, no mecanismos de coordinación colectiva. Aquí la metáfora adecuada no es la del laboratorio ni la del algoritmo. Es la del presupuesto público.
En cualquier política fiscal mínimamente seria, los ingresos y los gastos deben registrarse con criterios homogéneos, auditables y comparables. Nadie aceptaría que cada dependencia estimara sus costos con metodologías distintas, sin estándares ni verificación. Sin embargo, algo parecido ocurre hoy con las externalidades de la IA: cada empresa reporta lo que considera relevante, con métricas propias y horizontes temporales diferentes.
Si la inteligencia artificial se ha convertido en infraestructura crítica —por su impacto en productividad, seguridad, servicios y ahora también en energía y agua—, entonces sus externalidades deben tratarse con la misma rigurosidad que cualquier otro componente estructural de la economía. Eso implica al menos tres movimientos.
Primero, estandarizar la medición. Sin métricas comparables de consumo energético, uso de agua, generación de residuos electrónicos y huella indirecta, cualquier discusión regulatoria será parcial. No se trata de frenar la innovación, sino de crear un lenguaje común que permita evaluar impacto agregado.
Segundo, internalizar costos cuando corresponda. En economía ambiental, el principio es claro: quien genera una externalidad debe enfrentar señales de precio que reflejen ese costo. Eso puede adoptar formas diversas —impuestos, tarifas diferenciadas, obligaciones de compensación o inversión en infraestructura—, pero la lógica es la misma. Sin esa señal, la expansión seguirá guiándose exclusivamente por la rentabilidad privada.
Tercero, integrar la planeación tecnológica con la planeación territorial y energética. Los centros de datos no son entidades abstractas; se ubican en regiones específicas, consumen recursos locales y afectan redes existentes. La gobernanza no puede limitarse al ámbito digital. Debe incorporar autoridades ambientales, energéticas y de infraestructura.
Nada de esto implica demonizar la inteligencia artificial. Sería un error equiparar regulación con prohibición. La lección histórica es la contraria: las tecnologías que se consolidan y perduran son aquellas que encuentran marcos institucionales estables y previsibles. La regulación adecuada no sofoca la innovación; la hace sostenible.
En realidad, el debate sobre externalidades artificiales es una prueba de madurez institucional. Si seguimos tratando la IA como una novedad experimental, la discusión se quedará en el entusiasmo o en el temor. Si la reconocemos como infraestructura económica de gran escala, entonces la conversación cambia: pasa del asombro tecnológico a la responsabilidad pública.
Las externalidades no son fallas morales ni conspiraciones corporativas. Son efectos estructurales de cualquier actividad que crece más rápido que las reglas que la encuadran. La inteligencia artificial ya cruzó ese umbral. La tarea ahora no es preguntarnos si la IA tiene impactos ambientales y energéticos —eso está claro—, sino decidir cómo incorporarlos de manera transparente y sistemática en la toma de decisiones colectivas. En última instancia, se trata de algo sencillo: que la contabilidad privada dialogue con la responsabilidad pública.