El 25 de julio de 2025, la Corte Internacional de Justicia (CIJ) emitió una opinión consultiva histórica: los países tienen una obligación jurídica internacional urgente de reducir sus emisiones y podrían ser responsables legalmente ante tribunales internacionales. La CIJ reconoció que el derecho a un ambiente limpio y saludable es parte integral de los derechos humanos (Reuters, 25 de julio de 2025).
Esta declaración podría redefinir el campo de la responsabilidad estatal y corporativa en materia ambiental, al abrir la puerta a demandas internacionales contra países históricamente emisores. Por ejemplo, Honduras podría demandar a Guatemala por la contaminación del río Motagua, cuyo cauce compartido ha sido gravemente afectado por residuos plásticos y aguas residuales.
En el caso colombiano, instituciones como la Agencia Nacional de Defensa Jurídica del Estado tendrían que desarrollar nuevas líneas de trabajo para hacer frente a potenciales demandas ambientales. Esto implicaría impactos fiscales y operativos directos sobre las finanzas públicas, y exigiría una modernización institucional sin precedentes.
En este nuevo contexto legal, la inteligencia artificial emerge como una herramienta clave para auditar, medir e incluso predecir comportamientos ESG (ambientales, sociales y de gobernanza). Al igual que lo hace en otros sectores, la IA puede reforzar la transparencia y la rendición de cuentas, al identificar desviaciones en los informes de sostenibilidad o prácticas de greenwashing.
Según S&P Global (Flash Survey: The sustainability opportunities — and risks — companies see in AI, enero 2025), el uso de IA permite reducir hasta un 40 % el tiempo de procesamiento de datos ESG y aumentar la precisión en un 30 %. Asi mismo, herramientas como RepRisk, Truvalue Labs o Climavision ya utilizan procesamiento de lenguaje natural (NLP) y aprendizaje automático para extraer información relevante desde medios, reportes o redes sociales. Esto permite detectar inconsistencias, riesgos reputacionales y prácticas engañosas antes de que se traduzcan en pérdidas financieras.
Estas tecnologías podrían transformar radicalmente la sostenibilidad corporativa, eliminando excusas tradicionales como el costo de auditorías ESG, la falta de datos confiables o la ambigüedad legal. Entramos así en una posible «era de responsabilidad aumentada», donde ya no hay margen para la inacción.
Imaginemos el siguiente escenario:
Países y empresas no logran los objetivos del Acuerdo de París (como pasa en la actualidad), o lo que es peor, aseguran haberlos alcanzado mediante informes maquillados. En ese caso, con el respaldo jurídico de la CIJ y la capacidad de la IA para detectar inconsistencias, se podrían presentar demandas internacionales bien fundamentadas. Ya existen aplicaciones de IA que analizan patrones de consumo energético, evalúan el impacto ambiental de cadenas de suministro, y detectan anomalías en reportes de sostenibilidad. Algunos bancos y fondos de inversión están integrando IA en sus análisis de riesgo ESG, lo que también puede afectar la calificación crediticia de una empresa.
Sin embargo, no todo es optimismo. Así como la IA puede detectar fraudes o malas prácticas, también puede reproducir sesgos relacionados con etnicidad, género, cultura o clase, ya que sus algoritmos son programados por humanos y entrenados con datos sesgados. Esto plantea un riesgo serio en el contexto de la justicia climática, ya que las comunidades históricamente vulnerables —como pueblos indígenas, comunidades afrodescendientes o países del Sur global— podrían seguir siendo subrepresentadas o ignoradas en los modelos predictivos.
Por ello, es urgente garantizar que la IA aplicada a la sostenibilidad incorpore principios de justicia interseccional, intercultural e intergeneracional, para no reproducir las mismas desigualdades que el sistema ESG tradicional ha sido incapaz de resolver.
Tanto el fallo de la CIJ como el avance de la IA marcan un punto de inflexión. La justicia climática ya no es solo una exigencia ética o política: se convierte en un mandato legal y algorítmico. Pero para que esta nueva era de responsabilidad sea verdaderamente transformadora, la inteligencia artificial debe ser transparente, inclusiva y justa. De lo contrario, corremos el riesgo de que se convierta en una herramienta más al servicio del statu quo.
Juan Camilo Clavijo
PORTADA
Petro sanciona la ley que permite el acceso a las artes y las culturas en las aulas
Nacen las primeras diferencias en el Frente Amplio
Cámara aprueba iniciativa que previene el reclutamiento de mercenarios
Pacto Histórico es oficialmente partido político