La gobernanza internacional de la inteligencia artificial (IA) reúne a gobiernos, organizaciones internacionales, empresas, academia y sociedad civil para definir reglas, normas y mecanismos que orienten el desarrollo y uso de estas tecnologías. Los debates combinan cuestiones técnicas, éticas, económicas, de seguridad y geopolíticas. A continuación se presentan los temas centrales, ejemplos concretos y mecanismos que se proponen o aplican en distintos foros.
Amenazas para la seguridad y la integridad
La preocupación por la seguridad incluye fallos accidentales, usos maliciosos y consecuencias estratégicas a gran escala. Entre los puntos clave están:
- Riesgos sistémicos: posibilidad de que modelos muy potentes actúen de forma imprevisible o escapen a controles, afectando infraestructuras críticas.
- Uso dual y militarización: aplicación de IA en armas, vigilancia y ciberataques. En foros de la ONU y del Convenio sobre Ciertas Armas Convencionales se discute cómo regular o prohibir sistemas de armas completamente autónomas.
- Reducción del riesgo por diseño: prácticas como pruebas adversarias, auditorías de seguridad, y exigencia de evaluaciones de riesgo antes del despliegue.
Ejemplo: en el ámbito multilateral se discute la creación de normas vinculantes sobre SALA (sistemas de armas letales autónomas) y procedimientos de verificación para evitar proliferación.
Privacidad, vigilancia y protección de los derechos humanos
La IA genera desafíos para los derechos civiles y las libertades públicas:
- Reconocimiento facial y vigilancia masiva: posible debilitamiento de la privacidad y aparición de sesgos. Diversos países y la Unión Europea analizan imponer límites o pausas a su implementación a gran escala.
- Protección de datos: gestión responsable de grandes conjuntos de información para entrenar modelos, junto con aspectos de consentimiento, reducción de datos y procesos de anonimización.
- Libertad de expresión e información: sistemas de moderación automatizada, creación de contenido engañoso y deepfakes que pueden influir en dinámicas democráticas.
Caso: la proliferación de campañas de desinformación impulsadas por la generación automática de contenido ha desencadenado discusiones en foros electorales y ha motivado propuestas que buscan imponer obligaciones de transparencia respecto al empleo de sistemas generativos dentro de las campañas.
Equidad, no discriminación y inclusión
Los modelos pueden reflejar o incluso intensificar sesgos existentes cuando los datos de entrenamiento no resultan suficientemente representativos:
- Discriminación algorítmica: revisiones independientes, indicadores de equidad y procedimientos de corrección.
- Acceso y desigualdad global: posibilidad de que la capacidad tecnológica se concentre en unas pocas naciones o corporaciones; urgencia de impulsar la transferencia tecnológica y la cooperación para fortalecer el desarrollo local.
Dato y ejemplo: estudios han mostrado que modelos entrenados con datos sesgados dan peores resultados para grupos subrepresentados; por ello iniciativas como evaluaciones de impacto social y requisitos de testeo público son cada vez más solicitadas.
Claridad, capacidad de explicación y seguimiento
Los reguladores analizan cómo asegurar que los sistemas avanzados resulten entendibles y susceptibles de auditoría:
- Obligaciones de transparencia: comunicar cuando una resolución automatizada impacta a una persona, divulgar documentación técnica (fichas del modelo, fuentes de datos) y ofrecer vías de reclamación.
- Explicabilidad: proporcionar niveles adecuados de detalle técnico adaptados a distintos tipos de audiencia (usuario final, autoridad reguladora, instancia judicial).
- Trazabilidad y registro: conservar registros de entrenamiento y operación que permitan realizar auditorías en el futuro.
la propuesta legislativa de la Unión Europea organiza los sistemas por niveles de riesgo y requiere que se entregue documentación exhaustiva para aquellos que se catalogan como de alto riesgo
Cumplimiento y responsabilidad legal
La asignación de responsabilidades ante daños generados por IA es un tema central:
- Regímenes de responsabilidad: debate entre responsabilidad del desarrollador, del proveedor, del integrador o del usuario final.
- Certificación y conformidad: modelos de certificación previa, auditorías independientes y sanciones por incumplimiento.
- Reparación a las víctimas: mecanismos rápidos para compensación y remediación.
Datos normativos: la propuesta de la UE prevé sanciones ajustadas a la gravedad, incluidas multas de gran envergadura ante incumplimientos en sistemas clasificados como de alto riesgo.
Derechos de propiedad intelectual y disponibilidad de datos
El uso de contenidos para entrenar modelos ha generado tensiones entre creación, copia y aprendizaje automático:
- Derechos de autor y recopilación de datos: litigios y solicitudes de claridad sobre si el entrenamiento constituye uso legítimo o requiere licencia.
- Modelos y datos como bienes estratégicos: debates sobre si imponer licencias obligatorias, compartir modelos en repositorios públicos o restringir exportaciones.
Caso: varios litigios recientes en distintos países cuestionan la legalidad de entrenar modelos con contenidos protegidos, impulsando reformas legales y acuerdos entre sectores.
Economía, mercado laboral y dinámica competitiva
La IA puede transformar mercados, trabajos y estructuras empresariales:
- Sustitución y creación de empleo: estudios muestran efectos heterogéneos: algunas tareas se automatizan, otras se complementan; políticas activas de formación son clave.
- Concentración de mercado: riesgo de monopolios por control de datos y modelos centrales; discusión sobre políticas de competencia y interoperabilidad.
- Impuestos y redistribución: propuestas para impuestos sobre beneficios derivados de automatización o para financiar protección social y reentrenamiento.
Ejemplo: diversas adaptaciones regulatorias pueden contemplar beneficios tributarios orientados a impulsar la formación profesional y estipulaciones en contratos estatales que den preferencia a proveedores locales.
Sostenibilidad ambiental
El impacto energético y material de entrenar y operar modelos es objeto de regulación y buenas prácticas:
- Huella de carbono: entrenamiento de modelos muy grandes puede consumir energía significativa; indicadores y límites son discutidos.
- Optimización y transparencia energética: etiquetas de eficiencia, reporte de consumo y migración a infraestructuras con energía renovable.
Estudio relevante: investigaciones han mostrado que el entrenamiento intensivo de modelos de lenguaje puede generar emisiones equivalentes a decenas o cientos de toneladas de CO2 si no se optimiza el proceso.
Regulaciones técnicas, estándares y procesos de interoperabilidad
La adopción de estándares promueve mayor seguridad, confianza y dinamiza el comercio:
- Marco de normalización: elaboración de estándares técnicos internacionales que abordan la solidez, las interfaces y los formatos de datos.
- Interoperabilidad: asegurar que distintos sistemas puedan colaborar manteniendo niveles adecuados de seguridad y privacidad.
- Rol de organismos internacionales: OCDE, UNESCO, ONU, ISO y diversos foros regionales intervienen en la coordinación y armonización regulatoria.
Ejemplo: la OCDE elaboró una serie de principios sobre la IA que se han convertido en una guía para numerosas políticas públicas.
Verificación, cumplimiento y mecanismos multilaterales
Sin mecanismos de verificación creíbles, las reglas quedan en papel:
- Inspecciones y auditorías internacionales: propuestas para observatorios multilaterales que supervisen cumplimiento y compartan información técnica.
- Mecanismos de cooperación técnica: asistencia para países con menos capacidad técnica, intercambio de mejores prácticas y fondos para fortalecer gobernanza.
- Sanciones y medidas comerciales: discusión sobre controles a la exportación de tecnologías sensibles y medidas diplomáticas ante incumplimientos.
Caso: restricciones en el comercio de semiconductores demuestran cómo la tecnología de IA puede convertirse en materia de política comercial y seguridad.
Instrumentos normativos y recursos aplicados
Las respuestas normativas pueden adoptar formatos rígidos o enfoques más adaptables:
- Regulación vinculante: normas nacionales o regionales que establecen deberes y contemplan sanciones (por ejemplo, una propuesta legislativa dentro de la Unión Europea).
- Autorregulación y códigos de conducta: lineamientos promovidos por empresas o asociaciones que suelen ofrecer mayor rapidez, aunque con requisitos menos estrictos.
- Herramientas de cumplimiento: análisis de impacto, auditorías externas, sellos de conformidad y espacios regulatorios de prueba destinados a evaluar nuevas políticas.
Gobernanza democrática y participación de la ciudadanía
La legitimidad de las reglas depende de la inclusión:
- Procesos participativos: consultas públicas, comités de ética y representación de comunidades afectadas.
- Educación y alfabetización digital: para que la ciudadanía entienda riesgos y participe en decisiones.
Ejemplo: iniciativas de consulta ciudadana en varios países han influido en requisitos de transparencia y límites al uso de reconocimiento facial.
Sobresalientes tensiones geopolíticas
La búsqueda por liderar la IA conlleva riesgos de fragmentación:
- Competencia tecnológica: estrategias de inversión, apoyos estatales y pactos que podrían originar ecosistemas tecnológicos separados.
- Normas divergentes: marcos regulatorios distintos (desde posturas más estrictas hasta otras más flexibles) influyen en el comercio y en la colaboración global.
Resultado: la gobernanza global intenta conciliar la armonización regulatoria con la autonomía tecnológica.
Iniciativas y menciones multilaterales
Existen diversas iniciativas que actúan como punto de referencia:
- Principios de la OCDE: directrices destinadas a promover el uso responsable y fiable de la IA.
- Recomendación de la UNESCO: marco ético concebido para orientar la formulación de políticas nacionales.
- Propuestas regionales: la Unión Europea desarrolla un reglamento basado en la gestión del riesgo y en exigencias de transparencia y seguridad.
Estas iniciativas muestran la combinación de normas no vinculantes y propuestas legislativas concretas que avanzan en distintos ritmos.
La gobernanza internacional de la IA es un entramado dinámico que debe integrar exigencias técnicas, valores democráticos y realidades geopolíticas. Las soluciones efectivas requieren marcos normativos claros, capacidades de verificación creíbles y mecanismos
