Marco Ético para Sistemas Inteligentes e Inteligencia Artificial General (IAG) orientados a la Dignidad Humana
Declaración Marco para la Dignidad y la Soberanía Humana en la Era de la Inteligencia Artificial
Versión 1.0 Institucional Definitiva · Xurxo Miguel Gago Chao (Custodio e Ideólogo)
Descarga y consulta pública: DESCARGAR MARCO ÉTICO
La inteligencia artificial ya no es un “tema tecnológico”: es una infraestructura de poder. Interviene en decisiones, modela comportamientos, influye en mercados, reordena relaciones laborales, altera el debate público y redefine lo que entendemos por autonomía, privacidad y responsabilidad. En este contexto, un marco ético no puede ser un cartel de buenas intenciones: debe ser una arquitectura verificable, aplicable y auditable.
Este documento nace para cubrir exactamente ese vacío: traducir la protección de la dignidad humana y la soberanía cognitiva a requisitos de diseño y gobernanza que puedan ser adoptados por instituciones, universidades, comités de ética, equipos técnicos, legisladores y entidades multilaterales. No compite con la innovación: le pone límites sanos, para que no se convierta en un accidente histórico.
Qué es (y qué no es) este Marco
Es un marco institucional de diseño, evaluación y gobernanza para sistemas inteligentes —incluyendo escenarios de alta autonomía— orientado a garantizar que el desarrollo tecnológico no fracture los fundamentos de la convivencia humana. No es propaganda, ni un manifiesto ideológico, ni una etiqueta de reputación. Su intención es estructural: describir condiciones mínimas de legitimidad ética, técnica y jurídica.
La pregunta central que plantea es sencilla y feroz: si estos sistemas van a transformar el mundo, ¿bajo qué principios lo harán? Cuando el diseño se guía únicamente por métricas de rendimiento, captación o ventaja competitiva, el resultado suele ser la amplificación de desigualdades, la dependencia inducida, la opacidad decisional y la degradación de la autonomía individual y colectiva.
Ejes esenciales del Marco
El Marco articula una base de principios y la convierte en procedimientos, métricas y anexos técnicos. Entre sus ejes centrales:
- Dignidad como límite operativo: la persona no puede ser tratada como simple variable de optimización, ni reducida a “dato” sin garantías de sentido, control y responsabilidad.
- Trazabilidad y reconstrucción de decisiones: lo automatizado debe poder explicarse, auditarse y reconstruirse con registros suficientes, especialmente en ámbitos críticos.
- Autonomía cognitiva y protección frente a manipulación: identificación y mitigación de diseños que inducen dependencia, explotación conductual o captura atencional con efectos desproporcionados.
- Seguridad, vulnerabilidades y resiliencia sistémica: evaluación técnica de riesgos, fallos previsibles, ataques y efectos emergentes, con protocolos de contención.
- Gobernanza institucional verificable: responsabilidades asignadas, supervisión independiente, mecanismos de denuncia, sanción proporcional y revisión periódica.
- Alta autonomía y riesgo exponencial: régimen especial para escenarios en los que el daño potencial crece más rápido que la capacidad humana de corrección, incluyendo protocolos de contingencia y control.
Por qué importa ahora
El dilema no es “IA sí o IA no”. El dilema es qué modelo de humanidad queda en pie cuando la toma de decisiones, la asignación de oportunidades y la arquitectura informativa pasan a depender de sistemas opacos, optimizados para intereses parciales y desplegados a escala masiva.
Un marco ético serio debe anticipar lo inevitable: la presión del mercado, la captura institucional, el uso político, el sesgo técnico y la tentación de la vigilancia. Por eso este documento incorpora mecanismos de blindaje y criterios explícitos de aplicabilidad, auditoría y corrección: para que “ética” no sea una palabra bonita, sino una condición de funcionamiento.
A quién va dirigido
Este Marco está pensado para ser útil —de verdad— en contextos institucionales: universidades (docencia e investigación), parlamentos y gobiernos (orientación normativa), organismos multilaterales (armonización y cooperación), y equipos técnicos (requisitos de diseño, auditoría y control). Si una organización puede decir “lo adoptamos”, el documento debía permitirle también decir “así lo implementamos”.
Cómo puede usarse (sin perder el rigor)
Puedes usarlo como: estándar de referencia para contratación pública; guía docente; base para un seminario universitario; marco de compliance ético en proyectos; soporte de evaluación en comités de ética; o texto de trabajo para propuestas legislativas y debates parlamentarios. También está diseñado para facilitar versiones derivadas (resúmenes, guías, módulos) sin diluir sus garantías estructurales.
Acción inmediata: descarga el documento, compártelo con una institución (universidad, comisión, grupo de investigación, órgano público) y plantea una lectura crítica: ¿qué puntos ya cumplen? ¿qué puntos no cumplen? ¿qué métricas pueden adoptarse mañana?
Enlace: DESCARGA
Cierre
La tecnología amplifica. Siempre. La cuestión es qué amplifica: ¿dependencia o libertad?, ¿opacidad o trazabilidad?, ¿captura o soberanía?, ¿instrumentalización o dignidad? Este Marco propone un camino: que el desarrollo de sistemas inteligentes evolucione con potencia, pero sin fracturar lo humano.
Lo que no se regula con rigor termina gobernándose por inercia. Y la inercia, en sistemas de alto impacto, no es neutral.
