Ecuador se encuentra en pleno debate del proyecto de Ley Orgánica de Inteligencia Artificial, cuyo objetivo es regular, supervisar, promover y mitigar los efectos de la IA en distintos ámbitos, tanto públicos como privados. Esta iniciativa busca dar respuesta a los desafíos legales, éticos y sociales que implica la adopción acelerada de estas tecnologías, procurando un balance entre protección de derechos fundamentales, claridad regulatoria e innovación responsable.
Alcance del proyecto de ley
El texto establece un marco amplio, que abarca:
- Sujetos y actividades reguladas: entidades públicas y privadas, nacionales o extranjeras, que investiguen, desarrollen, comercialicen o utilicen sistemas de IA dentro del Ecuador o cuyos efectos jurídicos recaigan sobre personas domiciliadas en el país.
- Ciclo de vida de la IA: investigación, desarrollo, despliegue, operación, monitoreo y terminación o remediación.
- Clasificación por nivel de riesgo: desde riesgo bajo hasta extremo o prohibido, con obligaciones diferenciadas en cada caso.
- Principios rectores: transparencia, proporcionalidad, supervisión humana, protección de datos, no discriminación, dignidad humana, ética, inclusión y responsabilidad.
Derechos de los titulares
El proyecto reconoce un catálogo de derechos que deberán garantizarse frente al uso de IA:
- Privacidad y protección de datos personales: exigencia de consentimiento informado y cumplimiento estricto de la normativa de datos, con atención reforzada en el tratamiento de información sensible.
- Transparencia y explicabilidad: derecho a conocer cuándo una decisión es tomada por IA o con asistencia de IA, a comprender sus fundamentos y a solicitar revisión humana.
- Protección frente a discriminación y riesgos automáticos: medidas para evitar sesgos en decisiones que afecten igualdad de oportunidades, empleo, salud, educación o servicios públicos.
- Propiedad intelectual: reconocimiento de protección a las obras con “contribución creativa humana sustancial”, dejando en dominio público las generadas exclusivamente por IA. También se establecen disposiciones de responsabilidad civil por infracciones.
Gestión de riesgos
Para garantizar que la normativa sea más que declarativa, se contemplan medidas específicas:
- Evaluaciones de impacto (EIDH) para sistemas de alto o extremo riesgo, que analicen posibles efectos adversos antes de su despliegue.
- Auditorías y monitoreo continuo, orientados a verificar ausencia de sesgos y funcionamiento conforme a lo prometido.
- Supervisión humana obligatoria en ámbitos críticos como justicia, salud, educación y seguridad.
- Prohibiciones explícitas de sistemas extremos, como vigilancia biométrica indiscriminada, manipulación subliminal o armamento autónomo.
Propuestas destacadas
El proyecto incluye mecanismos relevantes:
Propuesta | Implicaciones |
Registro nacional de sistemas de IA | Identificar tecnologías, operadores y riesgos, fomentando transparencia y rendición de cuentas. |
Prohibición de sistemas de riesgo extremo | Veda a usos intrusivos como reconocimiento facial en tiempo real sin garantías judiciales. |
Régimen de incentivos | Apoyo a investigación local, emprendimientos y proyectos de innovación responsable. |
Responsabilidad civil y penal | Sanciones por daños o infracciones de propiedad intelectual derivados del uso indebido de IA. |
Protección especial a menores | Regulación reforzada en educación, salud y contenidos digitales dirigidos a niños, niñas y adolescentes. |
Retos, vacíos y recomendaciones
Si bien el proyecto es pionero en la región, su eficacia dependerá de cómo se corrijan ciertos vacíos:
1. Gobernanza y capacidad institucional
El proyecto asigna la rectoría a la autoridad nacional con competencias TIC, pero la independencia técnica y los recursos especializados son aún inciertos. Sin una autoridad con financiamiento, expertos y atribuciones claras, la norma corre el riesgo de convertirse en un marco declarativo sin capacidad de fiscalización.
Además, sería recomendable institucionalizar un consejo asesor multiactor, que incorpore academia, sector privado y sociedad civil, para dar legitimidad y actualizar criterios técnicos de forma periódica.
2. Enfoque de riesgo: útil pero incompleto
La clasificación en niveles de riesgo (bajo, moderado, alto y extremo) es un avance, pero conceptos como “probablemente irreversibles” o “masivamente” dejan espacios de indeterminación jurídica. Para evitar arbitrariedades se requieren métricas objetivas, anexos técnicos y listas dinámicas de casos típicos que permitan una supervisión proporcional y coherente.
3. Registros, evaluaciones y auditorías
El proyecto contempla un registro público para sistemas de alto riesgo y la obligación de realizar Evaluaciones de Impacto en Derechos Humanos (EIDH). Sin embargo, no define qué constituye un “cambio sustancial” en un sistema ni cómo deben hacerse públicas dichas evaluaciones.
Además, las auditorías de sesgo y trazabilidad carecen de protocolos uniformes y mecanismos de acreditación de auditores. Sin estos estándares, los controles podrían reducirse a un simple checklist formal.
4.Propiedad intelectual y contenidos sintéticos
El texto distingue entre obras con “contribución creativa humana sustancial” y aquellas generadas de manera autónoma por IA, que pasarían al dominio público. Esto abre un debate complejo: ¿cómo probar qué parte de la obra corresponde al humano y cuál a la IA?
Además, el etiquetado obligatorio de outputs requiere estándares técnicos sólidos (p.ej., metadatos verificables) y reglas claras para contenidos importados de otras jurisdicciones.
- Innovación, PyMEs y sandbox
Se incluyen incentivos y espacios de prueba regulada (sandbox), aunque todavía falta definir la gobernanza de esos entornos, los criterios de acceso y las métricas de éxito. Para las PyMEs, sería clave implementar formatos simplificados y ventanillas únicas de asistencia técnica, evitando que la burocracia desincentive su participación.
- Trabajo, medioambiente y ciberseguridad
Tres vacíos notables persisten:
- Relaciones laborales: se necesita regular el “management algorítmico”, garantizando notificación, explicación y vías de impugnación.
- Impacto ambiental: no se establecen métricas de consumo energético ni emisiones asociadas a grandes entrenamientos de IA.
- Seguridad de modelos: el proyecto no exige pruebas de robustez, red-teaming ni reportes obligatorios de incidentes severos, lo que podría dejar expuestas aplicaciones críticas.
Conclusión
El proyecto de Ley de Inteligencia Artificial en Ecuador es un paso audaz hacia la construcción de un marco regulatorio contemporáneo. Sin embargo, enfrenta el desafío de no convertirse en una norma simbólica. Para ello, deberá ser preciso en sus definiciones, realista en su capacidad de control, equilibrado en su alcance y plural en su construcción.
Solo así, la inteligencia artificial podrá convertirse en un motor de innovación, competitividad y confianza ciudadana, en lugar de un espacio de incertidumbre legal o de simple cumplimiento formal.
En Hayu analizamos el impacto del Proyecto de Ley de Inteligencia Artificial en Ecuador. Conoce cómo puede afectar a tu empresa y cuáles son los próximos pasos.
