Proyecto de ley para regular los sistemas de Inteligencia Artificial (Boletín N° 16.827-07) Por Gustavo Balmaceda Hoyos
Introducción
Estudiaremos el proyecto de ley que establece un marco jurídico para regular los sistemas de Inteligencia Artificial (IA) en Chile. Esta iniciativa del Ejecutivo, que se encuentra en su primer trámite constitucional, tiene por objetivo promover el desarrollo y la innovación en IA, al tiempo que busca garantizar el respeto a los derechos fundamentales frente a los riesgos que ciertos usos de esta tecnología podrían generar.
- Estructura y conceptos clave
- Ámbito de aplicación (art. 2): El proyecto se aplica a:
– Proveedores que introduzcan o pongan en servicio sistemas de IA en Chile.
– Implementadores de sistemas de IA domiciliados en Chile.
– Proveedores e implementadores extranjeros, cuando la información de salida del sistema se utilice en Chile.
– Importadores, distribuidores y representantes de proveedores de IA domiciliados en Chile.
Se excluyen sistemas de IA para defensa nacional, actividades de investigación y desarrollo previas a su comercialización (salvo pruebas en condiciones reales) y componentes de IA open-source (salvo que se comercialicen como parte de un sistema de IA de alto riesgo).
- Sistema de IA (art. 3 N°1): Se define como un sistema basado en máquinas que, en base a ciertos objetivos, infiere cómo generar salidas (predicciones, contenidos, recomendaciones, decisiones) que influyen en entornos físicos o virtuales. Pueden tener distintos niveles de autonomía y adaptabilidad.
- Proveedores (art. 3 N°4) e implementadores (art. 3 N°5): Proveedores son quienes desarrollan un sistema de IA para introducirlo en el mercado o ponerlo en servicio. Implementadores son quienes lo utilizan, salvo uso privado.
- Principios (art. 4): Todos los operadores de IA deben observar principios de intervención y supervisión humana, solidez y seguridad técnica, privacidad y gobernanza de datos, transparencia y explicabilidad, no discriminación, bienestar social y ambiental, rendición de cuentas y protección de los derechos del consumidor.
- Enfoque basado en riesgos (art. 5): Clasifica los sistemas de IA según su nivel de riesgo:
– Riesgo inaceptable: Incompatibles con los derechos fundamentales. Prohibidos.
– Alto riesgo: Pueden afectar significativamente salud, seguridad, derechos fundamentales, medio ambiente o consumidores. Permitidos cumpliendo reglas obligatorias.
– Riesgo limitado: Presentan bajo riesgo de manipulación, engaño o error. Sujetos a reglas de transparencia.
– Sin riesgo evidente: Los demás sistemas, no sujetos a reglas especiales.
- Sistemas de IA prohibidos (art. 6)
Se prohíben sistemas que:
– Manipulen subliminalmente a las personas causando daños a su salud física o mental.
– Exploten vulnerabilidades de grupos específicos (rasgos de personalidad, situación social, edad, discapacidad, etc.) para alterar sustancialmente su conducta y causarles perjuicios. Incluye sistemas dañinos para la integridad de menores.
– Categoricen a personas según datos sensibles provocando tratos discriminatorios.
– Puntúen o califiquen a personas basados en su conducta social, estatus socio-económico o características personales, de forma discriminatoria (social scoring).
– Usen identificación biométrica remota en tiempo real en espacios públicos (salvo para fines de seguridad pública y persecución penal).
– Extraigan imágenes faciales desde internet para ampliar bases de datos de reconocimiento facial (facial scraping).
– Infieran emociones de personas en ámbitos de ley penal, lugares de trabajo o establecimientos educacionales.
III. Sistemas de IA de alto riesgo (arts. 7-10)
- Concepto (art. 7): Sistemas que presentan riesgo significativo de dañar salud, seguridad, derechos fundamentales, medio ambiente o derechos del consumidor. Un reglamento especificará qué sistemas se consideran de alto riesgo.
- Reglas obligatorias (art. 8):
- a) Gestión de riesgos: Evaluación continua de riesgos durante todo el ciclo de vida del sistema.
- b) Gobernanza de datos: Manejo de datos de entrenamiento acorde a estándares técnicos, proporcionalidad a finalidad y contexto de uso.
- c) Documentación técnica: Debe ser inteligible y demostrar cumplimiento de reglas.
- d) Registros: Capacidad de registrar información y eventos de seguridad.
- e) Transparencia: Suficiente para que operadores y destinatarios entiendan su funcionamiento.
- f) Supervisión humana: Permitir control humano para prevenir riesgos.
- g) Precisión, solidez y ciberseguridad: Garantizar exactitud, consistencia, confiabilidad y robustez. Seguridad desde el diseño.
El reglamento fijará estándares según tipo y tamaño del operador, con normas adaptadas para pymes.
- Medidas frente a incumplimientos (arts. 9-10): Si no se ajustan a las reglas, deben desactivarse o retirarse del mercado. Implementadores mantendrán sistemas de seguimiento post-comercialización para evaluar funcionamiento.
- Sistemas de IA de riesgo limitado (arts. 11-12)
Deben suministrarse de forma transparente, informando claramente a personas que están interactuando con una IA, salvo que sea evidente por contexto o se usen para fines de persecución penal.
- Incidentes graves (art. 13)
Cualquiera podrá reportar a la Agencia de Protección de Datos incidentes graves (daños a salud o seguridad de personas, disrupción de infraestructura crítica, vulneración de derechos fundamentales o daños ambientales). La Agencia notificará al operador para informar a afectados y tomar medidas urgentes.
- Institucionalidad (arts. 14-19)
- Consejo Asesor Técnico de IA: Instancia consultiva de 15 miembros (sector público, academia, industria, sociedad civil) que asesorará al Ministerio de Ciencia en el desarrollo, promoción y mejora continua de la IA. Propondrá reglamentos sobre sistemas de alto riesgo y riesgo limitado, orientará sobre cumplimiento de reglas y fijará lineamientos para sandboxes regulatorios.
- Agencia de Protección de Datos Personales: Fiscalizará y sancionará infracciones a esta ley.
VII. Medidas pro-innovación (arts. 20-22)
- Sandboxes regulatorios (art. 20): Órganos públicos podrán crear espacios controlados para desarrollar y probar sistemas de IA previo a su comercialización. Supervisarán su operación para detectar riesgos.
- Apoyo a pymes (art. 22): Medidas de acceso prioritario a sandboxes, fomento de capacidades y participación en el Consejo Asesor.
VIII. Régimen de sanciones (arts. 23-30)
- Infracciones (art. 24): Gravísima (poner en servicio IA prohibida), grave (incumplir reglas para IA de alto riesgo) y leve (incumplir transparencia para IA de riesgo limitado).
- Multas (art. 25): Desde 5.000 UTM (infracciones leves) hasta 20.000 UTM (infracciones gravísimas). Para determinar cuantía se considerará duración e impacto de infracción, tamaño del infractor, acciones para mitigar daño y cooperación con autoridades.
- Procedimiento sancionatorio y reclamación judicial (arts. 26-27): Agencia instruirá procedimiento con formulación de cargos, descargos, prueba y resolución final. Afectados podrán reclamar de ilegalidad ante Cortes de Apelaciones.
- Responsabilidad civil (arts. 28-29): Titulares de IA responden de perjuicios que causen. Afectados pueden demandar indemnización, cese de actos dañosos, medidas preventivas y publicación de sentencia.
- Disposiciones finales y transitorias
– Reglamentos (art. 30): Especificarán listado de sistemas de alto riesgo/riesgo limitado, reglas, medidas frente a contingencias y sandboxes regulatorios.
– Excepción a derechos de autor (art. 31): Permite reproducción de obras para fines de minería de textos y datos (entrenamiento de IA).
– Vigencia: Al año de publicación. Reglamentos en 6-12 meses.
Conclusión
El proyecto de ley que establece un marco jurídico para el desarrollo y uso de sistemas de Inteligencia Artificial en Chile (Boletín N° 16.821-19) representa un importante esfuerzo por regular de manera integral una tecnología disruptiva que plantea enormes desafíos éticos, sociales y jurídicos. A continuación, revisaremos tres argumentos a favor y tres en contra de esta iniciativa, así como algunas críticas constructivas.
Argumentos a favor:
- Enfoque basado en riesgos y principios: El proyecto adopta un enfoque regulatorio proporcionado y flexible, que distingue entre distintos niveles de riesgo de los sistemas de IA y les asigna reglas acordes. Esto permite dar certeza jurídica y al mismo tiempo adaptarse al veloz progreso de esta tecnología. Además, consagra principios generales (supervisión humana, no discriminación, transparencia, seguridad, etc.) que orientarán la interpretación y aplicación de todo el marco normativo, recogiendo consensos éticos a nivel comparado.
- Promoción de la innovación: Junto con normas precautorias para gestionar riesgos, el proyecto incluye medidas afirmativas para estimular la innovación y el desarrollo local de IA, como los sandboxes regulatorios que permitirán testear sistemas en entornos controlados previo a su comercialización. También considera apoyos especiales para pymes, reconociendo su rol clave en un ecosistema tecnológico pujante. Esto podría situar a Chile como un hub atractivo para el emprendimiento e inversión en IA.
- Institucionalidad participativa y especializada: El proyecto crea un Consejo Asesor Técnico plural con representación de diversos sectores, que apoyará al Ejecutivo en la elaboración de normativa especializada (como el listado de sistemas de alto riesgo). Esto asegura que la regulación se actualice periódicamente conforme al estado del arte, con participación de expertos y partes interesadas. Además, encomienda la fiscalización a una agencia especializada (de protección de datos personales), con un régimen de sanciones e incentivos que parece razonable para promover el cumplimiento.
Argumentos en contra:
- Amplitud y ambigüedad de conceptos clave: Si bien un enfoque basado en principios y en la evaluación de riesgos parece adecuado en este ámbito, el proyecto contiene definiciones muy amplias de “sistema de IA” y de las categorías de riesgo. Esto podría generar incertidumbre en los destinatarios de la norma respecto de qué sistemas quedarán sujetos a las prohibiciones o requisitos más estrictos. Los criterios para calificar un sistema como de “alto riesgo” son especialmente abiertos, quedando entregados a un reglamento. Mayor precisión legal sería deseable para garantizar seguridad jurídica.
- Tensión con otras regulaciones sectoriales: El carácter transversal de la IA plantea desafíos de coordinación regulatoria. El proyecto no es del todo claro respecto de cómo las reglas específicas para sistemas de alto riesgo (sobre gestión de datos, transparencia, supervisión humana, etc.) se articularán con otras normativas sectoriales (sanitaria, financiera, de protección al consumidor, etc.). Una implementación fragmentaria podría generar inconsistencias o cargas duplicativas para los regulados. Se requiere un esfuerzo adicional de armonización y diseño institucional.
- Falta de mecanismos de cumplimiento alternativos: Aunque el régimen de sanciones administrativas y la judicialización de controversias parezca necesario en casos graves, el proyecto no contempla instancias de cumplimiento colaborativo o autorregulación que podrían ser más costo-efectivas. Por ejemplo, no considera esquemas voluntarios de certificación, sellos o códigos de conducta empresarial que podrían elevar estándares de la industria. Tampoco incentiva suficientemente mecanismos ADR entre privados. Una estrategia regulatoria más rica en instrumentos podría ser valiosa.
Críticas constructivas:
Para superar algunas de las debilidades identificadas, el proyecto podría considerar las siguientes mejoras durante su tramitación:
– Acotar y precisar la definición de “sistemas de IA”, sobre todo los criterios para calificar los de alto riesgo, incorporando parámetros más objetivos y ejemplos concretos que orienten a los destinatarios.
– Incluir reglas de coordinación y supletoriedad para asegurar una articulación coherente con otros marcos regulatorios sectoriales que sean aplicables. Diseñar instancias formales de coordinación interinstitucional.
– Fortalecer los mecanismos de cumplimiento alternativos, como certificaciones, sellos o códigos de conducta, para promover una cultura de cumplimiento más allá del binomio fiscalización-sanción. Incentivar los mecanismos alternativos de resolución de conflictos.
– Evaluar la inclusión de herramientas de responsabilidad algorítmica (como evaluaciones de impacto o auditorías) que faciliten la trazabilidad y rendición de cuentas de actores privados.
– Robustecer las vías de participación ciudadana directa, más allá de la integración del Consejo Asesor, para democratizar las decisiones regulatorias clave, como la fijación de estándares para sistemas de alto riesgo.
En suma, este proyecto representa un valioso primer paso para construir un ecosistema normativo que consolide a Chile como un referente regional en el desarrollo y gobernanza de una IA centrada en las personas. Si bien contiene aspectos perfectibles, como los aquí comentados, su lógica general parece apuntar en la dirección correcta. El desafío estará en asegurar que su implementación logre materializar las enormes oportunidades sociales y económicas de esta revolución tecnológica al tiempo de prevenir y mitigar responsablemente sus riesgos éticos y jurídicos. Como suele ocurrir con los grandes desafíos, la clave estará en alcanzar los necesarios equilibrios.