|
Artículo 9 - Artículo 9.- Medidas frente a contingencias. Cuando un sistema de IA de alto riesgo introducido en el mercado o puesto en servicio no se ajuste a las reglas previstas en la presente ley, el operador, asistido por su proveedor de tecnología, cuando sea procedente, adoptará inmediatamente las medidas necesarias para desactivarlo, retirarlo del mercado o recuperarlo.
Estas medidas se encontrarán establecidas dentro del sistema de gestión de riesgos del respectivo sistema de IA de alto riesgo y serán diseñadas de conformidad con su finalidad de uso.
|
GENERAL |
0 |
6 |
0 |
ver |
|
Indicación 40 A - 40 A) Del Ejecutivo al TÍTULO IV para reemplazar el epígrafe por el siguiente:
“Título IV USO DE RIESGO LIMITADO DE SISTEMAS DE INTELIGENCIA ARTIFICIAL" |
GENERAL |
6 |
0 |
0 |
ver |
|
Indicación 31 A, literal h) - h) Para reemplazar el literal g) por el siguiente:
“g) Precisión, solidez y ciberseguridad: El funcionamiento de los sistemas de IA de alto riesgo deberá respetar el principio de seguridad desde el diseño y por defecto, debiendo contar con un nivel adecuado de precisión, resiliencia, seguridad y ciberseguridad, funcionando de manera fiable, predecible y resiliente, garantizando su seguridad y resistencia a incidentes durante todo su ciclo de vida.
El cumplimiento de estos requisitos deberá garantizarse mediante la implementación de medidas de seguridad alineadas con lo dispuesto en los artículos 3, 7 y 9 de la ley N° 21.663 marco de ciberseguridad. |
GENERAL |
5 |
0 |
0 |
ver |
|
31 A) Inciso segundo, tercero y cuarto -
En cualquier caso, para el cumplimiento de las reglas precedentes, se podrán establecer estándares diferenciados en virtud del tipo de operador y en consideración a su tamaño, especialmente teniendo en consideración las características y necesidades de las empresas de menor tamaño, tal como se definen en la ley N° 20.416, que fija normas especiales para las empresas de menor tamaño.
Cuando un sistema de IA de alto riesgo no se ajuste a las reglas previstas en la presente ley, el operador adoptará inmediatamente las medidas necesarias para desactivarlo, retirarlo del mercado o suspenderlo. Estas medidas se encontrarán establecidas dentro del sistema de gestión de riesgos del respectivo sistema de IA de alto riesgo y serán diseñadas de conformidad con su finalidad de uso.
La APDP y/o la ANCI, en el ámbito de sus competencias, podrán requerir a los operadores sistemas de IA de alto riesgo procedimientos específicos de fiscalización, respecto a la materia regulada en la presente ley, cuando existan indicios de incumplimiento de la normativa vigente o riesgos potenciales para el ejercicio de los derechos fundamentales.”.
|
GENERAL |
4 |
1 |
0 |
ver |
|
Indicación 36) - 36) Del diputado Kaiser para sustituir el artículo 9 por el siguiente:
“Artículo 9.- Medidas frente a contingencias. Cuando un uso de sistema de IA de alto riesgo sea introducido en el mercado o puesto en servicio no se ajuste a las reglas previstas en la presente ley, el operador, asistido por su proveedor de tecnología, cuando sea procedente, adoptará inmediatamente las medidas necesarias para desactivarlo, retirarlo del mercado o recuperarlo.
Estas medidas se encontrarán establecidas dentro del sistema de gestión de riesgos del respectivo uso del sistema de IA de alto riesgo y serán diseñadas de conformidad con su finalidad de uso.”.
|
GENERAL |
0 |
5 |
1 |
ver |
|
Indicación 39 A) - 39 A) Del Ejecutivo al artículo 10, que ha pasado a ser 9, para reemplazarlo por el siguiente:
“Artículo 9.- Seguimiento posterior a la implementación, puesta en servicio, distribución e introducción en el mercado, de sistemas de IA de alto riesgo. Los operadores establecerán y documentarán un sistema de seguimiento, que sea proporcional y adecuado a la naturaleza y riesgos identificados en sus usos.
El sistema de seguimiento recabará y analizará datos proporcionados por los operadores o recopilados a través de otras fuentes, con el objetivo de evaluar el funcionamiento de los sistemas de IA de alto riesgo durante toda su vida útil. Este proceso permitirá a los operadores determinar el nivel de cumplimiento de las reglas del artículo 8 de la presente ley.
Cuando proceda, el seguimiento posterior incluirá un análisis de la interacción con otros entornos de sistemas de IA, incluidos otros dispositivos y software interconectados que puedan influir en su funcionamiento o generar riesgos adicionales.”.
|
GENERAL |
5 |
0 |
1 |
ver |
|
Indicación 40, diputada Labra - 40) De la diputada Labraal artículo 11, para reemplazarlo por el siguiente:“Artículo 11.- Obligaciones de transparencia en sistemas de IA de riesgo limitado. Los sistemas de IA de riesgo limitado, de conformidad al artículo 5º letra c) de la presente ley, deberán procurar proveerse en condiciones transparentes, de modo tal que las personas sean informadas de forma clara y precisa, y les permitan estar conscientes deque están interactuando con un sistema de IA, excepto en las situaciones en las que esto resulte evidente debido a las circunstancias y al contexto de utilización.
Con todo, este deber no se aplicará a los sistemas de IA autorizados por la ley para fines de detección, prevención, investigación o enjuiciamiento penal, salvo que estossistemas estén a disposición del público para denunciar ilícitos de carácter penal.” |
GENERAL |
1 |
2 |
3 |
ver |
|
Indicación 41, del diputado Kaiser - 41) Del diputado Kaiser al artículo 11, en la frase “Sistemas de IA”, para anteponer a esta las palabras “Uso de”. |
GENERAL |
3 |
2 |
0 |
ver |
|
Indicación Lagomarsino y Labra nueva - A la indicación 40 B, del ejecutivo, para eliminar la palabra "explicabilidad" y reemplazar la expresión "máquina" por "un sistema de IA" |
GENERAL |
7 |
0 |
0 |
ver |