Reglamento de la Unión Europea sobre IA: el factor humano
Autor: Néstor Arturo Bedoya
Abril 18, 2024
las medidas a cargo de personas naturales serán las que garantizarán su uso adecuado.
El pasado mes de marzo fue aprobado por el Parlamento Europeo el Reglamento sobre Inteligencia Artificial 2021/0106 (COD). Si bien llevaba siendo discutido desde hace más de tres años, resulta de vital importancia conocerlo por la influencia que las decisiones de este órgano tienden a tener sobre las regulaciones de otros países, en especial de Latinoamérica, siendo común que posteriormente se aprueben en ellos reglamentos idénticos o muy similares a los de la Unión Europea.
Aunque no pretendo hacer un análisis a fondo de la totalidad del Reglamento, pues tiene una extensión de más de cien páginas, sí quisiera hacer algunos comentarios sobre algunos aspectos en los cuales se evidencia cómo, pese a que la Inteligencia Artificial (IA) es un desarrollo inevitable para mejorar la vida humana, las medidas a cargo de personas naturales serán las que garantizarán su uso adecuado.
Frente a esto, el Reglamento establece las prácticas de inteligencia artificial completamente prohibidas (art. 5), la cual es una lista taxativa de conductas que no se podrán realizar bajo ninguna condición, tales como utilizar la IA para modificar la conducta de una persona sin su conocimiento (medios subliminales) o aprovechándose de sus debilidades físicas o mentales, generando así un perjuicio a sí mismo o a un tercero.
Pero, por otra parte, también establece los Sistemas de IA de alto riesgo (art. 6)., los cuales serán los sistemas que utilicen la IA para, entre otros, reconocimiento de datos biométricos a distancia, identificación de emociones, procesos de admisión educativos, procesos de selección laborales y clasificación crediticia. Estos deberán contar con un proceso de control del riesgo durante todo su ciclo de vida que conste de las siguientes etapas (art. 9, numeral 2):
La identificación y el análisis de los riesgos conocidos y previsibles vinculados a cada sistema de IA de alto riesgo.
La estimación y la evaluación de los riesgos que podrían surgir cuando el sistema de IA de alto riesgo en cuestión se utilice conforme a su finalidad prevista y cuando se le dé un uso indebido razonablemente previsible.
La evaluación de otros riesgos que podrían surgir a partir del análisis de los datos recogidos con el sistema de seguimiento posterior a la comercialización al que se refiere el artículo 61 (este hace referencia a los requisitos de esta plan de seguimiento).
la adopción de medidas oportunas de gestión de riesgos.
El artículo 11 también exige a los proveedores de estos sistemas la documentación técnica suficiente antes de su ingreso en el mercado, la cual le permita evaluar a cualquier autoridad que si el respectivo sistema cumple con los requisitos aludidos anteriormente. Por otra parte, el artículo 13 establece la obligación de ser transparente con los usuarios, de manera que puedan sean fácilmente comprensibles las instrucciones de uso de la IA y la información obtenida a través del sistema.
Finalmente, el artículo 14 establece un aspecto esencial para estos sistemas y es que deben ser diseñados incluyendo medidas para ser vigilados por personas naturales, aun cuando la IA se utilice conforme a sus finalidades o exista un uso indebido razonablemente previsible, las cuales podrán ser definidas para ser realizadas por el proveedor del sistema o directamente por el usuario.
El enlace ha sido copiado al portapapeles.