Robots y Responsabilidad Civil
Autor: Tatiana Malaver Moreno
Abril 11, 2022
Nada mejor que la literatura de ciencia ficción para darnos una aproximación a los casos que en antaño, no fueron más que el fruto de la imaginación, hoy nos servimos de ella para pensar el presente, el futuro de la humanidad y su interacción con la tecnología. Isaac Asimov 1950 estableció tres leyes de la robótica:
1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto cuando estas órdenes se oponen a la primera ley.
3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la primera o segunda leyes. (Asimov 1950 p.4)
Estas leyes que fueron formuladas en 1950, en la actualidad no son ajenas a la realidad que hoy se vive, la sociedad convive con el desarrollo que brinda la IA, desarrollada en robots, bots, chatbot, androides y humanoides. En esta interacción entre humanos y robots, estos adquieren un papel importante en nuestra sociedad, su integración e interacción con la humanidad está dada por el objetivo de realizar tareas específicas que el ser humanos también puede realizar, entre ellas tenemos: actividades de selección o clasificación, operaciones contables y quehaceres del día a día.
El actuar de los robots dotados con IA difiere al ser humano, porque carecen de inteligencia emocional e intuición para la toma de decisiones, mientras en los sistemas de IA están basadas en el desarrollo de algoritmos que van madurando a mayor experiencia. Por otra parte, los seres humanos crean normas de conducta social, que están enmarcadas en la aceptación o rechazo, esta última tiene una consecuencia que se materializa en sanción, convirtiéndose en una forma política para garantizar la vida en sociedad (González 2017 pág. 40). Otra diferencia radica en que los robots no siguen el modelo de castigo y sanción, esta medida es incompatible con su sistema de comportamiento artificial, ya que su actuar básicamente responde a experiencias adquiridas mediante algoritmos de aprendizaje.
Complementando lo anterior, es necesario acotar que estos sistemas de aprendizaje es autónomamente, al nutrirse de la información que recibe día tras día, como se deduce, es de esta forma como se hacen más independientes de su creador, lo que genera una ruptura entre el creador de la máquina y el robot, ocasionado una elevada autonomía, que se materializa en la necesidad de determinar su estado jurídico, lo que se ha denominado persona electrónica o también persona artificial, esta categoría le da cierta capacidad al robot de celebrar contratos sin intervención humana, pagar impuestos, demandar y ser demandado entre otras tareas que puede desarrollar con autonomía.
Siguiendo a Valente (2019) Al dotar al robot con la palabra "persona" no significa que se esté igualando a un nivel humano (persona en sentido meramente genérico) sino que el robot puede ser sujeto de derechos y obligaciones, un segundo elemento que es consecuencia de lo anterior es la responsabilidad civil, esta dependerá del nivel mismo de autonomía del sistema, clasificándose el nivel de responsabilidad en dos momentos: la etapa inicial y la segunda etapa de experiencia.
PREGUNTA 1: ¿Cómo determinar la responsabilidad civil de los robots dependiendo de su nivel de autonomía?
RTA/: El primer nivel de autonomía es bajo, se da cuando el robot en la realización de sus tareas específicas depende totalmente de la intervención humana. Un segundo nivel de autonomía es alto, aquí el robot no necesita ningún tipo de intervención humana, ya que es un sistema completamente maduro y debido a este nivel de inteligencia, cada vez se hace más difusa la línea entre programador y robot (González 2017). Aquí en este último nivel la responsabilidad civil entra a determinar quién es el sujeto que causó el daño, pero debido al nivel elevado de autonomía de algunos sistemas identificar el sujeto responsable es mucho más difícil.
Con esta comprobación llegamos a entender que para poder determinar el sujeto responsable, en sistemas de IA de elevada madurez y autonomía, es preciso hablar de un estatus legal en el ordenamiento jurídico, podemos citar como ejemplo que el Parlamento Europeo, que en su Resolución del 16 de Febrero del 2017, insiste en la creación de nueva categoría de "persona electrónica", debido al rápido desarrollo de la tecnología, la legislación se debe responder a esta nueva necesidad, por esto la categoría prematura llamada persona electrónica, basada en la unión de persona - cosa, que se asimila a la figura de persona jurídica que también es una ficción (González 2017).
Así las cosas, se coincide con el planteamiento de González (2017), al hablar de "persona electrónica" se hace necesario aclarar que no podemos inferir que al utilizar el término "persona", le estamos nivelando al robot a la categoría de humano, sino que con este término dotamos al robot de una ficción jurídica que le otorga ciertas obligaciones y derechos, es decir, en un futuro los robots podrán realizar tareas más complejas que hoy desarrolla el ser humano.
Ahora nos referimos al segundo término expone González (2017) "electrónica", es necesario establecer la diferencias entre un sistema electrónico y la IA, en el entendido que el primero no son inteligentes, para el segundo es mejor adoptar la categoría de persona artificial, cuando se refiere a está, no significa que se le esté dando una amplia apertura de derechos y obligaciones a los robots, es en este tipo de categoría donde el sistema jurídico debe entrar a regular el alcance de los derechos que se les otorgan y las obligaciones a las cuales queda sometido la IA.
PREGUNTA 2: ¿Cuáles son las posibles soluciones ante la inminente autonomía elevada de los robots y la incidencia en la responsabilidad civil?
RTA/: La respuesta la encontramos en lo planteado por el Parlamento Europeo en la en su (Resolución P8_TA (2017)0051 del 16 de febrero de 2017) donde se plantean las siguientes soluciones "Establecer un régimen de seguro obligatorio, La posibilidad y/o necesidad de crear un fondo de compensación Crear un número de identificación" (pp.16-17). Casadesus (2020) complementa esta propuesta en la primera los fabricantes o los propietarios de robots estarían obligados a suscribir un contrato de seguro por posibles daños y perjuicios causados por los robots. Aunque en esta alternativa la resolución no es muy específica por ejemplo en quien recae la obligación de adquirir este seguro, para la segunda se deduce que pueda devenir de las tasas impuestas a los empresarios del trabajo que realiza el robot. Permitir que el fabricante, el programador, el propietario o el usuario puedan beneficiarse de un régimen de responsabilidad limitada si contribuyen a este fondo. Aquí la resolución se plantea la cuestión, de si solo basta con un fondo de compensación que cubra a toda clase de robots inteligentes o crear varios fondos de compensación dependiendo de los diferentes tipos de robots, y finalmente se extrae que una cédula robótica donde se especifique las siguientes características del robot: tipo de robot, sector de actividad, función del robot y nivel de autonomía del mismo.
Lo aquí planteado es una forma de protección a los usuarios, para Casadesus (2020) la exigencia de tener una póliza de seguro, la identificación de los robots dotados de IA bajo un registro de identificación precisa, que asocia al fabricante y programador, permite una seguridad de que los robots con mayor desarrollo, estén plenamente reseñados en la cadena de producción y manejo, brindando a las autoridades el control y el acceso a la información de estas máquinas inteligentes.
En concordancia con lo anterior, según lo plantea González (2017), el Documento de identificación de robot inteligente artificialmente DNI, será emitido por la Unión Europea. Este registro será vital ya que sin este los robots no podrán realizar sus tareas específicas y mucho menos interactuar con humanos, este registro tiene los siguientes propósitos:
• Control humano sobre los robots inteligentes
• Evitar el uso ilegal de estos robots
• Protección de los datos
• Monitorear todas las actividades del robot
• Control del sistema ante decisiones éticas
Podemos deducir que la finalidad del registro es brindar protección, seguridad a cada uno de los usuarios, al mismo tiempo tener el control y monitoreo de cada robot que esté en el mercado. Pero las condiciones que se plantean por la UE para esta IA, "ha sido criticada por la European Robotics Association por implicar excesivos trámites burocráticos en relación con los beneficios que dicho registro comportaría" (Casadesus Ripoll, 2020 p. 372).
Paralelamente en el marco jurídico colombiano no hay una regulación específica sobre la IA, pero el gobierno nacional puso en discusión el documento Marco Ético para la IA (2020), teniendo como propósito estipular marcos transversales, es decir, que sean aplicables al campo público y privado. Este Marco Ético para la IA (2020) plantea que la construcción responde a dos necesidades, la primera es la implementación continua de nuevos sistemas inteligentes en sectores tanto públicos como privados. Un segundo eje plantea la creación de un marco ético que permita marcar una frontera social entre las personas y este tipo de tecnologías, ya que la ética permitirá consensos sociales con estos nuevos sujetos pero que no serán restrictivos.
Para este marco ético, no solo basta la enunciación de principios generales que puedan ser aplicables a cualquier situación donde intervenga la IA, también se busca un análisis amplio de todo el espectro que genera la ética de los datos que es definida, como el análisis y el uso debido de los datos que obtienen sistemas inteligentes (big data). En este sentido el Marco Ético para la IA (2020) describe que "los datos estudiaran tres campos de acción de la IA, como son datos su protección, tratamiento y divulgación, algoritmos machine learning y deep learning, practicas Programación responsable, hacking saludable" (p.14).
En 2016, Floridi & Taddeo proponen esta ética que es valiosa dado que permite desarrollar buenas prácticas y conductas consideradas como moralmente buenas, para abordar los dilemas éticos planteados por la colección y análisis de grandes bases de datos y sobre dilemas que van desde el uso de big data en investigación biomédica y en las ciencias sociales, al perfilamiento, publicidad y filantropía de datos, así como open data.
El Marco Ético para la IA (2020) desarrolla situaciones donde se es preciso limitar el ejercicio de la IA, en los siguientes casos:
• Sistemas de Inteligencia Artificial en el sistema penal para determinar nivel de riesgo de un individuo y grado de reincidencia: conforme al estudio estos tienen un impacto negativo en el derecho a una audiencia pública justa, el derecho a ser considerado inocente hasta que se pruebe lo contrario y la libertad de interferencias con la privacidad, la familia, la vivienda y la correspondencia.
• Sistemas de Inteligencia Artificial en el sistema financiero para determinar el riesgo crediticio de un individuo: conforme al estudio estos tienen un impacto negativo en la libertad de interferencias con la privacidad, la familia, la vivienda y la correspondencia, en la libertad de opinión e información, en el derecho a la libertad de asociación y en el derecho al trabajo deseado y de sindicato.
• Sistemas de Inteligencia Artificial en el sistema de salud para realizar diagnósticos médicos: tienen un impacto negativo en la libertad de interferencias con la privacidad, la familia, la vivienda y la correspondencia.
• Sistemas de Inteligencia Artificial en los departamentos de recursos humanos para el reclutamiento y selección de candidatos: conforme al estudio estos tienen un impacto negativo en la libertad de interferencias con la privacidad, la familia, la vivienda y la correspondencia, en la libertad de opinión e información y en el derecho a la libertad de asociación.
• Sistemas de Inteligencia Artificial para moderar contenido online e implementar los estándares de participación propuestos: tienen un impacto negativo en la libertad de interferencias con la privacidad, la familia, la vivienda y la correspondencia y en la libertad de opinión e información (p.18-19).
Las situaciones anteriormente mencionadas, no significa que toda actuación de un sistema de IA sea perjudicial para los seres humanos, como lo expresa el Marco Ético IA 2020:
"Muchos de los resultados obtenidos están relacionados con la forma como los sistemas fueron implementados en cada uno de estos sectores y la manera como se interpretó la información proporcionada por esta tecnología. Este estudio provee evidencia relevante sobre los potenciales riesgos que existen, pero no deben llevar a una generalización ni a considerar juicios absolutos, tales como que el uso de esta innovación de esta tecnología siempre tendrá efectos negativos en el sector de la salud o el sistema criminal. Es claro que pueden existir sectores y prácticas en los que la tecnología puede conllevar mayores riesgos, pero este debe ser evaluado caso a caso y bajo contextos particulares. El estado de la evidencia actual no permite generalizaciones al respecto. (p. 20)"
Por tanto, se hace imprescindible que en nuestro sistema jurídico se empiece a construir lineamientos éticos, que respondan a estas nuevas necesidades que han venido surgiendo por los avances técnico-científico que se han ido integrando a nuestra sociedad.
El enlace ha sido copiado al portapapeles.