{"id":3395,"date":"2022-04-11T22:45:49","date_gmt":"2022-04-12T03:45:49","guid":{"rendered":"https:\/\/munozab.nuntu.co\/?p=3395"},"modified":"2025-10-27T09:29:48","modified_gmt":"2025-10-27T14:29:48","slug":"robots-y-responsabilidad-civil","status":"publish","type":"post","link":"https:\/\/munozab.com\/en\/robots-y-responsabilidad-civil\/","title":{"rendered":"Robots y Responsabilidad Civil"},"content":{"rendered":"<p class=\"\">Nada mejor que la literatura de ciencia ficci\u00f3n para darnos una aproximaci\u00f3n a los casos que en anta\u00f1o, no fueron m\u00e1s que el fruto de la imaginaci\u00f3n, hoy nos servimos de ella para pensar el presente, el futuro de la humanidad y su interacci\u00f3n con la tecnolog\u00eda. Isaac Asimov 1950 estableci\u00f3 tres leyes de la rob\u00f3tica:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li class=\"\">Un robot no debe da\u00f1ar a un ser humano o, por su inacci\u00f3n, dejar que un ser humano sufra da\u00f1o.<\/li>\n\n\n\n<li class=\"\">Un robot debe obedecer las \u00f3rdenes que le son dadas por un ser humano, excepto cuando estas \u00f3rdenes se oponen a la primera ley.<\/li>\n\n\n\n<li class=\"\">Un robot debe proteger su propia existencia, hasta donde esta protecci\u00f3n no entre en conflicto con la primera o segunda leyes. (Asimov 1950 p.4)<br>Estas leyes que fueron formuladas en 1950, en la actualidad no son ajenas a la realidad que hoy se vive, la sociedad convive con el desarrollo que brinda la IA, desarrollada en robots, bots, chatbot, androides y humanoides. En esta interacci\u00f3n entre humanos y robots, estos adquieren un papel importante en nuestra sociedad, su integraci\u00f3n e interacci\u00f3n con la humanidad est\u00e1 dada por el objetivo de realizar tareas espec\u00edficas que el ser humanos tambi\u00e9n puede realizar, entre ellas tenemos: actividades de selecci\u00f3n o clasificaci\u00f3n, operaciones contables y quehaceres del d\u00eda a d\u00eda.<br>El actuar de los robots dotados con IA difiere al ser humano, porque carecen de inteligencia emocional e intuici\u00f3n para la toma de decisiones, mientras en los sistemas de IA est\u00e1n basadas en el desarrollo de algoritmos que van madurando a mayor experiencia. Por otra parte, los seres humanos crean normas de conducta social, que est\u00e1n enmarcadas en la aceptaci\u00f3n o rechazo, esta \u00faltima tiene una consecuencia que se materializa en sanci\u00f3n, convirti\u00e9ndose en una forma pol\u00edtica para garantizar la vida en sociedad (Gonz\u00e1lez 2017 p\u00e1g. 40). Otra diferencia radica en que los robots no siguen el modelo de castigo y sanci\u00f3n, esta medida es incompatible con su sistema de comportamiento artificial, ya que su actuar b\u00e1sicamente responde a experiencias adquiridas mediante algoritmos de aprendizaje.<br>Complementando lo anterior, es necesario acotar que estos sistemas de aprendizaje es aut\u00f3nomamente, al nutrirse de la informaci\u00f3n que recibe d\u00eda tras d\u00eda, como se deduce, es de esta forma como se hacen m\u00e1s independientes de su creador, lo que genera una ruptura entre el creador de la m\u00e1quina y el robot, ocasionado una elevada autonom\u00eda, que se materializa en la necesidad de determinar su estado jur\u00eddico, lo que se ha denominado persona electr\u00f3nica o tambi\u00e9n persona artificial, esta categor\u00eda le da cierta capacidad al robot de celebrar contratos sin intervenci\u00f3n humana, pagar impuestos, demandar y ser demandado entre otras tareas que puede desarrollar con autonom\u00eda.<br>Siguiendo a Valente (2019) Al dotar al robot con la palabra &#8220;persona&#8221; no significa que se est\u00e9 igualando a un nivel humano (persona en sentido meramente gen\u00e9rico) sino que el robot puede ser sujeto de derechos y obligaciones, un segundo elemento que es consecuencia de lo anterior es la responsabilidad civil, esta depender\u00e1 del nivel mismo de autonom\u00eda del sistema, clasific\u00e1ndose el nivel de responsabilidad en dos momentos: la etapa inicial y la segunda etapa de experiencia.<\/li>\n<\/ol>\n\n\n\n<p class=\"\">PREGUNTA 1: \u00bfC\u00f3mo determinar la responsabilidad civil de los robots dependiendo de su nivel de autonom\u00eda?<\/p>\n\n\n\n<p class=\"\">RTA\/: El primer nivel de autonom\u00eda es bajo, se da cuando el robot en la realizaci\u00f3n de sus tareas espec\u00edficas depende totalmente de la intervenci\u00f3n humana. Un segundo nivel de autonom\u00eda es alto, aqu\u00ed el robot no necesita ning\u00fan tipo de intervenci\u00f3n humana, ya que es un sistema completamente maduro y debido a este nivel de inteligencia, cada vez se hace m\u00e1s difusa la l\u00ednea entre programador y robot (Gonz\u00e1lez 2017). Aqu\u00ed en este \u00faltimo nivel la responsabilidad civil entra a determinar qui\u00e9n es el sujeto que caus\u00f3 el da\u00f1o, pero debido al nivel elevado de autonom\u00eda de algunos sistemas identificar el sujeto responsable es mucho m\u00e1s dif\u00edcil.<br>Con esta comprobaci\u00f3n llegamos a entender que para poder determinar el sujeto responsable, en sistemas de IA de elevada madurez y autonom\u00eda, es preciso hablar de un estatus legal en el ordenamiento jur\u00eddico, podemos citar como ejemplo que el Parlamento Europeo, que en su Resoluci\u00f3n del 16 de Febrero del 2017, insiste en la creaci\u00f3n de nueva categor\u00eda de &#8220;persona electr\u00f3nica&#8221;, debido al r\u00e1pido desarrollo de la tecnolog\u00eda, la legislaci\u00f3n se debe responder a esta nueva necesidad, por esto la categor\u00eda prematura llamada persona electr\u00f3nica, basada en la uni\u00f3n de persona &#8211; cosa, que se asimila a la figura de persona jur\u00eddica que tambi\u00e9n es una ficci\u00f3n (Gonz\u00e1lez 2017).<br>As\u00ed las cosas, se coincide con el planteamiento de Gonz\u00e1lez (2017), al hablar de &#8220;persona electr\u00f3nica&#8221; se hace necesario aclarar que no podemos inferir que al utilizar el t\u00e9rmino &#8220;persona&#8221;, le estamos nivelando al robot a la categor\u00eda de humano, sino que con este t\u00e9rmino dotamos al robot de una ficci\u00f3n jur\u00eddica que le otorga ciertas obligaciones y derechos, es decir, en un futuro los robots podr\u00e1n realizar tareas m\u00e1s complejas que hoy desarrolla el ser humano.<br>Ahora nos referimos al segundo t\u00e9rmino expone Gonz\u00e1lez (2017) &#8220;electr\u00f3nica&#8221;, es necesario establecer la diferencias entre un sistema electr\u00f3nico y la IA, en el entendido que el primero no son inteligentes, para el segundo es mejor adoptar la categor\u00eda de persona artificial, cuando se refiere a est\u00e1, no significa que se le est\u00e9 dando una amplia apertura de derechos y obligaciones a los robots, es en este tipo de categor\u00eda donde el sistema jur\u00eddico debe entrar a regular el alcance de los derechos que se les otorgan y las obligaciones a las cuales queda sometido la IA.<\/p>\n\n\n\n<p class=\"\">PREGUNTA 2: \u00bfCu\u00e1les son las posibles soluciones ante la inminente autonom\u00eda elevada de los robots y la incidencia en la responsabilidad civil?<\/p>\n\n\n\n<p class=\"\">RTA\/: La respuesta la encontramos en lo planteado por el Parlamento Europeo en la en su (Resoluci\u00f3n P8_TA (2017)0051 del 16 de febrero de 2017) donde se plantean las siguientes soluciones &#8220;Establecer un r\u00e9gimen de seguro obligatorio, La posibilidad y\/o necesidad de crear un fondo de compensaci\u00f3n Crear un n\u00famero de identificaci\u00f3n&#8221; (pp.16-17). Casadesus (2020) complementa esta propuesta en la primera los fabricantes o los propietarios de robots estar\u00edan obligados a suscribir un contrato de seguro por posibles da\u00f1os y perjuicios causados por los robots. Aunque en esta alternativa la resoluci\u00f3n no es muy espec\u00edfica por ejemplo en quien recae la obligaci\u00f3n de adquirir este seguro, para la segunda se deduce que pueda devenir de las tasas impuestas a los empresarios del trabajo que realiza el robot. Permitir que el fabricante, el programador, el propietario o el usuario puedan beneficiarse de un r\u00e9gimen de responsabilidad limitada si contribuyen a este fondo. Aqu\u00ed la resoluci\u00f3n se plantea la cuesti\u00f3n, de si solo basta con un fondo de compensaci\u00f3n que cubra a toda clase de robots inteligentes o crear varios fondos de compensaci\u00f3n dependiendo de los diferentes tipos de robots, y finalmente se extrae que una c\u00e9dula rob\u00f3tica donde se especifique las siguientes caracter\u00edsticas del robot: tipo de robot, sector de actividad, funci\u00f3n del robot y nivel de autonom\u00eda del mismo.<br>Lo aqu\u00ed planteado es una forma de protecci\u00f3n a los usuarios, para Casadesus (2020) la exigencia de tener una p\u00f3liza de seguro, la identificaci\u00f3n de los robots dotados de IA bajo un registro de identificaci\u00f3n precisa, que asocia al fabricante y programador, permite una seguridad de que los robots con mayor desarrollo, est\u00e9n plenamente rese\u00f1ados en la cadena de producci\u00f3n y manejo, brindando a las autoridades el control y el acceso a la informaci\u00f3n de estas m\u00e1quinas inteligentes.<br>En concordancia con lo anterior, seg\u00fan lo plantea Gonz\u00e1lez (2017), el Documento de identificaci\u00f3n de robot inteligente artificialmente DNI, ser\u00e1 emitido por la Uni\u00f3n Europea. Este registro ser\u00e1 vital ya que sin este los robots no podr\u00e1n realizar sus tareas espec\u00edficas y mucho menos interactuar con humanos, este registro tiene los siguientes prop\u00f3sitos:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"\">Control humano sobre los robots inteligentes<\/li>\n\n\n\n<li class=\"\">Evitar el uso ilegal de estos robots<\/li>\n\n\n\n<li class=\"\">Protecci\u00f3n de los datos<\/li>\n\n\n\n<li class=\"\">Monitorear todas las actividades del robot<\/li>\n\n\n\n<li class=\"\">Control del sistema ante decisiones \u00e9ticas<br>Podemos deducir que la finalidad del registro es brindar protecci\u00f3n, seguridad a cada uno de los usuarios, al mismo tiempo tener el control y monitoreo de cada robot que est\u00e9 en el mercado. Pero las condiciones que se plantean por la UE para esta IA, &#8220;ha sido criticada por la European Robotics Association por implicar excesivos tr\u00e1mites burocr\u00e1ticos en relaci\u00f3n con los beneficios que dicho registro comportar\u00eda&#8221; (Casadesus Ripoll, 2020 p. 372).<br>Paralelamente en el marco jur\u00eddico colombiano no hay una regulaci\u00f3n espec\u00edfica sobre la IA, pero el gobierno nacional puso en discusi\u00f3n el documento Marco \u00c9tico para la IA (2020), teniendo como prop\u00f3sito estipular marcos transversales, es decir, que sean aplicables al campo p\u00fablico y privado. Este Marco \u00c9tico para la IA (2020) plantea que la construcci\u00f3n responde a dos necesidades, la primera es la implementaci\u00f3n continua de nuevos sistemas inteligentes en sectores tanto p\u00fablicos como privados. Un segundo eje plantea la creaci\u00f3n de un marco \u00e9tico que permita marcar una frontera social entre las personas y este tipo de tecnolog\u00edas, ya que la \u00e9tica permitir\u00e1 consensos sociales con estos nuevos sujetos pero que no ser\u00e1n restrictivos.<br>Para este marco \u00e9tico, no solo basta la enunciaci\u00f3n de principios generales que puedan ser aplicables a cualquier situaci\u00f3n donde intervenga la IA, tambi\u00e9n se busca un an\u00e1lisis amplio de todo el espectro que genera la \u00e9tica de los datos que es definida, como el an\u00e1lisis y el uso debido de los datos que obtienen sistemas inteligentes (big data). En este sentido el Marco \u00c9tico para la IA (2020) describe que &#8220;los datos estudiaran tres campos de acci\u00f3n de la IA, como son datos su protecci\u00f3n, tratamiento y divulgaci\u00f3n, algoritmos machine learning y deep learning, practicas Programaci\u00f3n responsable, hacking saludable&#8221; (p.14).<br>En 2016, Floridi &amp; Taddeo proponen esta \u00e9tica que es valiosa dado que permite desarrollar buenas pr\u00e1cticas y conductas consideradas como moralmente buenas, para abordar los dilemas \u00e9ticos planteados por la colecci\u00f3n y an\u00e1lisis de grandes bases de datos y sobre dilemas que van desde el uso de big data en investigaci\u00f3n biom\u00e9dica y en las ciencias sociales, al perfilamiento, publicidad y filantrop\u00eda de datos, as\u00ed como open data.<br>El Marco \u00c9tico para la IA (2020) desarrolla situaciones donde se es preciso limitar el ejercicio de la IA, en los siguientes casos:<\/li>\n\n\n\n<li class=\"\">Sistemas de Inteligencia Artificial en el sistema penal para determinar nivel de riesgo de un individuo y grado de reincidencia: conforme al estudio estos tienen un impacto negativo en el derecho a una audiencia p\u00fablica justa, el derecho a ser considerado inocente hasta que se pruebe lo contrario y la libertad de interferencias con la privacidad, la familia, la vivienda y la correspondencia.<\/li>\n\n\n\n<li class=\"\">Sistemas de Inteligencia Artificial en el sistema financiero para determinar el riesgo crediticio de un individuo: conforme al estudio estos tienen un impacto negativo en la libertad de interferencias con la privacidad, la familia, la vivienda y la correspondencia, en la libertad de opini\u00f3n e informaci\u00f3n, en el derecho a la libertad de asociaci\u00f3n y en el derecho al trabajo deseado y de sindicato.<\/li>\n\n\n\n<li class=\"\">Sistemas de Inteligencia Artificial en el sistema de salud para realizar diagn\u00f3sticos m\u00e9dicos: tienen un impacto negativo en la libertad de interferencias con la privacidad, la familia, la vivienda y la correspondencia.<\/li>\n\n\n\n<li class=\"\">Sistemas de Inteligencia Artificial en los departamentos de recursos humanos para el reclutamiento y selecci\u00f3n de candidatos: conforme al estudio estos tienen un impacto negativo en la libertad de interferencias con la privacidad, la familia, la vivienda y la correspondencia, en la libertad de opini\u00f3n e informaci\u00f3n y en el derecho a la libertad de asociaci\u00f3n.<\/li>\n\n\n\n<li class=\"\">Sistemas de Inteligencia Artificial para moderar contenido online e implementar los est\u00e1ndares de participaci\u00f3n propuestos: tienen un impacto negativo en la libertad de interferencias con la privacidad, la familia, la vivienda y la correspondencia y en la libertad de opini\u00f3n e informaci\u00f3n (p.18-19).<br>Las situaciones anteriormente mencionadas, no significa que toda actuaci\u00f3n de un sistema de IA sea perjudicial para los seres humanos, como lo expresa el Marco \u00c9tico IA 2020:<br>&#8220;Muchos de los resultados obtenidos est\u00e1n relacionados con la forma como los sistemas fueron implementados en cada uno de estos sectores y la manera como se interpret\u00f3 la informaci\u00f3n proporcionada por esta tecnolog\u00eda. Este estudio provee evidencia relevante sobre los potenciales riesgos que existen, pero no deben llevar a una generalizaci\u00f3n ni a considerar juicios absolutos, tales como que el uso de esta innovaci\u00f3n de esta tecnolog\u00eda siempre tendr\u00e1 efectos negativos en el sector de la salud o el sistema criminal. Es claro que pueden existir sectores y pr\u00e1cticas en los que la tecnolog\u00eda puede conllevar mayores riesgos, pero este debe ser evaluado caso a caso y bajo contextos particulares. El estado de la evidencia actual no permite generalizaciones al respecto. (p. 20)&#8221;<br>Por tanto, se hace imprescindible que en nuestro sistema jur\u00eddico se empiece a construir lineamientos \u00e9ticos, que respondan a estas nuevas necesidades que han venido surgiendo por los avances t\u00e9cnico-cient\u00edfico que se han ido integrando a nuestra sociedad.<\/li>\n<\/ul>","protected":false},"excerpt":{"rendered":"<p>Nada mejor que la literatura de ciencia ficci\u00f3n para darnos una aproximaci\u00f3n a los casos que en anta\u00f1o, no fueron m\u00e1s que el fruto de la imaginaci\u00f3n, hoy nos servimos de ella para pensar el presente, el futuro de la humanidad y su interacci\u00f3n con la tecnolog\u00eda. Isaac Asimov 1950 estableci\u00f3 tres leyes de la [&hellip;]<\/p>\n","protected":false},"author":3,"featured_media":3396,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"nf_dc_page":"","footnotes":""},"categories":[1],"tags":[],"class_list":["post-3395","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog"],"_links":{"self":[{"href":"https:\/\/munozab.com\/en\/wp-json\/wp\/v2\/posts\/3395","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/munozab.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/munozab.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/munozab.com\/en\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/munozab.com\/en\/wp-json\/wp\/v2\/comments?post=3395"}],"version-history":[{"count":0,"href":"https:\/\/munozab.com\/en\/wp-json\/wp\/v2\/posts\/3395\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/munozab.com\/en\/wp-json\/wp\/v2\/media\/3396"}],"wp:attachment":[{"href":"https:\/\/munozab.com\/en\/wp-json\/wp\/v2\/media?parent=3395"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/munozab.com\/en\/wp-json\/wp\/v2\/categories?post=3395"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/munozab.com\/en\/wp-json\/wp\/v2\/tags?post=3395"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}