/
/
/
ROBOTS INTELIGENTES: SENTIDO JURÍDICO Y RESPONSABILIDAD
ROBOTS INTELIGENTES: SENTIDO JURÍDICO Y RESPONSABILIDAD
Comparte la noticia:
Robots inteligentes, sentido jurídico y responsabilidad

La robotización es un instrumento fundamental para la transformación digital de sectores tan diversos como la industria, la salud o el de Defensa. Los robots han ido ganando autonomía gracias a los algoritmos de inteligencia artificial (AI según sus siglas en inglés).

El concepto de AI cumple ahora 65 años. Fue propuesto en una conferencia en el Darmouth College de Nuevo Hampshire, en 1956 por tres grandes científicos, John McCarty, Marvin Minsky y Claude Shannon y la definieron como: «la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cálculo inteligente». Este uso de la palabra “inteligencia” es un anglicismo que genera más expectativas en español que en inglés. En la práctica, estamos hablando de programas de ordenador que replican algunas funciones reservadas hasta ahora a los humanos con el aprendizaje.

La inteligencia artificial ha tenido etapas de auge e hibernación cuando no cumplía las expectativas creadas. No obstante, es en los últimos años cuando está teniendo un mayor impacto debido a la disponibilidad de otras tecnologías como las nuevas redes de comunicaciones, una mayor capacidad de computación y una captación de información del entorno gracias a los sensores. También es fundamental la posibilidad que tenemos hoy de acceder a una gran cantidad de datos que permite entrenar los modelos que depuran los algoritmos de procesamiento.

La inteligencia artificial ha evolucionado desde una “AI estructurada” basada en árboles de decisión a una “AI no estructurada” en donde las propias máquinas son capaces de “aprender” de la experiencia para mejorar su eficiencia. Es lo que llamamos, aprendizaje automático o machine learning, o, dentro de este campo, el aprendizaje profundo o deep learnig, en el que la computación se basa en redes neuronales con varias capas de profundidad que van analizando la información para tomar las decisiones.

Desde el punto de vista jurídico, la AI presenta retos apasionantes. La Unión Europea, ha liderado, como en otras tecnologías, la regulación en la materia con el lanzamiento de un Libro Blanco en 2020 titulado “Inteligencia Artificial: Una aproximación europea hacia la excelencia y la confianza” y con la propuesta para un marco jurídico de la AI el pasado 21 de abril de 2021, que, siguiendo las bases del Libro Blanco, está basada en el nivel de riesgo de las herramientas desarrolladas.

Esta propuesta, establece diferentes categorías de riesgo. Entre ellas está la de “riesgo inadmisible” que son aquellos sistemas que sirven para manipular el comportamiento humano y estarán prohibidos, y “alto riesgo” que abarcan tecnologías que, por ejemplo, pueden poner en peligro la vida de los ciudadanos.

En el caso español, en 2020 el Ministerio de Asuntos Económicos y Transformación Digital promovió la Estrategia Nacional de Inteligencia Artificial, que incluye como objetivo seis ejes similares a los establecidos por la UE, pero sin embargo no entra en el debate de los criterios de riesgo establecidos por la UE en el Libro Blanco.

En relación con estos riesgos, la aplicación de la AI ha demostrado la necesidad de tener unos principios éticos de forma que no tenga sesgos a la hora de aplicar sus algoritmos en aspectos como la discriminación por razón de raza o sexo. La propia Comisión Europea, y empresas como Telefónica, han sido promotoras de marcos de referencia para evitar estos riesgos desde el propio desarrollo de los algoritmos.

Desde este punto de vista jurídico, otro aspecto relevante es la titularidad de los robots que implementan los elementos de la AI. Hay que tener en cuenta que estos robots son, en muchos casos, únicamente software sin un elemento mecánico que los soporte. Estamos hablando de los chatbots que ayudan a los clientes en la atención comercial o los bots que facilitan la automatización de procesos. El mundo es cada vez más software.

El debate sobre la titularidad de los robots, ha planteado incluso su posible tratamiento como personas físicas o jurídicas. Tanto desde el punto de vista técnico, como jurídico consideramos que este planteamiento, a día de hoy, carece de sentido.

Si queremos equiparar en el futuro a los robots con personas físicas tendríamos que cambiar de manera radical nuestro Código Civil (art 30). Tampoco parece que tenga sentido que los robots sean personas jurídicas, aunque se ha planteado que paguen impuestos.

Se ha llegado a plantear también, incluso en el Parlamento Europeo en 2017 que los robots tuvieran una nueva figura jurídica que podríamos llamar “personalidad electrónica” a la que se pudieran asociar responsabilidades.

Hoy en día, podemos considerar que un robot inteligente es un producto o servicio, formado por un conjunto de activos intangibles protegidos por los derechos de Propiedad Intelectual e Industrial. Aquí, los elementos relacionados con la AI tienen un peso relevante a la hora de identificar la titularidad de estos activos, y por lo tanto del robot. Entre estos activos, estamos hablando de los modelos entrenamiento, de los algoritmos por si mismos y de los programas informáticos que los implementan. Cada uno de estos elementos pueden tener una manera diferente de protección (por derechos de autor, patente…) y puede tener una titularidad diferente.

Como en cualquier otro bien, todos estos derechos deben ser transmitidos de forma explícita o implícita en los acuerdos mercantiles de cesión de bienes o prestación de servicios para preservar o transmitir la titularidad.

Considerando este conjunto de activos de Propiedad Industrial e Intelectual, los robots aunque pueden obrar de forma “autónoma” son cosas con trascendencia económica, que pueden ser objeto de apropiación (art. 333 Código Civil español). Son, por tanto, una cosa que carece de vida y que se caracteriza por ser susceptible de apropiación y no tener derechos y obligaciones. Por lo tanto, las responsabilidades por un mal funcionamiento o uso serían del fabricante u dueño del robot, según los casos.

Existen tres grandes tipos fundamentales de responsabilidad relacionadas con el desarrollo y uso de AI en los robots inteligentes:

  1. Responsabilidad por daños ocasionados al cliente en relación con el desarrollo de los algoritmos de AI (responsabilidades en el desarrollo).
  2. Responsabilidad por daños ocasionados al usuario o a terceros por el uso de la AI desarrollada (responsabilidades en el uso).
  3. Responsabilidad atribuible al cliente en relación con la infracción de derechos de propiedad intelectual de terceros debido al uso de la AI desarrollada por parte de dicho cliente. Y responsabilidad del desarrollador de la AI por posible infracción de derechos de Propiedad Industrial o Intelectual de terceros (responsabilidades relacionadas con la propiedad industrial).

Las normas vigentes en materia de responsabilidad de los robots aluden, en la mayoría de los casos, a la persona para imputar la acción u omisión del robot, ya sea el fabricante, el operador, el propietario o el usuario y que podría haber anticipado, previsto y evitado el comportamiento del robot que ocasionó los daños. Desde el punto de vista técnico, este planteamiento presenta retos a la hora de la aplicación. Piensen en el caso del vehículo autónomo. Parece obvio que si hay un mal funcionamiento la responsabilidad sería del fabricante, pero podría no ser menor las implicaciones del propietario a la hora de programar el vehículo, o incluso de la propia infraestructura que emite señales para facilitar la conducción autónoma. En estos casos, la fuente de responsabilidad es, al final, la creación del riesgo. Luego la pregunta a responder podría ser: ¿Quién crea el riesgo en el caso de los robots que causan daño?

Muchos de los daños ocasionados por los robot, como pueden derivarse del error de los algoritmos, de los sesgos algorítmicos o de la violación de la privacidad, entre otras muchas posibilidades, no están previstos, a día de hoy de manera explícita en ningún reglamento de responsabilidad. Cuando hablamos de un robot que ha causado daños, nos podemos referir a que ha podido recibir algún tipo de manipulación humana y se haya querido beneficiar de ella, o bien, que haya un defecto de construcción.

Una opción para evaluar la responsabilidad del proveedor, por los daños ocasionados por la utilización de la AI, es preguntarse qué habría hecho un diseñador o desarrollador razonable en esas mismas circunstancias.

Esta es una solución a corto plazo, pero genera dificultades cuando hablamos de situaciones donde no hay un humano que opere la AI. Cuanto más impredecible sea el fallo, más difícil será que el proveedor o desarrollador de la AI sea responsable (p.ej. No es lo mismo un coche autónomo en una autovía sin coches que en un entorno urbano con tráfico).

Algunos sugieren que el test de negligencia debería ser respecto a lo que habría hecho un “ordenador razonable” en esa misma situación. Esto implicaría evaluar las prácticas, estándares y costumbres de la industria de desarrollo de AI.

El problema es que una persona es fácil de imaginar, pero un ordenador razonable no. Los seres humanos compartimos muchas similitudes y se puede definir más o menos un estándar de diligencia, pero la AI es heterogénea por naturaleza.

Cuando se produce un daño derivado de riesgos de desarrollo, algunos ordenamientos jurídicos imputan la responsabilidad correspondiente al fabricante del producto en cuestión, pero otros le conceden una excepción que le permite exonerarse de tal responsabilidad. La Ley habla del «defecto» sin más, en otras palabras, no limita el tipo de defecto al que puede influir un riesgo de desarrollo. Así, en el caso de defectos de fabricación resulta exonerado el fabricante si evidencia que el estado de los conocimientos no le permitirán detectarlo en el momento fundamental; en el de defectos de diseño, si igualmente prueba que no le resultaba posible escoger una elección más segura; y en el de falta de las advertencias o instrucciones suficientes, si demuestra que tampoco le resultaba factible realizarlas pues el estado de los conocimientos no permitirá identificar el riesgo en cuestión.

En la práctica, hay que tener en cuenta que los productos, pueden involucrar a varios fabricantes. Por lo tanto, la determinación de la culpa como equivalente a falta de pericia a la hora de fabricar el componente que ha fallado, o que ha propiciado el fallo, puede llevar a un proceso muy prolijo o de responsabilidades cruzadas que dejan frustrado a la víctima. Por eso, los ordenamientos modernos propician la responsabilidad del vendedor o de quien comercializa el producto defectuoso, y así facilitar la posibilidad de indemnización a la víctima.

Con este enfoque, una salida idónea en esos supuestos sería incluir en la responsabilidad del fabricante o fabricantes, también al comercializador, de forma solidaria o concurrente.

En 2019 la Comisión Europea, promovió “Informe sobre responsabilidad derivada de la inteligencia artificial y otras tecnologías digitales emergentes”. Entre las conclusiones de este informe cabe destacar:

  1. La digitalización trae cambios fundamentales a nuestros entornos, algunos de los cuales tienen un impacto en la ley de responsabilidad. Esto afecta, en particular, a la (a) complejidad, (b) opacidad, (c) apertura, (d) autonomía, (e) previsibilidad, (f) manejo de datos, y (g) vulnerabilidad de las tecnologías digitales emergentes.
  2. Si bien las normas existentes sobre responsabilidad ofrecen soluciones con respecto a los riesgos creados por las tecnologías digitales emergentes, los resultados pueden no parecer siempre apropiados, dado el fracaso en conseguir: (a) una asignación justa y eficiente de la pérdida, en particular porque no puede atribuirse a aquellos: cuyo comportamiento objetable causó el daño; o a quién se benefició de la actividad que causó el daño; o a quienes tenían el control del riesgo que se materializó; o a quiénes fueron los evasores de costos más baratos o los tomadores de seguros más baratos. (b) una respuesta coherente y apropiada del sistema legal a las amenazas a los intereses de individuos, en particular porque las víctimas de daños causados ​​por la operación de las tecnologías digitales emergentes reciben menos o ninguna compensación en comparación con las víctimas en un situación funcionalmente equivalente que involucra conducta humana y tecnología convencional; (c) un acceso efectivo a la justicia, en particular porque los litigios para las víctimas se vuelven indebidamente pesados o costosos.
  3. Por lo tanto, es necesario considerar adaptaciones y enmiendas a los regímenes de responsabilidad existentes, teniendo en cuenta que, dada la diversidad de tecnologías digitales emergentes y la correspondientemente diversa gama de riesgos que estos pueden presentar, es imposible llegar a una solución única adecuada para todo el espectro de riesgos.
  4. Los riesgos homogéneos y comparables deben abordarse mediante regímenes de responsabilidad similares, lo que también debería determinar qué pérdidas son recuperable y en qué medida.
  5. A efectos de responsabilidad, no es necesario dotar a los sistemas autónomos de una personalidad jurídica propia.
  6. La responsabilidad estricta es una respuesta adecuada a los riesgos que plantean las tecnologías digitales emergentes, si, por ejemplo, se operan en entornos no privados y pueden ocasionar daños significativos.

En general, el ordenamiento jurídico tiene que responder a los retos que nos plantean los robots inteligentes que utilizan algoritmos de AI para su funcionamiento. Muchas veces el Derecho va por detrás de la tecnología, pero animo a los juristas a que conozcan un poco más de los avances de la AI tanto para su regulación como para su aprovechamiento para automatizar la propia Función Jurídica.

Esta nueva regulación para los robots inteligentes tiene que considerar, al menos, tanto las responsabilidades como sus problemas éticos. Respecto a las primeras, hay que centrarse en la configuración de un régimen jurídico que aborde la responsabilidad civil por los daños causados por los robots inteligentes, como es el caso de los vehículos autónomos.

Con la aplicación de la Inteligencia Artificial, estamos ante la tecnología de propósito general de mayor impacto desde internet. Tengamos en cuenta que grandes sectores como la robótica industrial o el vehículo autónomo, en los que Europa todavía tiene mucho que aportar, pueden promoverse, o inhibirse, con una adecuada regulación en este campo.


Luis Ignacio Vicente, consejero Estratégico PONS IP

José Carlos Erdoazin, of Counsel PONS IP

 

Si te ha gustado este contenido, compártelo:

Escucha nuestro podcast

“Privilegios de Invención”

privilegios de invención
Las marcas en la nueva economía digital
El segundo episodio de nuestro podcast “Privilegios de Invención” está dedicado a uno de los derechos de propiedad industrial más...
Ep1 Patentes Biotecnológicas
Patentes Biotecnológicas
El primer episodio estará dedicado a uno de los grandes campos de la innovación a nivel mundial, uno de los...
NEWSLETTER

Toda la Actualidad IP en tu e-mail

Conoce toda la información más actualizada sobre IP para impulsar el desarrollo de tu organización.

Suscríbete a nuestra newsletter bimestral.

En cumplimiento de lo dispuesto en el RGPD, respecto del tratamiento de datos se informa de lo siguiente: Responsable: PONS IP, S.A. (A-28750891). Finalidades: envío de comunicaciones comerciales electrónicas. Legitimación: Consentimiento del interesado [art. 6.1.a) RGPD]. Derechos: Acceder, rectificar, suprimir, limitar u oponerse al tratamiento, solicitar la portabilidad y revocar el consentimiento prestado dirigiendo correo electrónico a rgpd@ponsip.com, incluyendo como referencia "EJERCICIO DE DERECHOS". Más información
Managing IP Winner
WTR FIRM LOGO-blue
leaders league
logo legal 500
IAM Patent 1000 PONS IP-blue
logo chambers Europe 2021

Premios y Reconocimientos

Internacionales

Premios y Reconocimientos Internacionales