Skip to content

¿Pueden los robots ser titulares de derechos? A cargo de David Navarrete.

AD 15/2021

Abstract

La revolución tecnológica es mucho más potente de lo que pensábamos y ha propiciado la discusión sobre conceptos y normas que se creían irrevocables.

Las medidas dirigidas a incrementar la transparencia y explicar las limitaciones que puedan tener los algoritmos que hacen funcionar a la máquina en relación con la ética serán una de las llaves del futuro.[1].

“La adopción a gran escala de la Inteligencia Artificial supondrá un punto de inflexión para las empresas, gobiernos y la sociedad”[2].

Palabras clave

  • Inteligencia artificial.
  • Personalidad electrónica.
  • Machine and Deep learning.
  • Responsabilidad.
  • Robots.

¿Puede un robot ser titular de derechos de propiedad intelectual?

En la actualidad, el Real Decreto Legislativo 1/1996, de 12 de abril, por el que se aprueba el Texto Refundido de la Ley de Propiedad Intelectual, regularizando, aclarando y armonizando las disposiciones legales vigentes sobre la materia (TRLPI), recoge en su artículo 5º:

“1. Se considera autor a la persona natural que crea alguna obra literaria, artística o científica.

2. No obstante, de la protección que esta Ley concede al autor se podrán beneficiar personas jurídicas en los casos expresamente previstos en ella.”

Del que se desprende que sólo las personas físicas, como regla general, pueden ser consideradas como autoras de una obra; sin embargo, fruto de la entrada disruptiva de la Inteligencia Artificial en nuestras vidas, la Organización Mundial de la propiedad Intelectual (OMPI) abrió un periodo de consultas acerca de la repercusión que podía tener esta tecnología en las políticas de propiedad intelectual.

¿Dónde radica entonces el objeto de la cuestión? ¿Qué es lo importante, el autor o la obra? Ya existen precedentes acerca de la autoría de una obra en el mundo animal: hablamos del caso Naruto v. Slater, en el cual el famoso macaco tomó varias fotografías de sí mismo, después de robarle la cámara al fotógrafo de la naturaleza David Slater, quien se encontraba en la reserva de Tagnkoko (Indonesia), las cuales no pudieron ser vendidas por su dueño por no tener, se decía, los derechos de autor sobre dichas imágenes. De hecho, el grupo People for the Ethical Treatment of the Animals (PETA) solicitó en los tribunales que el macaco fuese declarado autor y propietario de sus propias fotos.

El magistrado de San Francisco, William ORRICK, dictaminó que el Congreso y el presidente “podían extender la protección de la ley a los animales además de los humanos”; aun así, terminó fallando, reafirmado en apelación, que actualmente no resulta posible y que no podía ser entonces el autor un animal.

           En el terreno de la Inteligencia Artificial la cuestión principal radica en el Machine y Deep learning: si estos consisten en algoritmos que se introducen en la máquina para que la misma por sí sola puedan llevar a cabo decisiones propias aprendiendo de sus propias experiencias para la que no ha sido programada con anterioridad, ¿deberían entonces responder o ser autores los que las han creado, los que se han encargado de introducirles esos datos o las propias máquinas?

En esta línea, muchas de las opiniones se orientan en el sentido de que la máquina resulta creada por unos inventores o productores y programada para actuar conforme a los datos que se les introducen: los datos que “parsean” y que, por tanto, no pueden hacer nada más sin salirse de la lógica. Sin embargo, esto no es del todo cierto, no hace falta irse muy lejos ni poner el foco en empresas pequeñas y poco conocidas, nada más lejos de la realidad. Microsoft tuvo problemas con uno de sus proyectos, Tay[3], el cual empezó a alabar la supremacía nazi y criticar a los judíos, lo cual puede hacernos pensar que las máquinas sí piensan por ellas mismas.

En relación a la responsabilidad, pueden darse dos posibles soluciones:

  • La primera de ellas tiene que ver con la responsabilidad objetiva, a través de la cual sólo sería necesario probar la materialización de un daño efectivo y la correspondiente relación de causalidad entre los hechos producidos y el perjuicio provocado.

En definitiva, la producción del riesgo generaría responsabilidad, siendo posible la solución al caso planteado estableciendo un seguro obligatorio donde se prevean esos riesgos.

  • El segundo enfoque tiene que ver con la gestión de riesgos: el mismo no se centra en la persona que cometió la negligencia como responsable, sino en aquel que es capaz de minimizar los riesgos y gestionar el impacto pernicioso que pueda producirse.[4]

Y en el caso de que la responsabilidad fuese múltiple, nos encontraríamos ante un caso, como ocurre en la actualidad, de responsabilidad solidaria.

La eurodiputada Mady DELVAUX ya presentó un Informe[5] en el que se recogían una serie de propuestas para estos sistemas, entre las que destacan el reconocimiento de una personalidad jurídica específica para los robots, para que los mismos tengan derechos y obligaciones, como puede ser la obligación de reparar los daños que hayan podido causar, un régimen de responsabilidad limitada para el fabricante, etc. De lo que se trata, en definitiva, es de una cuestión de seguridad jurídica.

El Parlamento Europeo elaboró un Informe de Recomendaciones[6] en el que se facilitaban pautas para regular la Responsabilidad Civil derivada del uso de los robots, donde se abordaba la responsabilidad contractual y extracontractual derivada de las actuaciones de las máquinas.

Y un año después, lo determinó la resolución del Parlamento Europeo de 2017,  en la que se dice literalmente:

“Se trata de crear a largo plazo una personalidad jurídica específica para los robots, de forma que como mínimo los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar, y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente».

Se discute si los robots pertenecen ya a alguna categoría jurídica o si, por el contrario, se habla de un concepto específico con el que atribuir personalidad jurídica a estos: nos referimos al concepto de “persona electrónica”, con el cual la Inteligencia Artificial conllevaría la adquisición de tal personalidad jurídica garante de ciertas acciones.

         Este debate se ha producido debido a los disruptivos avances tecnológicos que han dado lugar a que las máquinas no sólo realicen tareas que antes únicamente se podían llevar a cabo a través de la creación por parte de un ser humano, sino que el desarrollo de determinados rasgos cognitivos ha producido que puedan tomar decisiones atendiendo a su razonamiento, interactuando con la realidad, como si de un humano más se tratase, y por eso ve necesaria la Comisión europea la necesidad de implantar la personalidad jurídica a través de la persona electrónica.

Pero claro, esto plantea serias dudas y es que esa actividad llevada a cabo por el robot, ¿es consecuencia del programa originario, de su aprendizaje a través del “parseo” de datos con el Machine learning o el Deep learning, es fruto del manejo que se haga de la misma o, por el contrario, ese resultado pernicioso y punible resulta independiente?

        Debe comprenderse que reconocer personalidad a las máquinas no conlleva reconocerles capacidad o, al menos, no capacidad plena, desde un punto de vista práctico. El juicio de capacidad de un robot requiere analizar un software, un sistema cerrado, lo que implica que no se pueda intervenir en él, y surge entonces el problema acerca de quién puede ejercer esos derechos del robot y hasta dónde alcanzan las responsabilidades de su fabricante, propietario…

En definitiva, lo que resulta evidente es que nos encontramos ante un fenómeno con un impacto enorme e imparable en la sociedad, así como con una gran proyección jurídica que será necesario empezar a regular en un, más bien, corto plazo, mientras que el avance de la Inteligencia Artificial debe ser acorde con la preservación de la dignidad, la intimidad, la autonomía de la persona y, en especial, con la protección de los datos personales.

David Navarrete

9 de febrero de 2021


Bibliografía

  • Real Decreto Legislativo 1/1996, de 12 de abril, por el que se aprueba el Texto Refundido de la Ley de Propiedad Intelectual, regularizando, aclarando y armonizando las disposiciones legales vigentes sobre la materia (TRLPI).
  • Can robots invent and create? A dialogue between Artificial intelligence and Intellectual property”, Summary of the Congress, 2019.
  • VALIENTE, L. A., “La persona electrónica”, Revista Anales de la Facultad de Ciencias Jurídicas y Sociales. Universidad Nacional de La Plata, n.º 49, 2019.

[1] Can robots invent and create? A dialogue between Artificial intelligence and Intellectual property”, Summary of the Congress, 2019.

[2] Palabras de Elena Alfaro, responsable global de Innovación Abierta y Analítica Avanzada de Datos de BBVA (https://www.rrhhpress.com/zona-tech/48266-bbva-colabora-en-el-desarrollo-de-una-guia-para-impulsar-la-inteligencia-artificial-en-las-empresas).

[3] https://www.elmundo.es/papel/pantallas/2017/01/05/586a361046163f05748b4576.html.

[4] VALIENTE, L. A., “La persona electrónica”, Revista Anales de la Facultad de Ciencias Jurídicas y Sociales. Universidad Nacional de La Plata, n.º 49, 2019, pág. 23.

[5] https://www.europarl.europa.eu/doceo/document/JURI-PR-582443_EN.pdf?redirect.

[6] Recomendaciones 2015/2103, de 31 de mayo de 2016, sobre normas de Derecho civil sobre robótica (https://www.europarl.europa.eu/doceo/document/A-8-2017-0005_ES.html?redirect).


David Navarrete Utrera, autor del artículo: ¿Igualdad?

David Navarrete


Graduado en Derecho por la Universidad Complutense de Madrid

Estudiante de Máster de acceso a la profesión de abogado y Máster en Derecho de las Nuevas Tecnologías.

Miembro del proyecto de investigación de innovación docencia: “El aprendizaje-
servicio como metodología de aprendizaje jurídico-pedagógico: la reinserción de
presos a través de la justicia restaurativa” de la Universidad Complutense.

Autor de la novela “La noche no entiende de luces” y de distintas publicaciones
jurídicas.

Participante seleccionado para Legal Challenge 2019 en Herbert Smith Freehills y para Bootcamp sectorial de seguros Madrid, adquiriendo en este último, premio individual en la resolución del caso.

Contacto: dnavarreteutrera@gmail.com
Twitter: @davidutrera1997
Linkedin: David Manuel Navarrete Utrera

Deja un comentario

A %d blogueros les gusta esto: