Skip to content

Deepfakes: El lado oscuro de la Inteligencia Artificial. A cargo de Federica Morici.

AD 90/2021

Deepfakes: El lado oscuro de la Inteligencia Artificial.

Resumen:
Este informe implica indagar sobre un fenómeno tecnológico que surge a raíz de técnicas realizadas con Inteligencia Artificial para la creación de contenido sintético. Es el resultado de un proceso que está vulnerando los derechos de muchas personas, constituyéndose día a día en una amenaza inminente que evoluciona desde el año 2017 de formas inmensurables.

Resume:
This report implies investigating a technological phenomenon that arises as a result of techniques carried out with Artificial Intelligence for the creation of synthetic content. It is the result of a process that is violating the rights of many people, becoming an imminent threat that has evolved since 2017 in immeasurable ways.

Palabras clave:
Deepfake, Tecnología, Inteligencia Artificial, Derechos

¿Podrías imaginar un mundo en dónde una persona diga algo que en realidad no dijo y haga algo que en realidad no hizo? Esto es posible y está ocurriendo, en el mundo virtual.

El mundo avanza y con él avanzan indudablemente las tecnologías de la información y comunicación, tanto internet como las nuevas tecnologías han tenido un auge en el siglo XXI. Como consecuencia de estos avances, se puede observar cómo desde hace varias décadas y de manera progresiva, el ser humano se perfecciona en el desarrollo de máquinas capaces de realizar múltiples tareas que originaria y tradicionalmente han estado encomendadas a las personas. Asimismo, se puede notar la presencia de una mayor accesibilidad a tecnología a menor costo, lo que importa a su vez una democratización en el uso de la misma.

Tanto el desarrollo como el perfeccionamiento de las nuevas tecnologías constituyen herramienta útil, poderosa y eficaz. Gran parte de la población mundial en menor o mayor proporción y según las circunstancias, puede aprovecharlas según sus distintos modos de utilización como también valerse de las mismas para lograr múltiples objetivos (profesionales, educativos, personales, afectivos, de ocio, etc.)

Dicho así, podría pensarse que los avances tecnológicos son una herramienta intachable que podrían utilizarse sólo para mejorar la vida de las personas. Si bien es cierto que pueden solucionar varios aspectos de la vida cotidiana y brindar herramientas fundamentales, es menester hacer hincapié en que, si la tecnología es utilizada con fines maliciosos, podría constituir una real amenaza para las personas, como es el caso de los Deepfakes.

Según Nina Schick, un deepfake es un tipo de «medio sintético», es decir, medios (incluidas imágenes, audio y video) que son manipulados o totalmente generados por Inteligencia Artificial.

Cuando se descubrió que a través de la Inteligencia Artificial y el aprendizaje automático se podía lograr manipular contenido, sólo las personas con grandes conocimientos en el área podían acudir a estas técnicas, es decir, personas expertas en la temática. Actualmente, los avances tecnológicos han permitido que la manipulación de contenido esté prácticamente al alcance de cualquier persona, sin requerir grandes conocimientos previos en herramientas de Inteligencia Artificial.

Lo mencionado anteriormente se ha constituido en un problema inminente, porque si bien inicialmente se utilizó la manipulación de imágenes, videos y audios de forma inocente, con fines recreativos, artísticos, de entretenimiento, e incluso en películas de ficción, hoy se utiliza principalmente para desinformar y/o dañar a otras personas.
Como surgimiento del término y, del problema, podríamos mencionar que fue día 2 de noviembre de 2017, cuando un «redditor» anónimo llamado «Deepfakes» (una mezcla entre «fake» y «deeplearning») inició un foro de discusión de Reddit: «r / deepfakes». Esta persona, utilizó código de fuente abierta y publicó en el foro videos pornográficos falsos, creados con Inteligencia Artificial, donde se veían implicados famosos de Hollywood. Las herramientas utilizadas hacían difícil distinguir que se trataba de contenido falso, la tecnología hizo que se alcanzaran altos niveles de realismo visual.

Poco antes de retirarse, esta persona compartió el “código deepfake” abiertamente y, posteriormente, comenzaron a aparecer en Internet distintas herramientas accesibles y novedosas para ayudar a cualquier persona a crear sus propios deepfakes.

Si bien los Deepfakes pueden utilizarse con múltiples fines, los índices demuestran que mayor uso es para crear pornografía falsa. Sensity AI, la primera plataforma de detección del mundo para deepfakes, encontró que el 90% y el 95% de ellos son pornografía no consensual. Esto implica una amenaza inminente, porque a través de esta herramienta se puede “unir” a una persona con cualquier video, imagen o audio con connotación sexual y, la tecnología es tan avanzada, que una persona humana por sí misma no podría detectar la falsedad del contenido.

Hasta acá, puede notarse que cualquier persona que resulte víctima de la tecnología utilizada con fines maliciosos podría resultar gravemente ultrajada en sus derechos. Es importante hacer hincapié en que el mayor porcentaje de pornografía Deepfake tiene como víctima a mujeres. Dos expertas investigadoras de la temática, Nina Schick y Sam Cole, afirman que es muy poco frecuente encontrar contenido pornográfico Deepfake donde el protagonista sea un hombre, por lo que llegan a la conclusión de que este problema es una cuestión indudable de género.
Asimismo, cabe mencionar que mientras más se perfeccione esta tecnología podrían existir otros sectores de la sociedad que resulten potenciales víctimas e incluso podría constituir un problema para las distintas corporaciones como así también para los gobiernos.

Planteada esta problemática, existen tres aspectos a considerar:

En primer lugar, considerando que transitamos la era de la desinformación y las noticias falsas, es importante sensibilizar sobre la problemática y concientizar al respecto para educar a la ciudadanía con varios enfoques:
Por un lado, hay que tener en cuenta a las personas receptoras del Deepfake, a efectos de que cuando circule un contenido de esa magnitud puedan dudar de su procedencia hasta que se demuestre lo contrario, como así abstenerse de difundirlo para evitar agravar el eventual daño. El siguiente planteo puede sonar un tanto absurdo, pero no es más que la realidad: Ya no se puede distinguir con nuestros propios sentidos lo real de lo falso, al menos, en el mundo virtual. Esto significa que el hecho de ver y/o escuchar algo que aparenta ser real, no significa que lo sea.

Por otro lado, en cuánto a los creadores de contenido falso, es importante que comprendan el daño enorme que pueden causar en la vida de una persona difamándola por decir algo que no dijo o hacer algo que no hizo. Sólo a través de esta comprensión se puede prevenir una posible conducta dañosa, sin perjuicio de que en algunos países ya se están planteando posibles responsabilidades legales.

En segundo lugar, es fundamental instar a los Estados a combatir este problema no sólo de forma individual en sus legislaciones, sino a través de la cooperación internacional, porque indudablemente es un fenómeno que trasciende fronteras. Esta acción no se puede alcanzar si no es con un profundo entendimiento de la repercusión que puede tener el avance desmesurado de la tecnología. Desde la órbita del derecho comparado, se puede apreciar cómo Estados Unidos, China, Corea del Sur y Reino Unido están haciendo grandes esfuerzos por combatir la problemática.

En tercer lugar, mientras instamos a los distintos agentes de la sociedad a actuar en función de esta problemática, es importante encontrar instrumentos útiles para combatir el fenómeno. Tiene sentido entonces, proponer la búsqueda de soluciones en la raíz de donde se originó el problema inicial: en la tecnología.
Es importante que situemos a la Inteligencia Artificial no sólo como una amenaza cuando es utilizada con fines maliciosos, sino también como una aliada para detectar contenido falso y encontrar distintas soluciones a estos desafíos.

Federica Morici

24 de junio de 2021



Bibliografía:
Schick, Nina (2020); Deepfakes: The Coming Infocalypse; Ed. Twelve.



Federica Morici

Fundadora de la Academia Estudiantes Digitales, Intern en el Departamento para la Gestión Pública Efectiva de la OEA, Miembro GC-AMS de la Unión Internacional de Telecomunicaciones de la ONU, Investigadora en Observatorio Peruano de Cibercriminalidad.

Santiago de Chile, Chile
federicamorici1@outlook.es

Deja un comentario

A %d blogueros les gusta esto: