Skip to content

Nuestra Privacidad vs. La Detección de Contenido Sexual de Menores en Línea. ¿Qué hacemos? A cargo de Marta Llorens Tor.

AD 132/2021

Nuestra privacidad vs. La detección de contenido sexual de menores en línea.

¿Qué hacemos?

 RESUMEN: La pedofilia, la pornografía infantil, entre otros delitos de contenido sexual con menores, son algunas de las principales las conductas delictivas en internet más preocupantes en España y también a nivel mundial. Hace poco Apple anunció la implementación de una nueva herramienta para detectar contenidos sexuales de menores en su próximo sistema operativo, levantando revuelo y creando incertidumbre en términos de privacidad. Ante este supuesto, ¿Se pueden ver lesionados y/o puestos en peligro nuestros derechos individuales de privacidad?

 PALABRAS CLAVE: seguridad, contenido sexual de menores, delitos penales, privacidad, bien común.

 

“Lo que pasa en mi Iphone se queda en mi Iphone es la campaña publicitaria que difundió Apple en 2019 y que, a principios de este mismo agosto del 2021, se ha puesto en entredicho al anunciar el lanzamiento de una nueva herramienta de seguridad integrada en las nuevas versiones del iOS 15. Dicha herramienta se instala con el objetivo de hacer verificaciones del contenido del Iphone para luchar contra los abusos y agresiones sexuales a menores de edad.

Brevemente, ¿Qué implicaciones tiene la instalación de esta nueva herramienta? Pues bien, Apple mediante la instalación de dos dispositivos: por un lado, cotejará las fotografías almacenadas en la nube de iCloud, con la base de datos del Centro Nacional para Niños Desaparecidos y Explotados estadounidense, distinguido promotor de la lucha contra la distribución de imágenes sexuales explícitas de menores en la red. Por otro lado, Apple insertará un dispositivo en iMessage para escanear mediante algoritmos el sistema de mensajería. De este modo, se podrá averiguar todas aquellas imágenes de este sistema que coincidan con pornografía infantil o con contenido sexual de menores. En el momento que salten las alarmas, desde Apple se dará aviso a las autoridades correspondientes o incluso a los tutores legales del/la menor bajo determinadas condiciones.

Por ahora, Apple aplicará esta medida para los usuarios de Estados Unidos, aunque su idea es extenderlo al resto de países, adaptándola a sus respectivas legislaciones.

Bien es sabido que estos sistemas automatizados de seguridad para la detección de contenidos sexuales de menores son comunes, otros gigantes tecnológicos como Google o Microsoft también hacen uso de ellos en sus sistemas de almacenamiento en la nube. No obstante, la instalación de los mismos en el propio móvil, si han alarmado la preocupación entre los expertos en seguridad.

Fuentes como Matthew Green, profesor de seguridad y cifrado en la Univeridad John Hopkins, señalan que realmente no podemos tener la seguridad que no busquen cualquier otro contenido que deseen en nuestro teléfono. Asimismo, Erica Portnoy, miembra de Electronic Frontier Fundation, una de las fundaciones más activa en la defensa de los derechos digitales asegura que: “incluso si Apple actúa con buena intención al construir un nuevo sistema que destruya el concepto básico de encriptación de los mensajes entre clientes, abrirá la puerta a abusos más amplios”.

Aún así, desde Apple se ratifica que en ningún caso esta nueva herramienta implica la apertura de una puerta trasera que rebaja la seguridad o la privacidad del dispositivo, priorizando en todo momento la protección los derechos de las personas y cerrando la entrada a los ciberdelincuentes. Así lo clarifican en su documento “Expanded protection for children”.

Con esta noticia parece que se reabre el debate que se va reiterando en el tiempo: privacidad vs. prevención de delitos o, dicho de otro modo, el individuo vs. el interés común. Para abordar estos debates deberíamos quizá examinar la idoneidad de las teorizaciones y filosofías del derecho penal con las cuestiones planteadas, aun así, no podemos obviar lo evidente, y es el incremento de casos de pornografía en las redes en estos últimos años. Sin ir más lejos, según los informes del Centro Nacional para Niños Desparecidos y Explotados estadounidense, se ha detectado un aumento en el abuso sexual infantil en los Estados Miembros: desde 23.000 en 2010, las denuncias han escalado a más de 725.000 y más de 3 millones de imágenes y vídeos en 2019.  Asimismo, desde la Internet Watch Foundation se detectó en su informe anual del 2020, que un total de 153.369 páginas web en todo el mundo, contenían imágenes de abuso sexual infantil, tenían enlaces a las imágenes o mostraban publicidad de las mismas.

La gravedad del asunto hace replantarnos la responsabilidad social en términos de seguridad de los grandes de la tecnología. No cabe duda que las tecnologías de la información son un aliado para la interacción social en nuestra sociedad, por ello, en palabras de Humberto Olivella se hace imperativo buscar los mecanismos para que la aplicación de la tecnología en nuestro día a día, se haga de forma responsable para beneficiar a la gran mayoría de la sociedad.

Llegados a este punto, ¿Qué podemos hacer?

En un contexto similar, el Supervisor Europeo de Protección de Datos (en lo sucesivo, “el SEPD”) presentó un Informe de opinión sobre la propuesta de excepciones temporales de la Directiva 2002/58/EC para el propósito de combatir el abuso sexual infantil en línea, en el que, entre otros aspectos, hacía mención a las medidas voluntarias tomadas por compañías privadas con posible interferencia a la privacidad. En su informe el SEPD reitera que la confidencialidad en las comunicaciones es una piedra angular de los derechos fundamentales, en concreto para el respeto de la vida privada, familiar y la protección de los datos personales. Sin embargo, el SEPD señala la posibilidad de interferir en la confidencialidad, bajo unas determinadas condiciones que respeten la esencia de los citados derechos fundamentales y de conformidad a los principios de proporcionalidad, necesidad, eficacia y el cumplimiento de objetivos de interés general reconocidos por la Unión Europea o la necesidad de proteger los derechos y libertades de los demás (artículo 52.1 de la Carta). Al respecto, clarifica que “el abuso infantil es un delito particularmente aborrecible y el objetivo de permitir una acción eficaz para compartir el abuso sexual en línea equivale claramente a ambos un objetivo de interés general reconocido por la Unión Europea y tiene por objeto proteger los derechos y libertades de los demás. Para ello, el SEPD considera que toda medida para detectar, eliminar y denunciar el abuso sexual infantil en línea debe ir acompañadas de un marco legal integral que cumpla con los requisitos, en el caso de la Unión Europea, de los artículos 7 y 8 de la Carta de los Derechos Fundamentales de la Unión Europea. Así pues, la legislación debe establecer normas claras y precisas que regulen el alcance y la aplicación de las medidas en cuestión, indicar en qué circunstancias y bajo qué condiciones e imponiendo salvaguardias de la misma, para que las personas cuyos datos personales se vean afectados, dispongan de garantías conforme los datos estarán protegidos eficazmente y que, en todo caso, la injerencia en los mismos se limitará a lo estrictamente necesario.

En definitiva, lucha contra el abuso de menores en línea SÍ, establecer las salvaguardias legales y adecuadas para la protección a la privacidad TAMBIÉN.

Marta Llorens Tor

31 de agosto de 2021


BIBLIOGRAFÍA:

Agustina Sanllehi, José R (2010). El debate actual entre privacidad y prevención del delito: una propuesta comunitarista. InDret 1/2010 Revista para el Análsis del Derecho.

Apple (2021). Expanded protection for children: frequently asked questions. Disponible en: Expanded Protections for Children – Frequently Asked Questions v1.1 (apple.com).

Chiappe, Doménico (2021). Sin privacidad en el planeta de Apple. Diario Sur.

Internet Watch Foundation (2020). International data overview: child sexual abuse imagery reports. Disponible en: https://annualreport2020.iwf.org.uk/trends/international/overview.

Jimenez de Luís , Ángel (2021). Apple buscará automáticamente fotos de pornografía infantil en los iPhone. Diario el Mundo.

National Center for Missing & Exploited children. Disponible en: https://esp.missingkids.org/home.


Marta Llorens Tor

Jurista en proceso de especialización en derecho de protección de datos y de las nuevas tecnologías (y lo que surja).Realicé mis estudios en Ciencia Política y de la Administración Pública con Derecho en la Universidad Pompeu Fabra de Barcelona.

Posteriormente, cursé el Máster de Acceso a la Abogacía 2019-2021 también en la Universidad Pompeu Fabra. Actualmente, trabajo en el despacho P.I.Advocats de Andorra, especializados en Derecho de la Propiedad Intelectual e industrial, protección de datos, ciberseguridad, e-sports, derecho mercantil, laboral, entre otros.
Realizo frecuentemente pequeños podcasts relativos a la protección de datos a través de la plataforma digital de Webjusticia.

Linkedin: www.linkedin.com/in/martallorenstor.

Deja un comentario

A %d blogueros les gusta esto: