IMAGE: Apple logo and eye peeking through keyhole

Apple anuncia una funcionalidad que le permitiría procesar imágenes en el dispositivo antes de que sean subidas a su nube para comprobar si se corresponden con materiales sexualmente explícitos relacionados con menores, y en caso afirmativo, denunciar el caso a las autoridades o avisar a los padres cuando sus hijos reciban o envíen material de ese tipo.

En la descripción del sistema, Apple ha justificado el movimiento con varias restricciones incluidas específicamente para proteger la privacidad: que Apple no adquiere información alguna sobre imágenes que se correspondan con materiales que reflejen abusos sexuales a menores, que no puede acceder a los metadatos ni a los derivados visuales de las imágenes coincidentes hasta que se supera un umbral de coincidencias determinado, que el riesgo de falsos positivos es extremadamente bajo, que todos los informes son revisados manualmente, que los usuarios no pueden acceder ni ver la base de datos de imágenes, y que los usuarios no pueden identificar qué imágenes fueron marcadas como de abusos sexuales a menores por el sistema.

Los abusos sexuales a menores son un problema que, exacerbado por la facilidad para la circulación de materiales gráficos generada por la popularización de internet, resulta preocupante. De hecho, sistemas basados en el hashing de imágenes similares a los descritos por Apple existen en otras compañías para evitar en la medida de lo posible la creación de repositorios de ese tipo de materiales, y son utilizados desde hace tiempo tanto por Apple como por Google y otras compañías para detectar su envío a través de correo electrónico. Sin embargo, implementar un sistema similar para imágenes en el dispositivo implica aplicarlo a materiales que no han sido enviados, y si bien la tenencia de materiales de ese tipo corresponde igualmente a un tipo delictivo que debe ser perseguido, entramos en un terreno complejo y, muy posiblemente, sin retorno: el de la detección de lo que un usuario tiene en sus dispositivos, que podría resultar problemático si la compañía recibe presiones para utilizarlo en otras casuísticas.

Una vez que un sistema así está disponible, las autoridades de los países pueden encontrar argumentos legales para solicitar su utilización para otros motivos. En el Reino Unido, por ejemplo, un sistema similar desarrollado hace años para que los proveedores de acceso a internet controlasen la difusión de ese tipo de materiales ha sido ya utilizado para tratar de detectar imágenes de relojes falsificados. Una vez que el sistema existe, nada impide a un gobierno forzar a una compañía a utilizarlo para la detección de cualquier tipo de imagen o material, lo que supone una auténtica carta blanca para cualquier posible abuso de la privacidad de sus ciudadanos.

Estamos, como afirma la Electronic Frontier Foundation, ante un sistema de puerta trasera desarrollado específicamente para escaneo de materiales en el dispositivo del usuario, algo que debería ser completamente inaceptable. Una puerta trasera es una puerta trasera, y las garantías que una compañía puede dar sobre su uso están siempre condicionadas al cumplimiento de la legislación que un país quiera utilizar en un momento determinado. Hoy están vigilando si tienes materiales que reflejen abusos sexuales a menores, mañana pueden estar vigilando que no tengas cualquier otra cosa que moleste al gobierno de turno. Añadir a un sistema una capacidad de escanear el dispositivo del usuario es romper el cifrado de extremo a extremo, y es algo profundamente desaconsejable desde cualquier punto de vista, aunque lo que se pretenda proteger sea algo en lo que, en principio, todos podríamos estar razonablemente de acuerdo.

La línea debería estar sumamente clara. ¿Es execrable la explotación sexual de menores? Sí. ¿Debe ser perseguida? Por supuesto. ¿Debemos desarrollar un sistema que permita monitorizar todo lo que tenemos en nuestros dispositivos para tratar de evitarla? No, y mucho menos si podemos intuir que un sistema así sería rápidamente explotado para otras posibilidades, bajo la consabida máxima de «una compañía tiene que cumplir con las leyes de los países en los que opera».

Con el desarrollo de un sistema así, Apple puede estar consiguiendo pasar, en lo que sería decididamente un mal movimiento, de ser percibida como la compañía de la privacidad y del «lo que pasa en tu iPhone se queda en tu iPhone», a convertirse en la compañía que escanea cada una de tus fotos «por si acaso» eres un pederasta, con el problema añadido de que, además, ese sistema podría ser abusado por cualquier gobierno para cualquier fin imaginable. Una posición difícilmente justificable y muy poco recomendable para una compañía que ha tenido que pasar por lo que ha tenido que pasar para llegar a donde está. Pasar de ser «el garante de la privacidad» a ser «la manzana indiscreta» sería un muy grave error.


Enrique Dans

DEJA UNA RESPUESTA