Las interminables configuraciones de cookies que aparecen en cada sitio web se sienten un poco como el cumplimiento de bromas por parte de un Internet empeñado en no cambiar. Es muy molesto. Y se siente un poco como una venganza de los mercados de datos contra los reguladores, dando al Reglamento General de Protección de Datos (RGPD) un mal nombre y de modo que pueda parecer que los burócratas políticos han interferido, una vez más, torpemente en el progreso de la innovación, que de otro modo sería fluido.

Sin embargo, lo cierto es que la visión de la privacidad que propone el RGPD impulsaría una era de innovación mucho más emocionante que la actual tecnología de mala muerte. Sin embargo, tal y como está ahora, simplemente se queda corto. Lo que se necesita es un enfoque infraestructural con los incentivos adecuados. Me explico.

Los metadatos granulares que se recogen tras bastidores

Como muchos de nosotros sabemos, los ordenadores portátiles, los teléfonos y todos los dispositivos con el prefijo «inteligente» producen una cantidad incesante de datos y metadatos. Tanto es así que el concepto de una decisión soberana sobre tus datos personales apenas tiene sentido: si haces clic en «no» a las cookies en un sitio, un correo electrónico habrá entregado tranquilamente un rastreador. Borra Facebook y tu madre habrá etiquetado tu cara con tu nombre completo en una vieja foto de cumpleaños, etc.

Lo que es diferente hoy en día (y la razón por la que, de hecho, una cámara de CCTV es una terrible representación de la vigilancia) es que incluso si eliges y tienes las habilidades y los conocimientos para asegurar tu privacidad, el entorno general de la recolección masiva de metadatos te seguirá perjudicando. No se trata de tus datos, que a menudo estarán encriptados de todos modos, sino de cómo los flujos de metadatos colectivos revelarán cosas a un nivel más detallado y te convertirán en un objetivo, en un cliente potencial o en un sospechoso potencial si tus patrones de comportamiento destacan.

Sin embargo, a pesar de lo que pueda parecer, en realidad todo el mundo quiere privacidad. Incluso los gobiernos, las empresas y, sobre todo, los organismos militares y de seguridad nacional. Pero quieren privacidad para ellos mismos, no para los demás. Y esto les sitúa en un pequeño dilema: ¿cómo pueden las agencias de seguridad nacional, por un lado, evitar que las agencias extranjeras espíen a sus poblaciones y, al mismo tiempo, construir puertas traseras para que puedan fisgonear?

Los gobiernos y las empresas no tienen el incentivo de proporcionar privacidad

Por decirlo en un lenguaje eminentemente familiar para estos lectores: la demanda está ahí, pero hay un problema de incentivos, por decirlo suavemente. Como ejemplo del problema de incentivos que existe actualmente, un informe de EY valora el mercado de datos sanitarios del Reino Unido en USD 11,000 millones.

Estos informes, aunque son muy especulativos en cuanto al valor real de los datos, producen una irresistible sensación de pérdida, lo que lleva a una profecía autocumplida, ya que todo el mundo se lanza a por los beneficios prometidos. Esto significa que, aunque todo el mundo, desde los individuos hasta los gobiernos y las grandes corporaciones tecnológicas, quiera garantizar la privacidad, simplemente no tienen incentivos suficientemente fuertes para hacerlo. La tentación de colar una puerta trasera, de hacer que los sistemas sean un poco menos seguros, es demasiado fuerte. Los gobiernos quieren saber de qué habla su población (y la de otros), las empresas quieren saber qué piensan sus clientes, los empresarios quieren saber qué hacen sus empleados y los padres y profesores quieren saber qué hacen los niños.

Hay un concepto útil de la historia temprana de los estudios de ciencia y tecnología que puede ayudar a iluminar este desorden. Se trata de la teoría de la asequibilidad. La teoría analiza el uso de un objeto por su entorno determinado, el sistema y las cosas que ofrece a las personas: el tipo de cosas que se vuelven posibles, deseables, cómodas e interesantes de hacer como resultado del objeto o el sistema. Nuestro entorno actual, por decirlo suavemente, ofrece la irresistible tentación de la vigilancia a todo el mundo, desde los dueños de mascotas y los padres hasta los gobiernos.

En un excelente libro, la ingeniera de software Ellen Ullman describe la programación de un software de red para una oficina. Describe vívidamente el horror cuando, después de haber instalado el sistema, el jefe se da cuenta emocionado de que también puede utilizarse para rastrear las pulsaciones de su secretaria, una persona que había trabajado para él durante más de una década. Antes había confianza y una buena relación laboral. Los novedosos poderes convirtieron sin querer al jefe, a través de este nuevo software, en un trepa, espiando los ritmos de trabajo diarios más detallados de las personas que le rodean, la frecuencia de los clics y la pausa entre pulsaciones. Esta vigilancia sin sentido, aunque sea por algoritmos más que por humanos, suele pasar por innovación hoy en día.

La privacidad como hecho material e infraestructural

Entonces, ¿dónde nos lleva esto? Que no podemos poner simplemente parches de privacidad personal en este entorno de vigilancia. Tus dispositivos, los hábitos de tus amigos y las actividades de tu familia estarán, no obstante, vinculados y te identificarán. Y los metadatos se filtrarán a pesar de todo. En su lugar, hay que asegurar la privacidad por defecto. Y sabemos que esto no sucederá sólo por la buena voluntad de los gobiernos o de las empresas tecnológicas, porque simplemente no tienen el incentivo para hacerlo.

El RGPD, con sus consecuencias inmediatas, se quedó corto. La privacidad no debería ser solo un derecho que intentamos desesperadamente hacer realidad con cada visita a un sitio web, o que la mayoría de nosotros solo puede soñar con ejercer mediante costosos procesos judiciales. No, tiene que ser un hecho material y de infraestructura. Esta infraestructura tiene que ser descentralizada y global para que no caiga en los intereses de determinados intereses nacionales o comerciales. Además, tiene que tener los incentivos adecuados, recompensando a los que dirigen y mantienen la infraestructura para que la protección de la privacidad sea lucrativa y atractiva, mientras que perjudicarla sea inviable.

Para terminar, quiero señalar un aspecto enormemente infravalorado de la privacidad, a saber, su potencial positivo para la innovación. La privacidad tiende a entenderse como una medida de protección. Pero si la privacidad fuera simplemente un hecho, la innovación impulsada por los datos cobraría de repente mucho más sentido para la gente. Permitiría un compromiso mucho más amplio a la hora de dar forma al futuro de todo lo relacionado con los datos, incluyendo el aprendizaje automático y la IA. Pero en la próxima ocasión hablaremos de ello.

Los puntos de vista, pensamientos y opiniones expresados aquí son únicamente del autor y no reflejan ni representan necesariamente los puntos de vista y opiniones de Cointelegraph.

Jaya Klara Brekke es la directora de estrategia de Nym, un proyecto global de privacidad descentralizada. Es investigadora en el Instituto Weizenbaum, tiene un doctorado en el Departamento de Geografía de la Universidad de Durham sobre la política de los protocolos blockchain, y es asesora experta ocasional de la Comisión Europea en materia de tecnología de libro mayor distribuido. Habla, escribe e investiga sobre la privacidad, el poder y las economías políticas de los sistemas descentralizados.

Sigue leyendo:

Tomado del sitio de Cointelegraph