Mostrando entradas con la etiqueta C.Véliz. Mostrar todas las entradas
Mostrando entradas con la etiqueta C.Véliz. Mostrar todas las entradas

miércoles, 25 de marzo de 2020

[A VUELAPLUMA] Privacidad



Mujer en Los Ángeles, Calfornia. Foto AFP


Las medidas más eficaces contra la pandemia no pasan por apps que afectan a nuestros derechos ["La privacidad en tiempos de coronavirus". El País, 24/3/2020], aforma la filósofa e investigadora española en el Uehiro Centre for Practical Ethics y el Wellcome Centre for Ethics and Humanities de la Universidad de Oxford, Carissa Véliz.

"En una pandemia la prioridad es contener la infección -comienza diciendo Véliz-. La pandemia de 1918 mató a entre 50 y 100 millones de personas. Para ponerlo en perspectiva, en la Segunda Guerra Mundial murieron entre 70 y 85 millones de personas. Hay mucho en juego con el coronavirus. En estas circunstancias es necesario poner en pausa algunos derechos, como el de asociación. ¿Es la privacidad uno de ellos? No está claro.

Las telecos en España están ofreciendo al Gobierno controlar los movimientos de las personas que están en cuarentena. Algunas comunidades ya han sacado páginas o apps relacionadas con el virus. La experta en privacidad Gemma Galdón ha ofrecido algunas críticas en Twitter. Coronamadrid, por ejemplo, apunta Galdón, no permite uso anónimo, no pide consentimiento, no establece periodo de retención de datos, no minimiza datos, y comparte datos médicos sin anonimización.

En China el Gobierno tomó medidas tecnológicas extremadamente intrusivas. En Corea del Sur, además de hacer más pruebas de coronavirus que en ningún otro país, han publicado detalles muy específicos sobre individuos infectados. Israel se plantea usar al servicio secreto para vigilar a los ciudadanos a través de sus móviles. En Estados Unidos, el Gobierno discute con las grandes tecnológicas desarrollar medidas que podrían ser similares.

¿Es necesario entregar nuestra privacidad a una app para frenar al coronavirus? No es evidente. Las medidas más efectivas no parecen pasar por ninguna app.

En Wuhan la medida más efectiva fue la cuarentena generalizada. Pero la cuarentena generalizada es una opción económicamente cara, y la economía importa porque una crisis también causa estragos y muertes. Las medidas menos generalizadas buscan identificar focos de infección para contenerlos, dejando al resto de la población libre para trabajar normalmente. Hay dos formas de identificar focos de infección: haciendo pruebas a toda la población, o usando la tecnología para inferir quién puede ser un riesgo.

En el pueblo de Vò, donde se sufrió la primera muerte por coronavirus en Italia, hicieron un estudio. La Universidad de Padua les hizo pruebas a todos los habitantes. Descubrieron que la gente infectada pero asintomática juega un rol fundamental en el contagio de la enfermedad. Encontraron 66 casos positivos a quienes aislaron durante 14 días. Después de las dos semanas, seis casos seguían dando positivo al virus, por lo que tuvieron que aislarse más días. Infección totalmente bajo control. No ha habido casos nuevos. No hizo falta ninguna app.

La opción de recurrir a apps no solo es más invasiva desde el punto de vista de la privacidad, sino también mucho menos precisa y efectiva. Si solo se hacen pruebas a gente hospitalizada, la app podrá contactar a personas que hayan estado en contacto con las personas infectadas y pedirles que se aíslen. Pero no todo el que haya estado en contacto con alguien infectado se contagiará. Y quienes ya están infectados habrán contagiado a otros, que a su vez habrán contagiado a otros a quienes la app no contactará por estar demasiado lejos en la cadena, y todos esos casos seguirán asintomáticos mientras el virus se incuba. Con este tipo de método habrá mucha gente quedándose en casa que no tendría por qué quedarse, y habrá gente pululando por ahí que tendría que estar aislada.

Ninguna app, por más sofisticada que sea, y por más datos que tenga, puede sustituir a una prueba de coronavirus. La tecnología digital no es magia, no resuelve todos los problemas, y no siempre es la mejor opción. Didier Raoult, especialista francés en enfermedades infecciosas, defiende que hay que hacer pruebas a toda la población y priorizar el diagnóstico. Haciendo pruebas solamente a quienes terminan en el hospital habrá una mayoría de gente infectada que se detecta demasiado tarde, ya con síntomas y habiendo contagiado a otros. Si hacemos pruebas a todo el mundo, podemos confinar exactamente a la gente que hace falta aislar. Ni más ni menos. El resto puede seguir con su vida normal y reanimar la economía.

Lo que hacen falta no son más apps intrusivas sino más pruebas. ¿Por qué no estamos produciendo más pruebas de coronavirus? ¿Por qué no está siendo esa la prioridad? Hacer pruebas a toda la población sería caro, sí. Pero mucho menos caro que una cuarentena generalizada alargada o que una pandemia fuera de control.

Además de controlar la pandemia, tenemos que pensar en el mundo que quedará después de la tormenta, el que estamos construyendo con cada decisión. La privacidad es importante porque le da poder a la ciudadanía. Hay que defenderla. Demasiadas veces las medidas temporales tomadas en momentos de emergencia llegan para quedarse. Todos tenemos que vigilar la democracia. Las agencias de protección de datos en especial deben montar guardia y asegurarse de que no hay ningún abuso a nuestros datos.

El coronavirus se ha llevado ya y se llevará a muchos seres queridos. Nos ha robado el sueño, está dañando nuestra economía, nos ha arrebatado nuestros planes. No podemos dejar que nos robe también nuestros derechos. Hay que cuidar la privacidad, incluso en tiempos de pandemia".

A vuelapluma es una locución adverbial que el Diccionario de la lengua española define como texto escrito "muy deprisa, a merced de la inspiración, sin detenerse a meditar, sin vacilación ni esfuerzo". No es del todo cierto, al menos en mi caso, y quiero suponer que tampoco en el de los autores cuyos textos subo al blog. Espero que los sigan disfrutando, como yo, por mucho tiempo. 





La reproducción de artículos firmados en este blog no implica compartir su contenido. Sí, en todo caso, su  interés. Y ahora, como decía Sócrates, Ιωμεν: nos vamos. Sean felices, por favor, a pesar de todo. Tamaragua, amigos. HArendt




HArendt





Entrada núm. 5860
elblogdeharendt@gmail.com
La verdad es una fruta que conviene cogerse muy madura (Voltaire)

lunes, 13 de enero de 2020

[A VUELAPLUMA] La privacidad en los años 20



Una de sedes de Google por todo el mundo


El mal uso de los datos personales gracias a las nuevas tecnologías, escribe en el A vuelapluma de hoy lunes Carissa Véliz, investigadora en ética y filosofía política en el Uehiro Centre for Practical Ethics y el Wellcome Centre for Ethics and Humanities en la Universidad de Oxford, nos pone en riesgo a todos y controlar sus efectos dañinos es uno de los grandes desafíos de esta nueva década. 

"Por alguna razón un tanto misteriosa, -comienza diciendo Véliz, los números redondos suelen inspirar a los seres humanos a dar un paso hacia atrás y tomar perspectiva sobre los grandes temas de nuestro tiempo y nuestras vidas. Empezar el 2020 es una oportunidad para repensar las lecciones de la década pasada y replantearnos la década entrante.

Las primeras dos décadas del siglo XXI se caracterizaron por una pérdida progresiva de la privacidad. Dos fenómenos confluyeron para dar cabida al monstruo de la economía de los datos: el desarrollo de los anuncios personalizados y la preocupación por la seguridad.

En el año 2000, y bajo la presión de encontrar un modelo de negocio sostenible, Google lanzó AdWords (ahora Google Ads), la iniciativa que aprendió a explotar los datos de sus usuarios para vender anuncios personalizados. En menos de cuatro años, la compañía logró un aumento de ingresos del 3.590%. Un año después, la Comisión Federal de Comercio de Estados Unidos escribió un reporte para el Congreso recomendando la regulación de los datos antes de que se convirtieran en un problema. Pero el ataque terrorista a las Torres Gemelas sembró el miedo que dio prioridad a la seguridad nacional. Los Gobiernos vieron una oportunidad de vigilancia en todos los datos que estaban siendo recolectados por las empresas tecnológicas. La privacidad pasó a un segundo plano, y el capitalismo de la vigilancia nació de la colaboración entre instituciones públicas y privadas.

Ya en 2010, la privacidad había sido fuertemente erosionada, aunque la mayoría de nosotros todavía no nos dábamos cuenta de las consecuencias de esa pérdida. Fue ese año cuando Mark Zuckerberg se atrevió a sugerir que habíamos evolucionado más allá de la privacidad (este año, en cambio, aseguró que “el futuro es privado”).

Las grandes tecnológicas fueron capaces de corroer las normas de privacidad forjadas a través de siglos para protegernos de posibles abusos. Si tu jefe no sabe que estás pensando en tener un hijo, no puede discriminar en tu contra por esa razón. Si tu Gobierno no es capaz de prever quién va a formar parte de una protesta, no puede impedirla. Si tu vecino no sabe qué religión profesas, no te juzgará por ello.

En el mundo offline, hay ciertas señales, normalmente bastante palpables, que nos ayudan a cumplir las normas de privacidad y nos alertan cuando éstas han sido rotas. Hay pocas sensaciones tan socialmente incómodas como cuando alguien te mira fijamente cuando no quieres ser visto. Cuando alguien roba tu diario, deja una ausencia perceptible. La era digital destrozó las normas de privacidad en gran parte porque fue capaz de separarlas de estas señales tangibles. El robo de los datos digitales no crea ninguna sensación, no deja huella, no queda una ausencia que percibir. La pérdida de la privacidad en línea solo duele una vez que nos toca cargar con las consecuencias: cuando nos niegan un préstamo o un trabajo, cuando nos humillan o acosan, cuando nos extorsionan, cuando desaparece dinero de nuestra cuenta, cuando manipulan nuestras democracias.

Estamos teniendo que reaprender el valor de la privacidad a golpe de malas experiencias. Una de las lecciones de esta década es que hay cada vez hay más ejemplos para ilustrar que la privacidad, lejos de ser una enemiga, es una parte integral de la seguridad tanto individual como nacional. La codicia por los datos incentiva que la arquitectura de Internet sea insegura. Mientras menos medidas de seguridad tengan nuestros aparatos electrónicos, más fácil es robar nuestros datos. En el año 2000 la ciberseguridad no era un problema que destacara. Es relativamente comprensible que los Gobiernos hayan pensado que la pérdida de la privacidad era necesaria para garantizar nuestra seguridad. Los hechos han demostrado que esa suposición es incorrecta. En el año 2020 la ciberseguridad es una de las grandes preocupaciones de todo Gobierno. El ciberespacio es la nueva arena en donde se librarán buena parte de los combates geopolíticos del siglo XXI. Y en el mundo digital, la seguridad pasa por proteger la privacidad.

Europa puede estar orgullosa de haber sido la primera institución política en empezar a regular la privacidad digital con el Reglamento General de Protección de Datos. La tarea pendiente más urgente es otorgar a las autoridades los recursos necesarios para hacer cumplir la ley. No podemos ser complacientes. El mal uso de los datos personales nos pone en riesgo a todos.

El reto en los años veinte será recuperar la privacidad perdida y fortalecer la ciberseguridad para proteger nuestras democracias. Es una batalla que se tiene que ganar si queremos preservar nuestras sociedades liberales. La mala noticia es que es una guerra que nunca se ganará del todo. Siempre tendremos que seguir luchando por la democracia, la justicia y la igualdad. La buena noticia es que es una lucha que se puede ganar y que merece la pena. Si al principio del siglo la preocupación por la privacidad se pudo percibir (equivocadamente) como algo del pasado, en 2020 está claro que la privacidad es uno de los grandes desafíos de esta nueva década".

A vuelapluma es una locución adverbial que el Diccionario de la lengua española define como texto escrito "muy deprisa, a merced de la inspiración, sin detenerse a meditar, sin vacilación ni esfuerzo". No es del todo cierto, al menos en mi caso, y quiero suponer que tampoco en el de los autores cuyos textos subo al blog. Espero que los sigan disfrutando, como yo, por mucho tiempo. 






La reproducción de artículos firmados en este blog no implica compartir su contenido. Sí, en todo caso, su  interés. Y ahora, como decía Sócrates, Ιωμεν: nos vamos. Sean felices, por favor, a pesar de todo. Tamaragua, amigos. HArendt








HArendt




Entrada núm. 5634
elblogdeharendt@gmail.com
La verdad es una fruta que conviene cogerse muy madura (Voltaire)

domingo, 23 de junio de 2019

[ESPECIAL DOMINGO] Inteligencia artificial





¿La inteligencia artificial supone progreso o retroceso?, se pregunta en El País la profesora Carissa Véliz, investigadora en el Uehiro Centre for Practical Ethics y el Wellcome Centre for Ethics and Humanities de la Universidad de Oxford. No avanzaremos si el futuro digital perpetúa los errores del pasado, dice. Si por cada euro que se invierte en nuevos algoritmos se invirtiera otro en regulación, habría más razones para ser optimistas sobre el porvenir.

Uno de los mayores riesgos de la inteligencia artificial, comienza diciendo Véliz, es que perpetúe los errores y prejuicios del pasado, camuflándolos bajo un barniz de objetividad. Los sistemas de inteligencia artificial se entrenan a partir de datos que reflejan las decisiones que hemos tomado en el pasado. Cuando la inteligencia artificial de reclutamiento de Amazon discriminó a las mujeres, no fue porque los hombres fueran mejores candidatos para los trabajos disponibles. A través de una base de datos que contenía un historial de contratación, Amazon le enseñó a su sistema que la empresa ha preferido contratar a hombres durante los últimos 10 años. En otras palabras, el algoritmo perpetuó un prejuicio sexista que estaba grabado en los datos del pasado.

PredPol, el sistema de inteligencia artificial utilizado por la policía en Estados Unidos, tiene problemas similares. En vez de predecir crímenes, que es lo que se supone que tendría que hacer, reproduce hábitos policiacos. Ahí donde patrulla la policía, encuentran crímenes que dan a procesar al algoritmo, que a su vez recomienda que se continúe patrullando las mismas zonas. Las áreas en donde hay mayor presencia policial, y en consecuencia más arrestos, son zonas pobladas por minorías. El resultado es que estas minorías están siendo indirectamente discriminadas.

Una de las grandes falacias asociadas al optimismo sobre el big data es creer que cuantos más datos tengamos, mejor. Habría que revisitar las palabras del poeta T. S. Eliot, que escribió: “¿Dónde está la sabiduría que hemos perdido con el conocimiento? ¿Dónde está el conocimiento que hemos perdido con la información?”. Recolectar más datos no garantiza que sean precisos, ni que estén actualizados y sean relevantes para cumplir nuestros objetivos, ni mucho menos que seamos capaces de poner esos datos al servicio de la justicia, la democracia, la igualdad y el bienestar.

Se dice que el big data va a revolucionar la ciencia. De momento, la inteligencia artificial manifiesta más estupidez que inteligencia. Entre otras muchas limitaciones, la inteligencia artificial solo es capaz de rastrear correlaciones, lo que no necesariamente nos lleva a entender mejor las relaciones de causa y efecto que gobiernan la realidad. El que los algoritmos detecten correlaciones es otro elemento que los hace resistentes a reconocer o impulsar cambios. Dos elementos que han estado correlacionados en el pasado (por ejemplo, ser mujer y tener un trabajo mal pagado) no tienen por qué estar correlacionados en el futuro, pero si nuestros algoritmos nos llevan a actuar como si las correlaciones fueran una verdad objetiva e inmutable, es más probable que la inteligencia artificial no genere predicciones neutrales, sino profecías autocumplidas.

También se cree que el big data tiene el potencial de eliminar los sesgos en las decisiones humanas; de momento, como hemos visto, parece que está incrementando los sesgos y solidificando el statu quo.

Un factor que posibilita los cambios sociales es la capacidad humana de olvidar aquello que nos ata al pasado. En su magnífico libro Delete, Viktor Mayer-Schönberger argumenta que tener una memoria perfecta, ya sea como individuos o como sociedad, puede ser un obstáculo para cambiar a mejor. Nuestra memoria biológica es un sistema fantástico de filtración y organización de la información: recordamos lo importante, olvidamos lo insignificante, reconstruimos el pasado constantemente a la luz del presente, y le damos diferentes valores a diferentes memorias. La memoria digital lo recuerda todo sin reinterpretarlo ni valorarlo; es la antítesis de nuestra memoria biológica, forjada a través de milenios de evolución. Las consecuencias de no poder olvidar pueden ser desastrosas.

Si no somos capaces de olvidar los errores que alguien ha cometido (y todos cometemos errores), o por lo menos de tenerlos menos presentes, es difícil que podamos darle una segunda oportunidad. Es verdad que no hay que olvidar las lecciones del pasado, pero aprender de la historia no es lo mismo que mantener un registro de cada infracción que cada persona comete. Lo segundo lleva a tener una sociedad implacable, rígida, que eterniza las injusticias del pasado. Por eso el derecho al olvido es tan importante, y un acierto del Reglamento General de Protección de Datos (RGPD).

Otro factor necesario para posibilitar cambios es la capacidad humana de tener consciencia social. Los seres humanos somos seres sintientes y agentes morales. Como seres sintientes, sabemos lo que es el sufrimiento y el bienestar en nuestra piel, y somos capaces de sentir empatía con otros que sufren. Como agentes morales, entendemos las consecuencias que nuestras acciones pueden tener en otros. Comprendemos que en ocasiones hay que hacer una excepción a la regla —cuando la regla no abarca todos los casos posibles o cuando una persona merece una segunda oportunidad—. Somos capaces de reflexionar sobre nuestros valores y actuar en consecuencia.

Los algoritmos no son ni seres sintientes ni agentes morales. Son incapaces de sentir dolor, placer, remordimiento o empatía. Son incapaces de entender las consecuencias de sus acciones —solo los seres que pueden experimentar dolor y placer pueden entender lo que significa infligir dolor o causar placer. Los algoritmos no tienen valores ni son capaces de hacer una excepción a la regla. No toman en cuenta que en muchas ocasiones las transgresiones humanas son producto de la injusticia (la falta de oportunidades que lleva al crimen, por ejemplo). No pueden reflexionar sobre el tipo de vida que quieren llevar, o el tipo de sociedad en la que quieren vivir, y actuar en consecuencia. Un coche autónomo no puede decidir andar menos kilómetros para no contaminar. Un robot de guerra no puede convertirse en pacifista después de reflexionar sobre las consecuencias de los conflictos armados. Los algoritmos no pueden tener consciencia social.

Es una trampa creer que la tecnología puede resolver por sí misma problemas que son fundamentalmente éticos y políticos. El reto más importante que tenemos por delante es uno de gobernanza. Si por cada euro que se invierte en inteligencia artificial se invirtiera otro euro en regulación y gobernanza, tendríamos más razones para ser optimistas sobre el futuro digital. Ahora mismo, los incentivos premian el uso de la inteligencia artificial para tomar decisiones. Si las instituciones usan algoritmos para tomar decisiones, se ahorran dinero al tener que pagar menos sueldos, pueden defender sus decisiones como si fueran objetivas, y si algo sale mal, pueden culpar al algoritmo. Cuando quienes más arriesgan (los ciudadanos a merced de los algoritmos) son diferentes que quienes más se benefician de ese riesgo (las empresas, los Gobiernos), se crean asimetrías de poder. El papel de los reguladores es asegurarse de que los incentivos de las instituciones estén alineados con los intereses de la población. Si la inteligencia artificial daña a los ciudadanos, tiene que haber consecuencias proporcionales para las personas responsables de ese algoritmo.

A pesar de su complejidad, los algoritmos no son más que herramientas, y los agentes morales somos totalmente responsables de las herramientas que creamos y utilizamos. Si dejamos que los algoritmos decidan basándose en datos del pasado, seremos responsables de repetir nuestros errores, de frenar el progreso social a tal punto que empecemos a retroceder.



Dibujo de Eulogia Merle para El País



Y ahora, como decía Sócrates, Ιωμεν: nos vamos. Sean felices, por favor, a pesar de todo. Tamaragua, amigos. HArendt 



HArendt






Entrada núm. 5007
elblogdeharendt@gmail.com
La verdad es una fruta que conviene cogerse muy madura (Voltaire)

miércoles, 25 de abril de 2018

[A VUELAPLUMA] Ceder datos personales en Internet puede resultar tóxico para su salud





Tus datos son tóxicos. El rastro de información que los usuarios dejan en Internet puede ser usado en su contra. En la era digital, proteger la privacidad es la única forma de conseguir una sociedad libre, escribe en El País la profesora Carissa Véliz, investigadora en el Centro Uehiro de Ética Práctica de la Universidad de Oxford.

En esta fase temprana de la era digital, comienza diciendo, salen a la luz de forma constante escándalos relacionados con la violación de la privacidad. Desde el llamado porno por despecho, con la publicación de fotos íntimas de exparejas, hasta el comercio con historiales médicos sin consentimiento de los pacientes, pasando por el llamado microtargeting mercadotécnico, que utiliza los datos de un consumidor potencial para tratar de influir en sus decisiones. También ha habido casos específicos y mediáticos como el de ­Ashley Madison —una red social de citas amorosas extramatrimoniales que sufrió un ataque que hizo públicos perfiles de millones de usuarios— o el más reciente, el de Cambridge Analytica, consultora que usó los perfiles de millones de usuarios de Facebook para manipular procesos electorales en todo el mundo.

Estos desastres demuestran la importancia de la privacidad. Mantener a salvo nuestros datos nos protege de humillaciones que pueden resultar catastróficas para sus víctimas, nos ayuda a evitar discriminaciones injustas y contribuye a la buena salud de las democracias al ser una condición necesaria para que los ciudadanos puedan formarse una opinión relativamente libre de injerencias.

De esos mismos desastres podemos extraer, además, algunas lecciones fundamentales. Un elemento importante es que las consecuencias de la pérdida de privacidad no suelen materializarse de forma inmediata porque los daños relacionados con estos delitos son acumulativos. Algo parecido sucede con el medio ambiente: ningún coche es, por sí solo, responsable del cambio climático, pero la acumulación de las emisiones de todos los coches en su conjunto contribuye sin duda a agravar el problema.

Lo más peligroso es que los efectos nocivos pueden ser invisibles hasta que se llega a un punto en el que el desastre es inminente e irreversible. Cabría pensar que no pasa nada por ceder un dato personal a una empresa. Pero, una vez que se ha dado una información, a menudo no se puede recuperar y esta rara vez permanece aislada, sino que se acumula, agrega, analiza y utiliza, muchas veces en detrimento de los sujetos que la cedieron.

Precisamente porque los daños derivados son acumulativos, esos datos personales constituyen un desastre en potencia. Almacenarlos es como guardar una bomba que, tarde o temprano, explotará. Por eso, el experto en seguridad Bruce Schneier se refiere a ellos como “bienes tóxicos”: tarde o temprano serán utilizados en nuestra contra. Incluso cuando la información ha sido recogida con buenas intenciones —en las investigaciones médicas, por ejemplo—, si los datos se guardan durante suficiente tiempo, es posible que al final sean vendidos o robados y utilizados con fines nada constructivos.

Los datos son vulnerables, y por eso hacen vulnerable tanto a quien los almacena (una fuga de información puede desvelar secretos empresariales o terminar en una costosa demanda) como a los sujetos de esos datos. Esa información que se recoge es peligrosa porque no es fácil de proteger.

Garantizar la seguridad es muy complicado, porque los ciberatacantes siempre juegan con ventaja. Quienes tratan de romper las defensas pueden escoger el momento y la manera de hacerlo, mientras que quien trata de salvaguardar la privacidad tiene que protegerse de cualquier tipo de ataque en todo momento. Un atacante habilidoso, motivado y con dinero suficiente tiene grandes probabilidades de éxito. A este peligro hay que añadir que los datos son muy codiciados; son las pepitas de oro del Lejano Oeste de Internet. Siempre habrá gente que trate de aprovecharse de las vulnerabilidades de nuestra información personal.

Sacar partido de esas debilidades puede reportar dinero y poder. Dinero, porque nuestros datos se pueden vender a otras empresas: cuanto más se sabe de nosotros, más fácil y fiable resulta el cálculo de qué querríamos comprar y cuánto estaríamos dispuestos a pagar por ello. Esto desemboca, por ejemplo, en prácticas como los llamados “precios discriminatorios”, es decir, en que unos paguen más que otros por el mismo servicio. Una aseguradora médica también puede ahorrarse dinero si rechaza a los clientes que, según sus datos, tienen malos hábitos alimenticios o genes tendentes a determinadas enfermedades. Los Gobiernos también compran datos. Además, el valor de esos datos puede utilizado para la extorsión y el robo.

Respecto del poder, cuanta más información se tiene de nosotros, más vulnerables somos. Si un Gobierno, por ejemplo, fuese capaz de saberlo todo sobre sus ciudadanos (sus búsquedas en Internet, lo que leen, los mensajes que mandan), también podría aplastar cualquier intento de disidencia antes de que lograra manifestarse de manera organizada. La vigilancia permite adelantarse a los actos de las personas señaladas, permite dominarlas. Supongamos que toda la información recabada sobre nosotros acaba un día en manos de un tirano, se podría decir que estamos construyendo ahora la arquitectura de datos sobre la que se sostendría una dictadura en el futuro. Al fin y al cabo, la caza de judíos por parte de los nazis fue mucho más eficaz en aquellos lugares donde había buenos registros civiles. Y tampoco es casualidad que los nazis innovaran en técnicas de registro e identificación de la población, apoyados en una empresa informática, IBM, y en su tecnología de la tarjeta perforada.

Por eso es aterrador el llamado “crédito social” que está poniendo en marcha el Gobierno chino. Este sistema evalúa la reputación de una persona a partir de todos los datos que de ella se tienen y, de acuerdo con su calificación, permite limitar su acceso a diferentes oportunidades. En febrero de 2017, el Tribunal Popular Supremo de ese país anunció que había prohibido coger un avión a 6,15 millones de personas en los últimos cuatro años por haber cometido “delitos sociales”. Otros 1,65 millones están en la lista negra que les impide desplazarse en tren. El Gobierno está creando un sistema de control total en el que se registra y califica cada acción de cada individuo; y no contentos con eso, para hacer notar el poder absoluto que están acumulando, se castiga con la exclusión social a aquellos que se desmarcan de las líneas establecidas.

El respeto a la privacidad va de la mano del respeto a la democracia, la libertad y la igualdad. Si se nos trata de manera diferente por lo que se sabe de nosotros —por nuestros hábitos de compra, poder adquisitivo, genes, estado de salud o cualquier otro detalle personal—, se rompe el principio de igualdad de oportunidades sobre el que se asienta una democracia. Un ejemplo claro: cuando se descubrió que los algoritmos de Google mostraban anuncios de trabajos bien pagados a más hombres que mujeres. Si el buscador no fuese capaz de saber si somos mujeres u hombres, ricos o pobres, nos trataría a todos por igual.

Habrá gente que quiera ser tratada de forma diferente y a la que no moleste que se le muestre publicidad personalizada. Pero para quien sospecha que sus datos pueden actuar en su contra —por ser mujer, por ser negro, por ser pobre o rico, por estar enfermo—, el riesgo de discriminación pesa más que la ventaja de ver anuncios de su marca favorita. Si algunos optan por ceder sus datos y recibir un tratamiento personalizado, siempre habrá perdedores, gente a quien se trate peor. ¿No sería mejor que las empresas e instituciones nos trataran de la forma más igualitaria posible? Las consecuencias negativas de la pérdida de privacidad no se dan solo a nivel individual, sino también a un nivel social y político. El mito de que la privacidad es un lujo reservado a pudorosos. Quien salvaguarda su privacidad no está anteponiendo su interés personal de manera egoísta, sino que está protegiendo el bien común: la seguridad de todos y la democracia.

Las sustancias altamente tóxicas están prohibidas o muy reguladas en nuestras sociedades. Así que cabe preguntarse si el nivel de toxicidad de algunos datos es tan alto que deberían estar fuera de circulación, o al menos fuera del mercado. De la misma forma que estamos de acuerdo en que algunas cosas muy importantes o sensibles no deben estar a la venta, como los niños, los órganos y los votos.

Cierto tipo de información es tan personal y sensible que no debería ser posible lucrarse con ella. Por ejemplo, las empresas que comercian con datos (data brokers) investigan detalles de la historia de cada usuario de Internet para saber qué venderles y cómo. Separan a la gente en listas que permiten ver sus vulnerabilidades y que venden a otras empresas. Las categorías de esas listas incluyen descripciones como “víctimas de violaciones”, “perdió a su hija en un accidente”, “personas mayores con demencia” y “enfermos de sida”. La información de que alguien ha sido víctima de un crimen, ha sufrido un accidente o padece una enfermedad no debería poder compartirse sin el consentimiento de la persona en cuestión, ni mucho menos poder venderse o usarse para aprovecharse de sus debilidades.

Con otro tipo de datos, menos sensibles y quizá necesarios para el funcionamiento de diferentes servicios, habría que crear procedimientos que permitan que puedan borrarse de manera rutinaria para evitar que se acumulen y posibles fugas. Las redes sociales y otras empresas podrían proporcionar a sus usuarios un sistema de limpieza que permita borrar aplicaciones que ya no se usan, amigos con los que no han interactuado en años y datos que no es necesario guardar. Los tuits y las publicaciones en Facebook podrían tener fecha de caducidad.

Max Schrems, defensor de la privacidad en la Red y director de la organización NOYB (siglas de None Of Your Business, no es asunto tuyo), quiere llevar a juicio a las empresas que violen las normas de privacidad. Schrems borra sus tuits cada dos meses. Como él, la gente debería hacer todo lo posible para proteger su privacidad: ceder tan pocos datos como sea posible, usar servicios que cumplan las normas (DuckDuckGo en vez de Google, Telegram en lugar de WhatsApp, ProtonMail y no Gmail…) y borrar de vez en cuando los datos acumulados. Sin embargo, resulta excesivo trasladar toda la responsabilidad a los usuarios. No solo por la dificultad, que raya en la imposibilidad, que conlleva estar al tanto de lo que se puede hacer por proteger la privacidad a nivel individual, sino también porque la gran mayoría de fugas de datos suceden sin que los usuarios lo sepan o puedan oponerse. Nada puede sustituir en este campo a la regulación oficial.

El Reglamento General de Protección de Datos (RGPD) es la legislación sobre privacidad más puntera y entrará en vigor en la UE el 25 de mayo. Esta nueva ley constituye un verdadero hito histórico: no solo representa el sentir de los europeos en un momento en el que se hacen cada vez más evidentes los peligros de la era digital, sino que también marca un tiempo de madurez en esta era. El Salvaje Oeste está dejando de serlo. Empresas como Facebook y Google han abusado de nuestra confianza. La UE está demostrando visión y liderazgo al comprometerse con la protección de los derechos de sus ciudadanos. Entre otras cosas, la nueva normativa establece el derecho al olvido. Los ciudadanos pueden reclamar que quienes controlan sus datos los borren, que cese la diseminación de su información personal o exigir que no sean procesada por terceros.

El éxito de la legislación dependerá de que las instituciones europeas sean firmes en su aplicación y de que los ciudadanos exijamos nuestros derechos. Hay que pedir a las empresas e instituciones que borren nuestros datos siempre que sea posible. Y hay que organizarse para poder llevar a juicio a quien no cumpla con la ley. De lo contrario, si seguimos acumulando datos como acumulamos basura, podríamos acabar siendo testigos de un cataclismo de privacidad de una magnitud nunca antes vista.



Servidores de Google (Douglas, Georgia, EE.UU.)


Y ahora, como decía Sócrates, Ιωμεν: nos vamos. Sean felices, por favor, a pesar de todo. Tamaragua, amigos. HArendt




HArendt





Entrada núm. 4422
elblogdeharendt@gmail.com
Estoy cansado de que me habléis del bien y la justicia; por favor, enseñadme, de una vez para siempre, a realizarlos (G.W.F. Hegel)