Mostrando entradas con la etiqueta Control. Mostrar todas las entradas
Mostrando entradas con la etiqueta Control. Mostrar todas las entradas

lunes, 18 de noviembre de 2019

[A VUELAPLUMA] Conejillos 4G



Fotografía de Getty Images



A vuelapluma es una locución adverbial que el Diccionario de la lengua española define como texto escrito "muy deprisa, a merced de la inspiración, sin detenerse a meditar, sin vacilación ni esfuerzo". No es del todo cierto, al menos en mi caso, y quiero suponer que tampoco en el de las autoras cuyos textos subo al blog. Espero que los sigan disfrutando, como yo, por mucho tiempo. Ellas tienen, sin duda, mucho que decirnos. Les dejo con el A vuelapluma de hoy,  de la escritora y periodista Luz Sánchez-Mellado, sobre el abusivo control de nuestras actividades más privadas e íntimas que las nuevas tecnologías ejercen sobre nosotros, y lo que es peor, con nuestro consentimiento tácito. Les dejo con él.

"El 9 de octubre, -comienza diciendo Sánchez-Mellado-, entre el petardeo de whatsapps, el goteso¡o de gmails y los trinos de Twitter, recibí una notificación de Google Maps que me dejó de fibra óptica. Que sí, que vale, que ya supongo que he debido de aceptar hasta que me empalen, y que puedo evitar estos episodios si cancelo la ubicación, el micrófono, la cámara y los datos y vuelvo a usar el teléfono como si fuera un teléfono y no un criado para todo a cambio de dejarme analizar hasta las heces. Pero ese es otro debate. Lo que me dejó de grafeno fue el contenido y no el continente. “Tus actividades de septiembre”, se titulaba el mensaje, y, al abrirlo, casi me obro encima. Según el geolocalizador, ese mes estuve en siete ciudades, visité 15 establecimientos, anduve seis kilómetros y pasé 59 horas a bordo de un vehículo con el móvil a cuestas. O sea: de casa al coche, del coche al atasco, del atasco al curro y del curro a casa, pasando por la gasolinera y el supermercado. Qué pena me di de mí misma. Además de constatar que mi vida es una mierda y de jurarme que el lunes vuelvo al gimnasio que llevo dos años pagando sin ir por si me animo, confirmé mis peores sospechas de que mi móvil me conoce mejor que mi tocólogo.

Recordaba todo esto el martes, cuando transcendió que el INE va a pagar a las operadoras para que nos rastree, saber cómo nos movemos y poder articular soluciones logísticas. A pesar de que dicen que se trata de información anónima y en bruto, la indignación ha sido un tsunami. Pertinente. Pero me plantea la paradoja de por qué rechazamos que un organismo público sepa nuestros movimientos mientras que a Google le damos nuestra sangre si nos la pide. Sobre el éxito del rastreo, será parcial en cualquier caso. Las grandes preguntas —¿de dónde venimos?, ¿adónde vamos?, ¿por qué empieza esta noche la tercera campaña electoral en un año?— seguirán sin respuesta. En cuanto acabe la turra vuelvo al gimnasio".







La reproducción de artículos firmados en este blog no implica compartir su contenido. Sí, en todo caso, su  interés. Y ahora, como decía Sócrates, Ιωμεν: nos vamos. Sean felices, por favor, a pesar de todo. Tamaragua, amigos. HArendt





HArendt




Entrada núm. 5458
elblogdeharendt@gmail.com
La verdad es una fruta que conviene cogerse muy madura (Voltaire)

sábado, 28 de septiembre de 2019

[A VUELAPLUMA] Abran las cajas negras



Software de análisis de movimiento humano en Pekín, China. Reuters


Creer que por sí mismas las máquinas van a tomar decisiones justas es el equivalente hoy al clásico error liberal de pensar que los mercados se regulan solos, escribe le periodista Ana Fuentes.

En el Senado francés, comienza dicendo Fuentes, se está debatiendo estos días si se debe exigir por ley que la Administración explique los algoritmos que utiliza en sus aplicaciones. Miles de estudiantes se quejan de que la plataforma que gestiona su admisión en la enseñanza superior, Parcoursup, ha sido programada con criterios sesgados. Supuestamente, favorece a los estudiantes con más información y, en definitiva, con más recursos. Y, aunque hace dos años que la Ley Digital exige la transparencia algorítmica en Francia, esta no se da ni por parte del Gobierno ni de las empresas.

Omnipresentes e invisibles, los algoritmos determinan cada vez más nuestro día: qué películas nos propone Netflix o cuánto nos cuesta una reserva de hotel. Gracias a ellos se pueden gestionar cantidades enormes de información de manera más eficiente. Pero también pueden terminar discriminando por cómo han sido programados. Un ejemplo que da Marta Peirano en El enemigo conoce el sistema es el de David Dao, un pasajero al que sacaron a rastras de un avión en abril de 2017. Había pasado todos los controles de seguridad en el aeropuerto de Chicago y estaba esperando el despegue cuando las azafatas llegaron a echarle. Se negó y los agentes de seguridad terminaron sacándolo por la fuerza. United Airlines había vendido demasiados billetes y sobraba alguien. Un algoritmo había determinado que fuera Dao y no otro el expulsado. Él no era tan valioso para la aerolínea como un titular de la tarjeta de viajero frecuente. ¿Usaron también datos socioeconómicos, religiosos o raciales? Se desconoce, porque el algoritmo es secreto.

Problema: la transparencia siempre suena bien como valor exigible, pero habrá situaciones en las que no se pueda explicar un algoritmo. Para empezar, no es sencillo obligar a las empresas a poner su código a disposición del público; sería violar su propiedad intelectual y aniquilar la innovación. Pero, además, algunos son árboles de decisión sencillos, basados en reglas ordenadas. Otros son redes neuronales que no controlan ni quienes los han programado. Sus autores solo pueden probarlos una y otra vez hasta que entienden que las máquinas están haciendo lo que deben hacer.

Una de las posibles soluciones es pedir que se rindan cuentas, no ante los ciudadanos, sino ante una autoridad independiente, quizá supranacional, sin ánimo de lucro y formada por expertos. Están naciendo iniciativas como OdiseIA en España para analizar el impacto de la inteligencia artificial y asesorar al sector público y privado. Pretenden crear un sello de calidad para quienes cumplan ciertos estándares de transparencia. Es el momento de poner la ética en la agenda. Creer que por sí mismas las máquinas van a tomar decisiones justas es el equivalente hoy al clásico error liberal de pensar que los mercados se regulan solos.





La reproducción de artículos firmados en este blog no implica compartir su contenido. Sí, en todo caso, su  interés. Y ahora, como decía Sócrates, Ιωμεν: nos vamos. Sean felices, por favor, a pesar de todo. Tamaragua, amigos. HArendt








HArendt




Entrada núm. 5297
elblogdeharendt@gmail.com
La verdad es una fruta que conviene cogerse muy madura (Voltaire)

lunes, 10 de junio de 2019

[A VUELAPLUMA] Las máquinas que nos vigilan





Uno de los indicios claros de que algo inquietante está ocurriendo se produce cuando las distopías comienzan a llegar al mundo real y las máquinas que nos vigilan comienzan a ser de uso general, escribe en El País el periodista Guillermo Altares.

Desde las novelas de Philip K. Dick, comienza diciendo Altares, hasta la serie Black Mirror, la ciencia ficción ha especulado sobre los límites de la tecnología y el momento en que deja de ser una ayuda para convertirse en un problema. Uno de los indicios claros de que algo inquietante está ocurriendo se produce cuando las distopías comienzan a llegar al mundo real. Y ese es el problema que plantean ahora mismo los sistemas de reconocimiento facial, una revolución tecnológica que amenaza la privacidad de todos los ciudadanos en los espacios públicos.

Un hombre fue multado recientemente en Londres por cubrirse ante una cámara para evitar el reconocimiento facial, un incidente que fue filmado por la BBC. El Parlamento Europeo ha aprobado la creación de una base de datos con los rostros de los 500 millones de habitantes de la UE, mientras que la Estación Sur de autobuses de Madrid, por la que pasan 20 millones de personas, cuenta con un sistema de este tipo. China es el país donde el reconocimiento facial está más desarrollado (hay una cámara por cada siete habitantes) y se utiliza para el control de la población en una situación que se parece cada vez más al Gran Hermano de George Orwell.

Primero se multiplicaron las cámaras en los espacios públicos y luego se introdujeron sistemas cada vez más sofisticados para poner un nombre a cada uno de esos rostros de la multitud. Esta tecnología no es solo capaz de reconocer a una persona de cerca —como ocurre para desbloquear algunos móviles, en tiendas o en cajeros automáticos—, sino que también puede localizar a alguien y conocer sus movimientos y los lugares que visita.

La reciente prohibición de estos sistemas por parte de la ciudad de San Francisco, donde están basadas muchas de las multinacionales tecnológicas, ha lanzado la voz de alarma sobre las derivadas indeseadas de estos sistemas que, si bien es cierto que pueden ser un instrumento muy útil contra el crimen, también tienen la capacidad de laminar la privacidad. Este paso de San Francisco se produjo mientras algunos inversores de Amazon trataban de que la multinacional frenase la distribución de su sistema Rekognition, uno de los más eficaces del mercado, pero fracasaron. El debate sigue, pero el ojo del Gran Hermano se hace más grande y más preciso.



Pruebas de reconocimiento facial en Shenzhen, China



Y ahora, como decía Sócrates, Ιωμεν: nos vamos. Sean felices, por favor, a pesar de todo. Tamaragua, amigos. HArendt




HArendt






Entrada núm. 4966
elblogdeharendt@gmail.com
La verdad es una fruta que conviene cogerse muy madura (Voltaire)