Hola, buenas tardes de nuevo a todos y feliz martes. Mi propuesta de lectura de prensa para hoy, del filósofo Daniel Innerarity, va de la histeria digital. Se la recomiendo encarecidamente y espero que junto con las viñetas que la acompañan, en palabras de Hannah Arendt, les ayude a pensar para comprender y a comprender para actuar. Sean felices, por favor, aun contra todo pronóstico. Nos vemos mañana si la diosa Fortuna lo permite. Tamaragua, amigos míos. harendt.blogspot.com
La histeria digital
DANIEL INNERARITY
05 AGO 2023 - El País - harendt.blogspot.com
El rápido desarrollo de la inteligencia artificial también ha causado gran inquietud entre los representantes de la inteligencia natural. En los últimos meses parece haberse convertido en una tendencia que quienes tienen más responsabilidad nos estén advirtiendo contra ella. A la petición de una moratoria ha seguido la exhortación de algunos expertos acerca de unos riesgos que equiparan a la guerra nuclear y las pandemias, las declaraciones de Geoffrey Hinton tras abandonar Google en las que prevenía de una inmediata superación sobre nuestra inteligencia y, también, la comparecencia en el Senado de Estados Unidos de Sam Altman, director de OpenAI, creadora del ChatGPT, con su posterior gira europea reclamando una mayor regulación de la inteligencia artificial. No sabe uno si interpretar estas manifestaciones como arrepentimiento o exhibición de poderío, como operación de mercadotecnia o estrategia para protegerse de futuras reclamaciones legales. En cualquier caso, todos ellos desarrollan una narrativa que sitúa a la inteligencia artificial en el terreno de lo mágico más que en el espacio de la responsabilidad.
El efecto imprevisible de estas nuevas tecnologías se compara con una guerra nuclear y una pandemia, mientras se anuncia una previsible extinción del género humano. El anuncio de tales peligros recuerda a otros miedos previos en nuestra historia reciente, como los que surgieron en los inicios de la revolución industrial, el escepticismo frente a las primeras vacunas o el rechazo de la electrificación. Ninguna de las disrupciones provocadas por estas tecnologías ha acabado con el género humano, por cierto. Más bien han proporcionado grandes avances, en algunos casos acompañados de nuevas crisis y conflictos. Comparar los riesgos de las tecnologías digitales con los nucleares es muy poco apropiado. Con todo su potencial terrorífico, las armas nucleares eran relativamente fáciles de controlar; por un lado, debido a que son costosas de fabricar y, por otro, a que están localizadas en un lugar, de manera que basta con asegurar el acceso a ellas. La tecnología digital e internet son todo lo contrario: un sistema distribuido, virtual y accesible, es decir, algo por principio imposible de asegurar. Por otro lado, la comparación con las pandemias tiene el efecto de presentar los peligros de la inteligencia artificial como si surgieran espontáneamente, como la mutación de un virus. Aquí desaparece nuevamente cualquier responsabilidad que pudiéramos identificar como el resultado de las decisiones conscientes de sus desarrolladores. ¿A quién se dirigen las advertencias sobre los riesgos asociados a las decisiones que han tomado precisamente quienes las lanzan? Escuchar a algunos gurús de la inteligencia artificial reclamando que los políticos regulen es como si unos ladrones (perdón por la metáfora) recriminaran al dueño de la casa por no haber cerrado bien las puertas.
Después de haber disfrutado de la libertad de la ausencia de reglas, los tecnólogos de Silicon Valley acaban de descubrir el alivio populista de descargar toda la responsabilidad en los políticos. La élite de la inteligencia artificial podrá decir en el futuro, cuando pase algo, que ya advirtieron de los peligros, cuya responsabilidad no correspondería a quienes los originaron, sino a quienes no nos protegieron lo suficiente frente a ellos. Esa falta de responsabilidad política de los expertos en tecnología suele venir acompañada por una cierta frivolidad a la hora de emitir mensajes sobre probables futuros. A los demás nos cabe la esperanza de que si se equivocaron a la hora de hacerse cargo de los riesgos que estaban provocando, también fallen en sus previsiones acerca de lo que puede suceder. Podríamos hacer una lista de sus predicciones incumplidas, así como de sus empresas fallidas y preguntarnos después cuál es la razón para que debamos creerles ahora. La incapacidad de algunos expertos para valorar correctamente la tecnología que supuestamente conocen es uno de los motivos por los que conviene ponderar con otros criterios lo que hacen y dudar un poco más de lo que dicen.
Con esto no excluyo que haya que tomarse en serio sus advertencias, aunque no sean completamente desinteresadas. Es posible incluso que algunas sean verosímiles, pero no exactamente por las razones que aducen. La menos creíble es la que pronostica una superinteligencia que nos convertirá en dóciles subordinados. No hace falta que la inteligencia artificial nos supere (lo que es una afirmación que carece de fundamento epistemológico y forma parte más bien de la ciencia ficción) para saber que, además de enormes beneficios, va a crearnos graves problemas. Los sistemas de inteligencia artificial pueden producir daños sin necesidad de ser superinteligentes, más bien precisamente porque no lo son. Tenemos otros términos para designar a quien, un humano o una máquina, hace daño y es muy listo: puede ser sagaz, astuto, exacto, hábil, pero no será socialmente inteligente.
De lo que podemos estar seguros es de que no acertaremos a hacer lo debido sin entender bien qué es lo que realmente está en juego. Si no podemos especificar lo que hay que regular hay pocas posibilidades de regularlo. Una buena prueba de este desconcierto es que la pregunta por la tecnología se resuelve con frecuencia en términos de optimismo o pesimismo. Si tuviéramos un mejor conocimiento de las cosas y de su posible evolución, ya no tendría sentido dividirnos entre optimistas y pesimistas. Pese a toda la carga de incertidumbre que rodea a estas tecnologías, nuestros análisis y previsiones tendrían una mayor objetividad. La necesidad de apostar a un impreciso estado de ánimo en relación con lo que pueda pasar disminuye en la misma medida en que hacemos mejores análisis acerca del futuro posible.
Esta falta de buenos análisis acerca del complejo entramado social en el que se inserta la tecnología (con dimensiones antropológicas, sociales, medioambientales, legales, éticas y políticas) es lo más preocupante de la actual situación. Parafraseando lo que Lichtenberg decía de la química, podríamos afirmar que quien solo sabe de tecnología ni siquiera sabe de tecnología. Tal vez eso sea lo que explica el tono histérico de sus llamamientos a hacer algo, incapaces de recurrir a otra cosa que no sea un futuro espantoso. A los anunciadores de los posibles problemas del futuro parecen interesarles menos los reales problemas del presente, de los que se ocupa precisamente la Unión Europea en su paciente regulación: la opacidad, los riesgos, los derechos, para los que prefiere un tono desacomplejadamente burocrático que el trompeteo épico.
Tenemos que debatir intensamente acerca de qué hacer con la que probablemente es la tecnología más poderosa de todos los tiempos, para lo cual no es un buen comienzo coquetear con la idea del fin del mundo. Prestemos atención a otros finales, buenos y malos, de cosas concretas (en el trabajo, la comunicación, el poder, la democracia…), de los que nos distraen los escenarios apocalípticos.
No hay comentarios:
Publicar un comentario