Llevo toda mi vida reclamando que los sistemas políticos superen su fijación obsesiva en lo inmediato, que atiendan más al largo plazo, y no vi venir la posibilidad de que la apelación al futuro pudiera tener una componente ideológica muy inquietante. En vez de corregir estas disfunciones, buena parte de las élites tecnológicas dan por descontado el colapso y se limitan a fantasear acerca del modo como pueden salvarse unos pocos.
Se ha ido construyendo en estos años esa ideología que Naomi Klein y Astra Taylor han denominado “fascismo del fin de los tiempos”, una combinación ideológicamente mediocre de capitalismo ultraliberal, el viejo elitismo antidemocrático y una cutre teología para dummies. Su principal característica es que tiene una concepción negativa del futuro cercano y una positiva del futuro lejano. Desde Silicon Valley ya no llega aquella narrativa utópica de los libertarios de antaño sino el recital de un inevitable colapso. Tenemos, por un lado, a Peter Thiel anunciando la llegada del Anticristo (que personifica en Greta Thunberg, Alexandria Ocasio-Cortez e incluso en León XIV) y, por otro, a Sam Altman, consejero delegado de OpenAI, con un discurso apocalíptico sobre el desarrollo de la tecnología, algo que no es tan incoherente si tenemos en cuenta que las advertencias respecto de la tecnología se han convertido en su mejor propaganda. Algunos de los que defendían una moratoria no han dejado de hacer caja con la inteligencia artificial. El futuro que vende Silicon Valley no es utópico sino devastador, siniestro, inexorable y elitista. Ya no es aquel que prometía democratización y oportunidades para todos con el despliegue tecnológico, sino el de la supresión de puestos de trabajo, aceptada la derrota ante el desastre climático, y en el que la supervivencia solo será posible para unos pocos, una supervivencia en búnkeres o en Marte, que tampoco parece muy atractiva.
Se llama largoplacismo (longtermism) a la teoría según la cual la humanidad se enfrenta a unos riesgos existenciales que le obligan a elegir entre la autodestrucción y la continuidad de la especie. Al convertirlo en un programa de acción, los tecnoligarcas cuentan con que les creamos en dos cosas: que su diagnóstico catastrofista es correcto y que ellos representan la mejor solución (no para impedir el colapso, sino para gestionarlo garantizando una peculiar forma de supervivencia). Nos enfrentamos a un nuevo tipo de poder, el de los señores de la tech-right, que quieren desmantelar la soberanía democrática y la legitimidad del Estado y transferir el poder a una élite cognitiva que sería la única capaz de gobernar el futuro.
Para estos altruistas de la civilización, la empresa de salvar a la humanidad futura es tan importante que legitima cualquier medio, incluidas decisiones de las que resultaría el sufrimiento de muchas personas en el presente. Y es que los peores desastres de la historia humana se convierten en algo casi irrelevante contemplados desde una perspectiva cósmica. Lo único importante sería el bien común de una humanidad futura imaginada como especie multiplanetaria, cuya supervivencia justifica todas las pérdidas padecidas por las poblaciones actuales. Declararse responsable de un futuro lejano e improbable permite ser completamente irresponsable respecto del presente real.
Esta manera de pensar en largos plazos temporales podría conducir a una mayor preocupación medioambiental; si no lo hace, es porque el largoplacismo piensa el futuro en tal lejanía temporal que incluso una catástrofe climática le parece un episodio irrelevante, con el que ya cuentan, y de ahí que prefieran trabajar en la colonización de otros mundos. No es extraño que este pensamiento se haya desarrollado entre los superricos (tecnoligarcas contrarios a cualquier regulación, magnates del petróleo, responsables del extractivismo y la predación de recursos), que son los mayores responsables de la ruina de nuestro planeta.
Tenemos un ejemplo de ello en el experimento de los coches autónomos. Tesla puso sus coches en el mercado sabiendo que no cumplían los estándares de seguridad que prometían. Esa operación equivalía de hecho a que los primeros usuarios trabajaran para la compañía poniendo en juego sus vidas. Elon Musk justificaba la operación apelando a las muertes que iban a ahorrase en el futuro. Tesla es un caso de utilización del cínico principio “finge hasta que lo consigas”: di que tus coches son seguros que, después de trágicos errores y gracias a la involuntaria colaboración de sus usuarios accidentados, tal vez llegues a la completa seguridad.
Este nuevo paisaje ideológico es una curiosa combinación de pesimismo en cuanto al presente y optimismo en relación con el futuro, de colapso inminente y solucionismo tecnológico. Los superricos piensan en modo pánico: construyen búnkeres, se hacen intervenciones médicas extravagantes, sueñan con colonizar otros planetas, están obsesionados con la inmortalidad. Es increíble lo preocupados que están cuando no deberían tener ninguna preocupación. Liberados de las regulaciones estatales, los individuos podrán acelerar la trayectoria evolutiva de la especie humana gracias al progreso tecnocientífico: prolongación indefinida de la vida, colonización espacial, manipulación genética, inteligencia artificial e hibridación hombre-máquina.
La élite tecnológica cree que logrará salvar nuestra civilización si se libera del peso de la condición humana y el lastre de la solidaridad. De hecho, los proyectos eugenésicos proliferan desde hace tiempo en Silicon Valley. El mejoramiento poshumanista se sirve de las drogas inteligentes (smart drogues) y el biohacking con el objetivo de liberarse de los condicionantes colectivos y acceder individualmente a un nivel superior de percepción y rendimiento.
El furor futurista en torno a la inteligencia artificial tiene que ver con el hecho de que se concibe como una tecnología que nos permitiría superar nuestra realidad corporal y temporal, la pesadez antropológica, material y terrestre. A este objetivo responde la aceleración de la inteligencia artificial por la autorregulación del mercado, convencidos de que los costes y las externalidades negativas de su desarrollo desenfrenado resultarán, a medio plazo, insignificantes frente a los beneficios de la superinteligencia.
El supuesto altruismo respecto de las generaciones futuras se traduce en un individualismo brutal en el presente. El mayor obstáculo de la supervivencia es la “empatía suicidaria”, que constituye para Peter Thiel “la debilidad fundamental de la civilización”. La empatía sobrevalora a las minorías indeseables en detrimento de los individuos más meritorios. Buena parte de la nueva élite tecnológica ve en la intervención eugenésica una antítesis de ese Estado que iguala y protege, consagrando así la debilidad (actual) e impidiendo la excelencia (futura).
Esta mezcolanza ideológica de entusiasmo tecnológico, teología barata y autoritarismo político nos obliga a revisar nuestras categorías de análisis y las estrategias para hacerle frente. Mi conclusión es que una sociedad democrática debería protegerse de unos gobernantes que planifican para la eternidad, más todavía que frente a aquellos que improvisan y solo piensan en el corto plazo. Debe haber otra forma de articular el presente y el futuro, lo inmediato y lo sostenible. En cualquier caso, la única manera de sobrevivir a la catástrofe que se avecina es asegurarse de que no suceda. Daniel Innerarity es catedrático de Filosofía Política, investigador Ikerbasque en la UPV-EHU y titular de la cátedra Inteligencia Artificial y Democracia del Instituto Europeo de Florencia. Su último libro es El futuro de la democracia (Galaxia Gutenberg). El País, 6 de mayo de 2026.



No hay comentarios:
Publicar un comentario