Dos fuerzas frenan la regulación sensata de la IA. Él es una de ellas, escribe en Substack (25/02/2026) el profesor Robert Reich. Amigos, comienza diciendo, ¿qué es más importante para usted? ¿Permitir que Pete Hegseth use la inteligencia artificial (IA) a su antojo o impedir que la IA vigile masivamente a estadounidenses y cree armas letales sin supervisión humana?
Esa es la dura elección que plantea la intensificación de la lucha entre una corporación de inteligencia artificial llamada Anthropic y Pete Hegseth, el Secretario de “Guerra” de Trump.
La IA es extremadamente peligrosa. La considero una de las cuatro crisis existenciales que enfrenta Estados Unidos, junto con el cambio climático, la creciente desigualdad y la destrucción de nuestra democracia.
Sin duda, la IA es capaz de mejorar la vida humana. Pero si no se regula, podría ser una pesadilla destructiva: otorgaría al gobierno el poder de saberlo todo sobre nosotros y reprimir cualquier disidencia, distorsionaría las noticias y los medios de comunicación hasta el punto de que nadie pueda distinguir entre mentiras y verdades, y amenazaría a los seres humanos con bots que podrían decidir que somos obstáculos innecesarios para su conquista del planeta.
Ahora es el momento de establecer medidas de seguridad. Pero dos fuerzas lo dificultan, si no lo imposibilitan.
La primera es la codicia corporativa, razón por la cual OpenAI, xAI de Elon Musk y Google han abandonado todas las precauciones. Varios investigadores de IA han abandonado empresas de IA en las últimas semanas, advirtiendo que la seguridad y otras consideraciones se están dejando de lado a medida que sus corporaciones recaudan miles de millones de dólares y se preparan para ofertas públicas iniciales que enriquecerán enormemente a sus ejecutivos.
El segundo es el régimen de Trump, que no quiere restricciones a la IA, ni siquiera a los gobiernos estatales. Esto se debe, en gran medida, a que la industria de la IA se ha convertido en una fuerza poderosa en Washington, invirtiendo dinero en políticos que cumplen sus órdenes (incluido Trump) y en contra de políticos que buscan medidas restrictivas. Y a que muchos funcionarios de Trump son corruptos y tienen sus propios intereses financieros en la IA.
Anthropic ha sido una de las empresas de IA más comprometidas con la seguridad. Se fundó como laboratorio de investigación en seguridad de IA en 2021, después de que su director ejecutivo, Dario Amodei, y otros cofundadores abandonaran OpenAI, preocupados por la falta de enfoque en seguridad en ChatGPT de OpenAI.
Amodei ha argumentado que la IA necesita medidas de seguridad estrictas para evitar que pueda destruir el mundo. En 2022, decidió no lanzar una versión anterior del software de IA Claude de Anthropic, por temor a que iniciara una peligrosa carrera tecnológica. En una entrevista de podcast en 2023, afirmó que existía entre un 10 % y un 25 % de probabilidades de que la IA pudiera destruir a la humanidad .
En enero, Amodei argumentó en un ensayo que «utilizar la IA para la vigilancia masiva nacional y la propaganda masiva» era «totalmente ilegítimo» y que las armas letales automatizadas por IA podrían aumentar considerablemente el riesgo de que los gobiernos democráticos las utilicen contra su propio pueblo para tomar el poder. Internamente, la empresa cuenta con estrictas directrices que prohíben el uso de su tecnología para facilitar la violencia. Durante el último año, Anthropic ha luchado contra el régimen de Trump impulsando medidas de protección estatales y federales para la inteligencia artificial.
En las últimas semanas, Hegseth y Amodei han estado discutiendo sobre el uso por parte del Pentágono de la IA de Anthropic, llamada Claude. Amodei se ha mantenido firme en sus exigencias: no se debe vigilar a los estadounidenses ni usar armas autónomas letales sin control humano.
La lucha comenzó cuando Palantir ayudó al Pentágono a capturar al presidente venezolano Nicolás Maduro. Palantir es un contratista del Pentágono que utiliza Claude de Anthropic. (Palantir, cofundada por el multimillonario de extrema derecha Peter Thiel y ahora dirigida por Alex Karp, es mi candidata a la peor corporación de Estados Unidos porque permite a gobiernos, ejércitos y fuerzas del orden procesar y analizar rápidamente cantidades masivas de datos personales).
Cuando los altos ejecutivos de Anthropic preguntaron a los ejecutivos de Palantir si Claude había sido utilizado en la operación contra Maduro, estos se alarmaron ante la posibilidad de que Anthropic no fuera un socio confiable en futuras operaciones del Pentágono. Contactaron al Pentágono y a Hegseth.
El martes pasado, Hegseth le dio un ultimátum a Anthropic: debe permitir que el Pentágono use su IA para cualquier propósito o el régimen de Trump invocará la Ley de Producción de Defensa, obligando a Anthropic a permitir que el Pentágono use a Claude y poniendo también en riesgo todos los contratos gubernamentales de Anthropic.
El Pentágono ya tiene acuerdos con xAI de Musk para usar su IA Grok, y está a punto de firmar un acuerdo con Google para usar su propio modelo de IA, Gemini. Sin embargo, Claude de Anthropic se considera un producto superior, ya que produce información más precisa. ¿Qué está en juego aquí? Todo.
Los funcionarios del Pentágono han dicho que tienen derecho a utilizar la IA como deseen, siempre y cuando la utilicen legalmente. Pero debido a que la IA tiene tanto poder político, el Congreso y el régimen de Trump no promulgarán leyes para impedir que cometa actos atroces. Esto, en efecto, deja la responsabilidad en manos de empresas privadas de IA como Anthropic. Anthropic afirma que quiere apoyar al gobierno, pero debe garantizar que su IA se utilice de acuerdo con lo que puede "hacer responsablemente".
Hegseth y el régimen de Trump le han dado a Anthropic hasta este viernes a las 5 p.m. para consentir que el Pentágono use su IA como quiera o simplemente la tomará.
Amigos, esto no es solo una disputa entre dos personas: Hegseth y Amodei. Tampoco es una pelea entre el Pentágono y una sola corporación. El problema va mucho más allá de esta controversia en particular. No quiero ser demasiado alarmista, pero el resultado podría afectar el futuro de la humanidad.
¿Qué puede hacer ? Llame a sus senadores y representantes ahora mismo y dígales que no quiere que el Departamento de Defensa se apropie de la tecnología de IA de Anthropic y que sí quiere que implementen controles estrictos sobre los usos futuros de la IA.
Visite www.congress.gov/members/find-your-member e ingrese su dirección en el buscador. Aparecerá una lista de sus representantes y su información de contacto. También puede llamar directamente a la centralita del Capitolio al 202-224-3121 para comunicarse con la oficina de sus representantes.
Como ya he mencionado, el personal del Congreso registra cada llamada que llega a su oficina en una base de datos que informa al miembro sobre los temas que preocupan a sus electores, y utiliza estos datos para fundamentar sus decisiones. El personal que atiende las llamadas está capacitado para hablar con los electores, y lo hace todo el día. No debatirán su postura, sino que probablemente se dedicarán principalmente a escuchar y tomar notas. Por favor. Hoy.


No hay comentarios:
Publicar un comentario