• SPR Informa
  • SPR Informa
  • SPR Informa
  • SPR Informa
  • SPR Informa
  • https://www.sprinforma.mx/noticia/ordena-trump-a-agencias-federales-suspender-el-uso-de-la-desarrolladora-de-ia-anthropic
  • hace 19 horas
  • 21:02
  • SPR Informa 6 min

Ordena Trump a agencias federales suspender el uso de la desarrolladora de IA Anthropic

El presidente de Estados Unidos, Donald Trump, ordenó a las agencias federales suspender el uso de Anthropic en un plazo de seis meses, después de que la empresa se negó a ceder el uso completo de su modelo de inteligencia artificial Claude al Departamento de Guerra.

“Ordeno a TODAS las Agencias Federales del Gobierno de los Estados Unidos que CESEN INMEDIATAMENTE todo uso de la tecnología de Anthropic. ¡No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos!”, escribió el mandatario republicano en Truth Social.

“Más vale que Anthropic se ponga las pilas y colabore durante este periodo de transición o utilizaré todo el poder de la Presidencia para obligarlos a cumplir, con graves consecuencias civiles y penales”, amenazó Trump, quien calificó la empresa como “descontrolada, de izquierda radical, dirigida por personas que no tienen ni idea de lo que es el mundo real”.

El presidente estadounidense dijo que la desarrolladora de IA cometió “un error desastroso” al “intentar forzar” al Pentágono a aceptar sus condiciones. “Su egoísmo está poniendo VIDAS ESTADOUNIDENSES en riesgo, a nuestras Tropas en peligro y a nuestra Seguridad Nacional en PELIGRO”, aseguró.

Anthropic rechaza los términos del Pentágono

La empresa tecnológica señaló que no cederá a los términos del Pentágono para el uso completo de su inteligencia artificial Claude, argumentando que permitir su uso en armas totalmente autónomas o en vigilancia masiva sería “incompatible con los valores democráticos”. Sin embargo, Anthropic no se ha retirado de las negociaciones.

“El Departamento de Guerra no tiene ningún interés en usar IA para la vigilancia masiva de estadounidenses (lo cual es ilegal), ni queremos usar IA para desarrollar armas autónomas que funcionen sin intervención humana. Esta narrativa es falsa y la difunden izquierdistas en los medios”, reviró Sean Parnell, portavoz del Pentágono.

Por su parte, el secretario de Guerra estadounidense, Pete Hegseth, designó a Anthropic como “un Riesgo para la Cadena de Suministro y la Seguridad Nacional”. Hegseth aseguró que “la postura de Anthropic es fundamentalmente incompatible con los principios estadounidenses”, por lo que, “su relación con las Fuerzas Armadas de Estados Unidos y el Gobierno Federal ha cambiado para siempre”.

El uso militar de la IA

The Washington Post reportó que el Departamento de Guerra estadounidense y Anthropic se encuentran en una escalada de tensión, debido a desacuerdos sobre el uso de la tecnología para fines letales y de vigilancia. La controversia se centra en si Claude puede ser utilizado en sistemas de armas autónomas y en la toma de decisiones durante escenarios de conflicto extremo, incluyendo hipotéticos ataques nucleares.

De acuerdo con una fuente de Defensa citada por EFE, el jefe de tecnología del Pentágono hizo la siguiente pregunta durante las negociaciones: “si se lanzara un misil balístico intercontinental contra Estados Unidos, ¿podrían los militares utilizar el sistema de inteligencia artificial Claude de Anthropic para ayudar a derribarlo?”.

Lo anterior abre un debate sobre el uso inteligencia artificial para fines militares, llevando a cuestionamientos sobre el nivel de responsabilidad que se está confiando en tecnologías que no cuentan con pensamiento crítico humano. 

Sin embargo, la relación entre la IA y el ejército no es nueva: Amnistía Internacional ha alertado sobre el uso de Palantir y Babel Street para vigilar a manifestantes y migrantes en favor de Palestina en Estados Unidos. Cuando el CEO de Palantir, Alex Karp, fue señalado por colaborar en el genocidio en la Franja de Gaza, se limitó a decir que la mayoría de las personas que han muerto en dicho territorio, gracias a su tecnología, eran “terroristas”.

OpenAI, la contraparte de Anthropic

Sam Altman, CEO de OpenAI, anunció que llegó a un acuerdo con el Departamento de Guerra de EE.UU. para desplegar sus modelos de IA en su red clasificada. Altman aseguró que el Gobierno estadounidense "coincidió" con sus principios, que incluyen "la prohibición de la vigilancia masiva nacional y la responsabilidad humana por el uso de la fuerza, incluyendo los sistemas de armas autónomas". 

La relación entre OpenAI y Anthropic tiene su origen en una ruptura ideológica: Dario Amodei, extrabajador de OpenAI, renunció a la compañía a finales de 2020, por considerar que no prestaba suficiente atención a los riesgos de la IA. Junto a su hermana Daniela, fundó Anthropic.

Mientras OpenAI ha favorecido históricamente lanzamientos públicos de sus modelos y eliminado restricciones para su uso militar, Anthropic ha puesto más énfasis en la seguridad y, aunque en su momento firmó contratos con el Pentágono, mantuvo límites éticos explícitos.