A medida que el ejército estadounidense amplía su uso de herramientas de inteligencia artificial para identificar objetivos de ataques aéreos en Irán, los miembros del Congreso piden una mayor supervisión del uso de la tecnología en la guerra y para las barandillas.
Dos personas con conocimiento del asunto, que solicitaron el anonimato para discutir temas delicados, confirmaron que el ejército está utilizando sistemas de inteligencia artificial de la empresa de análisis de datos Palantir para identificar objetivos potenciales en ataques en curso. El uso del software por parte de Palantir, que se basa en parte en el sistema de inteligencia artificial en la nube de Anthropic, se produce mientras el Secretario de Defensa, Pete Hegseth Apuntan a poner la inteligencia artificial en el corazón del esfuerzo bélico de Estados Unidos, y mientras choca con el liderazgo humano por las limitaciones del uso de la IA.
Aún así, a medida que la IA adquiere un papel más amplio en el campo de batalla, los legisladores exigen un mayor enfoque en las salvaguardas que deberían regir su uso y una mayor transparencia sobre cuánto control se otorga sobre la tecnología.
“Necesitamos una revisión completa e imparcial para determinar si la IA ya ha dañado o puesto en peligro vidas en la guerra con Irán”, dijo a NBC News la representante Jill Tokuda, demócrata por Hawaii, miembro del Comité de Servicios Armados de la Cámara de Representantes, en respuesta a preguntas sobre el uso y la confiabilidad de la IA en el contexto militar. “El juicio humano debe estar en el centro de las decisiones de vida o muerte”.
El Departamento de Defensa y empresas líderes en inteligencia artificial, como OpenAI y Anthropic, han declarado públicamente que los sistemas de inteligencia artificial actuales no serían capaces de matar sin la aprobación humana. Pero persiste la preocupación de que depender de la IA como parte de sus operaciones o toma de decisiones pueda salir mal en las operaciones militares.
El portavoz del Pentágono, Sean Parnell, dijo En una publicación de X 26 de febrero que el ejército “no quiere utilizar IA para desarrollar armas autónomas que funcionen sin participación humana”.
El Departamento de Defensa no respondió a las preguntas sobre cómo equilibra el uso de la IA para reducir las cargas de trabajo humanas y al mismo tiempo verifica que los análisis y las sugerencias de orientación sean precisos.
Los legisladores y expertos independientes que hablaron con NBC News han expresado su preocupación por el uso de dicho equipo por parte de los militares, y han pedido salvaguardias claras para garantizar que las personas participen en las decisiones de vida o muerte en el campo de batalla.
“Las herramientas de inteligencia artificial no son 100% confiables; pueden fallar de manera sutil y, sin embargo, los operadores confían demasiado en ellas”, dijo la representante Sarah Jacobs, demócrata por California, miembro del Comité de Servicios Armados de la Cámara de Representantes.
“Tenemos la responsabilidad de vigilar estrictamente el uso de la IA por parte de los militares y garantizar que un ser humano esté al tanto de cada decisión de usar fuerza letal, porque el costo de hacerlo mal puede ser devastador para los civiles y los miembros del servicio que llevan a cabo estas misiones”, dijo.
Los antrópicos se convirtieron en un componente clave del programa de análisis de inteligencia Maven de Claude Palantir, que también se utilizó en la operación estadounidense para capturar al presidente venezolano Nicolás. El papel de Maduro Claude en las recientes operaciones militares fue reportado por primera vez El diario de Wall Street Y El Correo de Washington.
Pero ese papel se ha complicado por el choque de Anthropic con Hegseth cuando la compañía intentó impedir que los militares usaran su IA para vigilancia doméstica y armas letales autónomas. La semana pasada, el Departamento de Defensa identificó a Anthropic como una amenaza a la seguridad nacional, una medida que amenaza con retirarlo del uso militar el próximo mes. Anthropic presentó una demanda para luchar contra esa designación.
Anthropic se negó a hacer comentarios. Palantir no respondió a una solicitud de comentarios.
A Vídeo publicado en X El miércoles, el líder del Comando Central de Estados Unidos, el almirante Brad Cooper, reconoció que la IA se ha convertido en una herramienta clave para ayudar a Estados Unidos a seleccionar objetivos en Irán.
“Nuestros combatientes están utilizando una variedad de herramientas avanzadas de inteligencia artificial. Estos sistemas nos ayudan a extraer cantidades masivas de datos en segundos para que nuestros líderes puedan eliminar el ruido y tomar decisiones más rápido de lo que el enemigo puede reaccionar”, dijo.
“Los humanos siempre tomarán las decisiones finales sobre qué disparar, qué no disparar y cuándo disparar, pero las herramientas avanzadas de inteligencia artificial pueden convertir en segundos procesos que antes tomaban horas y, a veces, incluso días”.
La administración Trump ha adoptado abiertamente el uso de ambas tecnologías. para los militares Y en todo el gobierno.
Representante Pat Harrigan, RN.C. Dice que la IA ya se ha vuelto fundamental para el procesamiento rápido de la inteligencia militar, incluso sobre Irán.
“La IA es una herramienta que ayuda a nuestros combatientes a procesar cantidades masivas de datos más rápido que cualquier ser humano, y lo que vimos en la Operación Furia Épica, con más de 2.000 objetivos alcanzados con extraordinaria precisión, demuestra cómo estas capacidades se pueden utilizar de manera responsable y efectiva”, dijo Harrigan, que trabaja en el servicio NBC, en un comunicado.
“Pero ningún sistema de IA reemplaza el juicio, el entrenamiento y la experiencia del combatiente estadounidense. Que los humanos estén involucrados no es una formalidad, son una necesidad, y nada en la forma en que opera nuestro ejército sugiere lo contrario”, dijo.
Si bien ningún legislador contactado por NBC News dijo que la IA debería eliminarse por completo del uso militar, algunos dijeron que se necesita más supervisión.
La senadora Elisa Slotkin, demócrata por Michigan, miembro del Comité de Servicios Armados del Senado, dijo que el Departamento de Defensa no ha hecho lo suficiente para aclarar qué tan bien los humanos están desarrollando inteligencia militar o asistida por IA.
“Realmente depende de la gente, y en este caso del secretario de Defensa, asegurarse de que haya redundancia humana en el futuro previsible, y eso es en lo que no confiamos”, dijo.
El senador Mark Warner, demócrata por Virginia, el principal demócrata en el Comité de Inteligencia del Senado. Dice que le preocupa el uso militar de la IA para ayudar a identificar objetivos y tiene preguntas sin respuesta sobre cómo se está utilizando la nueva tecnología. “Hay que abordarlo”, dijo a NBC News.
OpenAI y Anthropic, que han trabajado con el ejército estadounidense, dicen que incluso sus sistemas más avanzados son propensos a errores, y los principales investigadores de IA del mundo admiten que no entienden completamente cómo funcionan los principales sistemas de IA.
en un Entrevista con NBC El mes pasado, el director ejecutivo de Anthropic, Dario Amodei, dijo: “No puedo decirles que exista un 100% de posibilidades de que incluso los sistemas que construimos sean completamente confiables”.
Un importante estudio de OpenAI Publicado en septiembre Se ha descubierto que todos los principales chatbots de IA, que se basan en sistemas conocidos como grandes modelos de lenguaje, “alucinan” o generan respuestas en etapas.
La senadora Kirsten Gillibrand, demócrata de Nueva York, pidió reglas claras sobre cómo los militares pueden usar la IA.
“La administración Trump ya ha demostrado que está dispuesta a subvertir la ley estadounidense para llevar a cabo una guerra impopular”, dijo a NBC News. “Hay pocas razones para creer que el Departamento de Defensa será más responsable con el uso de IA sin salvaguardias claras”.
Mark Bell, jefe de asuntos gubernamentales de AI Policy Network, un grupo de expertos de Washington D.C., y director de estrategia y política de IA en el Pentágono de 2018 a 2020, dijo que si bien la IA puede agilizar el proceso de decidir dónde atacar, está claro que los humanos todavía necesitan examinar minuciosamente los objetivos.
“Hay muchos pasos antes de apretar el gatillo. Los sistemas de inteligencia artificial se están implementando de manera muy efectiva para acelerar los flujos de trabajo existentes y capacitar a los comandantes, analistas y planificadores para tomar decisiones mejores y más rápidas”, añadió. “Pero cuando se trata de desplegar un sistema de armas, esta tecnología aún no está lista”.
“Estos sistemas serán realmente buenos, y a medida que otros adversarios comiencen a usarlos, habrá más presión para acortar la revisión de los resultados de la IA para que funcionen a velocidades útiles y efectivas”, dijo Bell. “Tenemos que descubrir cómo resolver este problema de confiabilidad antes de llegar allí. Independientemente de lo que se piense sobre las armas autónomas letales, es del interés de todo el mundo mantenerlas seguras y efectivas”.
Heidi Khalaf, científica jefe del AI Now Institute, una organización sin fines de lucro que aboga por el uso ético de la tecnología, dijo que le preocupa que depender de la IA para procesar rápidamente información para decisiones de vida o muerte pueda ser una forma para que los militares eviten la responsabilidad por los errores.
“Es muy peligroso que aquí se nos venda la ‘velocidad’ como estratégica, si se tiene en cuenta lo inexactos que son estos modelos como cobertura para ataques indiscriminados.

















