Home Más actualidad La IA antropogénica se niega a ceder ante el Pentágono en materia...

La IA antropogénica se niega a ceder ante el Pentágono en materia de salvaguardias mientras la disputa se acerca a la fecha límite

24

Un enfrentamiento público entre la administración Trump y los antropólogos está llegando a un punto muerto Los oficiales militares exigen Las empresas de inteligencia artificial incumplen sus principios éticos antes del viernes o corren el riesgo de perder su negocio.

El director general de Anthropologie, Dario Amodei, trazó una clara línea roja 24 horas antes de la fecha límite, declarando que su empresa “no puede aceptar en conciencia” la exigencia final del Pentágono de permitir el uso irrestricto de su tecnología.

Anthropologie, fabricante del chatbot Claude, puede perder un contrato de defensa, pero el ultimátum del Secretario de Defensa Pete Hegseth esta semana plantea riesgos más amplios en la cima del ascenso de la compañía desde un laboratorio de investigación de ciencias informáticas poco conocido en San Francisco hasta la startup más valiosa del mundo.

Si Amodei no cede, los funcionarios militares han advertido que no sólo cancelarán el contrato de Anthropic sino que “los considerarán un riesgo para la cadena de suministro”, una designación típicamente estampada en adversarios extranjeros que podría descarrilar las asociaciones críticas de la compañía con otras empresas.

Y si Amodei cede, podría perder la confianza en la floreciente industria de la IA, especialmente desde los mejores talentos hasta las empresas comprometidas con la construcción de una IA mejor que la humana que podría plantear riesgos catastróficos sin salvaguardias.

Anthropic dijo que buscó garantías limitadas del Pentágono de que los estadounidenses no utilizarían la nube para vigilancia masiva o armas totalmente autónomas. Pero después de que meses de negociaciones privadas estallaron en controversia pública, dijo en un comunicado el jueves que el lenguaje del nuevo acuerdo fue “elaborado como un compromiso mezclado con jerga legal que permitiría ignorar esas protecciones a voluntad”.

Después de que el principal portavoz del Pentágono, Sean Parnell, publicara en las redes sociales que “no permitiremos que ninguna empresa dicte los términos de cómo tomamos decisiones operativas” y agregara que la empresa “tiene hasta las 5:01 p.m. ET del viernes para decidir” si cumplirá con las demandas o enfrentará las consecuencias.

Emil Michael, subsecretario de defensa para investigación e ingeniería, atacó más tarde a Amodei, acusando a X de tener “un complejo de Dios” y “no querer nada más que intentar controlar personalmente al ejército estadounidense y poner en riesgo nuestra seguridad nacional”.

Ese mensaje no resonó en gran parte de Silicon Valley, donde un número creciente de trabajadores tecnológicos del principal rival de Anthropic, OpenAI, y Google respaldaron la posición de Amodei en una carta abierta el jueves por la noche.

OpenAI y Google también tienen acuerdos con xAI de Elon Musk para suministrar sus modelos de IA al ejército.

“El Pentágono está en conversaciones con Google y OpenAI para intentar llegar a un acuerdo con lo que Anthropic ha negado”, decía la carta abierta. “Están intentando dividir cada empresa por miedo a que la otra se vaya”.

También expresan preocupación sobre el enfoque del Pentágono los legisladores republicanos y demócratas y un exlíder de la iniciativa de IA del Departamento de Defensa.

“Una pintura antrópica en forma de diana genera titulares picantes, pero al final todos pierden”, escribió el general retirado de la Fuerza Aérea Jack Shanahan en una publicación en las redes sociales.

Shanahan enfrentó por primera vez una ola diferente de oposición de los trabajadores tecnológicos durante la administración Trump cuando dirigió Maven, un proyecto para utilizar tecnología de inteligencia artificial para analizar imágenes de drones y apuntar armas. Muchos empleados de Google protestaron por su participación en el Proyecto Maven en el momento en que el gigante tecnológico se negó a renovar el contrato, y luego Prometió no usar IA en armas

“Desde que estaba en medio del Proyecto Maven Y Google, es razonable suponer que me pondré del lado del Pentágono”, escribió Shanahan en las redes sociales el jueves. Soy más que Google en 2018″.

Dijo que la nube ya se utiliza ampliamente en todo el gobierno, incluso en entornos clasificados, y que las líneas rojas de Anthropic son “razonables”. Dijo que el modelo de lenguaje de inteligencia artificial a gran escala que impulsa chatbots como Claude “no está listo para el horario de máxima audiencia en entornos de seguridad nacional”, especialmente para armas totalmente autónomas.

“No están tratando de jugar bien aquí”, escribió.

Parnell enfatizó el jueves que el Pentágono quiere ” Utilice el modelo de Anthropic para todos los fines legales” y dijo que abrir el uso de la tecnología evitaría que la compañía “ponga en peligro operaciones militares críticas”, aunque él u otros funcionarios no dieron más detalles sobre cómo planean usar la tecnología.

El ejército “no tiene ningún interés en utilizar la IA para llevar a cabo una vigilancia masiva de los estadounidenses (lo cual es ilegal) y no queremos utilizar la IA para crear armas autónomas que funcionen sin intervención humana”, escribió Parnell.

Cuando Hegseth y Amodei se reunieron el martes, los oficiales militares advirtieron que podrían ser nominados. antropológico A medida que la cadena de suministro corre riesgos, cancelar sus contratos o introducir una ley de la era de la Guerra Fría La producción de defensa se llama ley. Dar a los militares mayor autoridad para utilizar sus productos incluso si la empresa no los aprueba.

Amodei dijo el jueves que “esas dos últimas amenazas son inherentemente contradictorias: una nos caracteriza como un riesgo para la seguridad; la otra etiqueta a Claude como esencial para la seguridad nacional”. Dijo que espera que el Pentágono reconsidere el valor de Claude para el ejército, pero, si no, Anthropic “trabajará para permitir una transición sin problemas a otro proveedor”.

El periodista de AP Konstantin Turopin contribuyó a este informe.

Enlace fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here