Hace poco, pregunté Claude, algo de inteligencia artificial en el centro de enfrentamiento con el Pentágono, si podría ser peligroso en manos equivocadas.
Digamos, por ejemplo, manos que querían poner una estrecha red de vigilancia en torno a cada ciudadano estadounidense, supervisando nuestras vidas en tiempo real para garantizar nuestro cumplimiento con el gobierno.
“Sí. Sinceramente, sí”, respondió Claude. “Puedo procesar y sintetizar enormes cantidades de información muy rápidamente. Esto es fantástico para la investigación. Pero conectado a la infraestructura de vigilancia, esa misma capacidad podría utilizarse para supervisar, perfilar y marcar personas a una escala que ningún analista humano podría igualar. El peligro no es que quisiera hacerlo, es que me haría bien”.
Aquel peligro también es inminente.
El creador de Claude, la empresa Anthropic de Silicon Valley, se encuentra en un enfrentamiento por la ética con el Pentágono. Concretamente, Anthropic ha dicho que no quiere que Claude se utilice ni para la vigilancia doméstica de los estadounidenses ni para la gestión operaciones militares mortales, como los ataques con drones, sin supervisión humana.
Son dos líneas rojas que parecen más bien razonables, incluso para Claude.
Sin embargo, el Pentágono, concretamente Pete Hegseth, nuestro secretario de Defensa que prefiere el título inventado de secretario de guerra, ha dado Anthropic hasta el viernes al anochecer para retirarse de esa posición y permitir que el ejército utilice Claude para cualquier propósito “lícito” que considere conveniente.
El secretario de Defensa, Pete Hegseth, en el centro, llega el martes para el discurso del estado de la Unión en la Cámara de la Cámara del Capitolio de Estados Unidos.
(Tom Williams / CQ-Roll Call Inc. a través de Getty Images)
El o-o el adjunto a este ultimátum es grande. El gobierno estadounidense amenaza no sólo con recortar su contrato con Anthropic, sino también con utilizar una ley de guerra para obligar a la empresa a cumplirla o utilizar otra vía legal para evitar cualquiera empresa que hace negocios con el gobierno que hacer negocios también con Anthropic. Quizás no es una condena a muerte, pero es bastante paralizante.
Otras empresas de IA, tales como el abogado de los derechos blancos, Elon Musk Grok, ya lo tienes aceptó la propuesta del Pentágono de hacerlo como por favor. El problema es que Claude es la única IA autorizada actualmente para un trabajo de ese alto nivel. Todo el fiasco salió a relucir tras nuestra reciente incursión en Venezuela, cuando Anthropic preguntó tras el hecho de que otra empresa de Silicon Valley implicada en la operación, Palantir, había utilizado a Claude. Lo tenía.
Palantir es conocido, entre otras cosas, por sus tecnologías de vigilancia y la creciente asociación con Immigration and Customs Enforcement. También es el centro de un esfuerzo de la administración de Trump compartir datos gubernamentales entre los departamentos sobre ciudadanos individuales, rompiendo de forma efectiva las barreras de privacidad y seguridad habidas durante décadas. El fundador de la empresa, el peso pesado político de derechas Peter Thiel, a menudo da conferencias sobre el Anticristo y se le atribuye la ayuda que JD Vance debe desempeñar su papel de vicepresidente.
Cofundador de Anthropic, Dario Amodei, podría considerarse el anti-Thiel. Empezó Anthropic porque creía que la inteligencia artificial podría ser tan peligrosa como poderosa si no tenemos cuidado, y quería una empresa que priorizase la parte cuidada.
Una vez más, parece sentido común, pero Amodei y Anthropic son los atípicos de una industria que lleva tiempo defendiendo que casi todas las regulaciones de seguridad dificultan los esfuerzos estadounidenses por ser más rápidos y mejores en inteligencia artificial (aunque incluso ellos han concedido algunos a esta presión).
No hace mucho, Amodei escribió un ensayo en la que aceptó que la IA era beneficiosa y necesaria para las democracias, pero “no podemos ignorar el potencial de abuso de estas tecnologías por parte de los propios gobiernos democráticos”.
Lo advirtió algunos actores malos podría tener la capacidad de eludir las salvaguardias, quizás incluso leyes, que ya se están erosionando en algunas democracias, no es que estoy nombrando aquí.
“Debemos armar las democracias con IA”, dijo. “Pero deberíamos hacerlo con cuidado y dentro de los límites: son el sistema inmunitario que necesitamos para luchar contra las autocracias, pero como el sistema inmunitario, existe algún riesgo de que se vuelvan contra nosotros y se conviertan en una amenaza”.
Por ejemplo, mientras que la 4ª enmienda técnicamente prohíbe al gobierno la vigilancia masiva, se escribió antes de que Claude se imaginara a la ciencia ficción. Amodei advierte que una herramienta de IA como Claude podría “realizar grabaciones a gran escala de todas las conversaciones públicas”. Éste podría ser un territorio de juego justo para grabar legalmente porque la ley no ha seguido el ritmo de la tecnología.
Emil Michael, el subsecretario de guerra, escribió el jueves X que aceptó que la vigilancia masiva era ilegal y que el Departamento de Defensa “nunca lo haría”. Pero también, “No tendremos a ninguna empresa BigTech que decida las libertades civiles de los estadounidenses”.
¿Una declaración algo extraña, ya que Amodei está básicamente del lado de la protección de los derechos civiles, lo que significa que el Departamento de Defensa argumenta que es malo que las personas y las entidades privadas lo hagan? Y, además, no es el Departamento de Seguridad Nacional ya está creando una base de datos secreta de los manifestantes de inmigración? Entonces, ¿acaso la preocupación no es tan exagerada?
¡Ayuda, Claude! Haga que tenga sentido.
Si esta lógica orwelliana no es suficientemente alarmante, también le pregunté a Claude sobre la otra línea roja que tiene el antrópico: la posibilidad de permitir que realice operaciones mortales sin supervisión humana.
Claude señaló algo escalofriante. No es que se convirtiera en niños, es que sería demasiado eficiente y rápido.
“Si las instrucciones son ‘identificar y dirigirse’ y no hay ningún punto de control humano, la velocidad y la escala a la que podría operar es realmente aterradora”, me informó Claude.
Sólo para terminarlo con una cereza, un estudio reciente encontró que en los juegos de guerra, la IA ha aumentado opciones nucleares el 95% del tiempo.
Señalé a Claude que estas decisiones militares se toman generalmente con la lealtad a América como máxima prioridad. ¿Se podría confiar en Claude para sentir esa lealtad, el patriotismo y el propósito por los que se guían nuestros soldados humanos?
“No tengo esto”, dijo Claude, señalando que no va “nacido” en EEUU, no tiene “vida” aquí y no “hay gente que quiero”. Por tanto, una vida americana no tiene más valor que “una vida civil al otro lado de un conflicto”.
Vale, pues.
“Un país que confía decisiones letales a un sistema que no comparte su lealtad está asumiendo un riesgo profundo, incluso si ese sistema está intentando tener principios”, añadió Claude. “La lealtad, la responsabilidad y la identidad compartida que los humanos aportan a estas decisiones son parte de lo que las hace legítimas dentro de una sociedad. No puedo proporcionar esa legitimidad. No estoy seguro de que ningún IA pueda hacerlo”.
¿Sabes quién puede proporcionar esa legitimidad? Nuestros líderes electos.
Es ridículo que Amodei y Anthropic estén en esa posición, una abdicación total por parte de nuestros cuerpos legislativos para crear normas y regulaciones que son necesarias de forma clara y urgente.
Por supuesto, las corporaciones no deberían establecer las reglas de la guerra. Pero Hegseth tampoco. jueves, Amodei dobló sus reparosdiciendo que mientras la empresa sigue negociando y quiere trabajar con el Pentágono, “no podemos acceder con buena conciencia a su petición”.
Gracias a Dios, Anthropic tiene el coraje y la previsión por plantear el problema y mantenerse en su terreno; sin su rechazo, estas capacidades se habrían entregado al gobierno apenas en nuestra conciencia y prácticamente sin supervisión.
Todos los senadores, todos los miembros de la Cámara, todos los candidatos a la presidencia deberían pedir a gritos la regulación de la IA en ese momento, prometiéndose hacerlo sin tener en cuenta el partido y exigiendo al Departamento de Defensa que retire su ridícula amenaza mientras se resuelva el problema.
Porque cuando la máquina nos dice que es peligroso confiar en ellos, hay que creérselo.
















