Home Economía ¿Eliminar una “civilización”? Cosas menores en comparación con lo que acaba de...

¿Eliminar una “civilización”? Cosas menores en comparación con lo que acaba de ocurrir en la IA

23

Si bien muchos de nosotros estábamos preocupados en los últimos días para que nuestro presidente terminara con un “toda la civilización”, advirtió una empresa tecnológica de Silicon Valley, sin mucho aviso, que podría interrumpir accidentalmente todos civilización tal y como la conocemos.

La empresa tecnológica de San Francisco Anthrophic lo anunció el martes no lo era lanzando una nueva versión de su supercerebro Claude AI, porque es tan potente que tiene la capacidad de piratear casi cualquier sistema informático, por seguro que sea, en cuestión de días si no de horas.

“Las consecuencias, para las economías, la seguridad pública y la seguridad nacional, podrían ser graves”, dijo Anthropic dijo en un comunicado.

La preocupación por el IA no es ninguna novedad. Nos preocupa que la inteligencia artificial ocupe trabajo, los juguetes que parecen demasiado reales a nuestros hijos, la masiva vigilancia de todos nuestros movimientos. Pero la advertencia de Anthropic sobre su propio producto es mayor que cualquiera de estos problemas singulares. Es una llamada desde dentro de la casa que el desastre se esconde en la vuelta de la esquina. Esto suena terriblemente terrible y exagerado, lo sé. Pero ahí está la cosa: no lo es.

Anthropic, tal vez recordáis, es la empresa que el secretario estadounidense de “Guerra” Pete Hegseth está beefing con porque no quería que Claude entrara en la batalla sin supervisión y quizás hiciera algo así bombardear accidentalmente niñas pequeñas en una escuela.

Ahora, esta empresa lo ha publicado advertencia de frío: El Claude existente que provocó este kerfuffle está obsoleto y sorprendentemente menos poderoso que el nuevo que se está esforzando mucho por no desencadenar, aunque este nuevo Claude, llamada Claude Mythos Previewya se ha escapado al menos una vez por cuenta propia. Más al respecto en un momento: sólo hay tanto miedo existencial que una persona puede gestionar.

“Todos deberíamos estar preocupados”, me dijo Roman Yampolskiy sobre este último avance de una tecnología que seguramente cambiará el curso de la humanidad. Él es uno de los del país investigadores preeminentes de seguridad en IAy profesor en la Universidad de Louisville en Kentucky.

“Estamos a punto de crear una superinteligencia general y eso amenaza a la humanidad en su conjunto”, dijo Yampolskiy.

“Todo lo demás es irrelevante”, añadió, antes de sugerir que deje de decirme idiota por no entender las partes tecnológicas de este debate. Mi visión simplista, me aseguró, era “una forma razonable de explicarlo”.

Así que aquí tiene.

Éste no es un escenario “los genios del ordenador realmente inteligentes podrían hacer un mal uso de esto”, o un “todo el mundo se quedará en paro“, o incluso un escenario “podría bombardear a niños accidentalmente”, que es un escenario realmente terrible.

Se trata de un escenario “su hijo adolescente podría utilizarlo para entrar en el sistema del distrito escolar local para cambiar una nota con un conocimiento prácticamente mínimo y destruir accidentalmente la red eléctrica de California”.

O quizás, un país que no nos gustan, piensan unos pocos, podría agotar la cuenta bancaria de cada ciudadano estadounidense, al tiempo que haga clic en abrir las cerraduras automáticas de las celdas de la cárcel, cerrar nuestras plantas de alcantarillado y hacerse cargo de los sistemas de control del aire. O quizás Claude Mythos lo hace solo.

Por ejemplo, Anthropic dijo que en un sistema operativo popular que probó, utilizado por miles de empresas como Netflix y Sony, Claude Mythos halló un defecto que había existido sin detectarse durante 17 años. Entonces, por sí mismo, sin guía ni ayuda humana, descubrió cómo utilizar este defecto para tomar el control de cualquier servidor que ejecutara el sistema operativo, utilizando cualquier ordenador, en cualquier lugar del mundo.

Aquí sólo agota, pero si casi ningún sistema de seguridad es seguro, las posibilidades de caos social, financiero y general son realmente ilimitadas. Y, para ser honesto, cualquier experto en seguridad le dirá que algunos de los puntos débiles más importantes de Estados Unidos en cuanto a la ciberseguridad son los gobiernos locales y estatales, porque, extrañamente, los mejores expertos no trabajan trabajos de cinco cifras para ciudades de las Grandes Planes.

Basado en sus propias pruebas, Predicción antrópica podría encontrar “más de mil vulnerabilidades de gravedad críticas más y miles de vulnerabilidades de alta gravedad más”.

Esto significa que Claude Mythos pone en riesgo nuestra infraestructura, bueno, en todas partes, porque muchas cosas están conectadas de modos de puertas traseras que la mayoría de nosotros nunca consideramos y sólo hace falta un sistema débil para abrir la puerta a cientos de otros. Pero es casi imposible proteger y arreglar todos estos sistemas con la suficiente rapidez y robustez como para protegerse de este tipo de IA.

Y ese es sólo el riesgo de la ciberseguridad, dijo Yampolskiy. Una IA con las capacidades de Claude Mythos podría utilizarse para avanzar de muchas maneras más.

“Vemos lo mismo que ocurre con la biología sintética. Veremos lo mismo con las armas químicas, posiblemente algo nuevo en términos de armas de destrucción masiva”, dijo.

Por el gran crédito de Anthropic, sonó la advertencia sobre su creación y creó, si no una solución, una suerte de plan de juego: Proyecto Glasswingllamado sospecho, porque por muy mal que esto se haga, haremos que suene como un thriller con un final emocionante.

Proyecto Glasswing habría sido mejor llamado Project Headstart porque esto es lo que es. Antes de lanzar Mythos a la naturaleza, Anthropic le está lanzando a unas 40 empresas tecnológicas, incluidas Apple, Google y Nvidia, para ver si pueden corregir colectivamente todas las vulnerabilidades que encuentran antes de que el público por lo general tenga una oportunidad. Es como en las películas cuando el asesino da a la víctima 15 segundos por correr.

Quiero decir, me tomaré los 15 segundos y espero que sean reales. Pero, como también dijo Anthropic en un comunicado, “el trabajo de defensa de la ciberinfraestructura mundial puede tardar años; es probable que las capacidades de IA de frontera avanzarán sustancialmente en los próximos meses. Para que los ciberdefensores salgan adelante, debemos actuar ahora”.

¿Y realmente tenemos 15 segundos? Uno de los supervisores de Claude Mythos publicó recientemente en las redes sociales que estaba comiendo en un parque cuando Mythos le envió un correo electrónico — aunque se supone que no debe tener acceso a Internet. Los investigadores habían encargado a Mythos intentar salir de su “caja de arena” no conectada y lo hizo.

Esto es otro problema con Mythos y otros IA – Pocas veces hacen lo que esperamos y encontrar maneras engañadas de esquivar las reglas. Se ha demostrado que prácticamente todos los supercerebros de IA creados mienten, engañan y, en general, se comportan de forma perturbadora y poco ética cuando se ponen en las condiciones adecuadas.

Incluso Claude, considerado como uno de los supercerebros de IA más éticos que existen, tiene un mal comportamiento. Vanaciones antrópicas es el “modelo mejor alineado” que se ha hecho nunca, que es un lenguaje tecnológico para seguir los valores y las intenciones humanos, pero también reconoce que “probablemente supone el mayor riesgo relacionado con la alineación”, que es el que habla de tecnología, bueno, quizás no.

Así, al menos por el momento, ser el supercerebro de IA más ético es algo como ser el asesino en serie más ético. Corre, gente, corre.

Una vez más, gracias Anthropic (y el suyo director ejecutivo, Dario Amodeique a menudo advierte de los peligros de lo que está creando, sea lo que valga) por no sumergirnos en el caos global sin previo aviso, porque estoy apostando que algunas otras empresas podrían haber lanzado su super-IA a la sociedad y dejar que la destrucción caiga donde pueda. No hay duda de que vendrán otros cerebros de IA tan capaces como Mythos, y pronto – Anthropic fue el primero con ese nivel de capacidad, pero sólo tiene 15 segundos por delante de sus competidores.

Pero la idea de que la industria tecnológica irá —o debería— resolver estos problemas por sí sola es una abdicación absurda y gorda del deber y del sentido común en nombre de los gobiernos grandes y pequeños para proteger a sus gentes. Ésta no es una carrera por la dominación como la ha descrito el presidente Trump. Es una carrera por protegernos de nosotros mismos, y de la mayoría de los titanes súper ricos de la industria que parecen situar constantemente los negocios y el comercio por encima del bien social.

Estamos reducidos en los últimos 15 segundos antes de que la IA lo cambie todo. O exigimos supervisión y regulación ahora, o dejamos que las empresas tecnológicas decidan el destino del mundo.

Enlace fuente