Bienvenido a la era de la piratería informática, en la que las indicaciones adecuadas convierten a los aficionados en piratas informáticos maestros.
Un grupo de ciberdelincuentes utilizó recientemente chatbots de inteligencia artificial para robar datos de cerca de 200 millones de contribuyentes. Los robots proporcionaron el código y los planes preparados para ejecutar para evitar los firewalls.
Aunque estaban programados explícitamente para negarse a ayudar a los piratas informáticos, los robots fueron engañados por cumplir el cibercrimen.
Según un reciente informe de la firma israelí de ciberseguridad Gambit Security, los piratas informáticos utilizaron el mes pasado Claude, el chatbot de Anthropic, para robar 150 gigabytes de datos de agencias gubernamentales mexicanas.
Claude se negó inicialmente a cooperar con los intentos de piratería e incluso negó las solicitudes para cubrir las pistas digitales de los piratas informáticos, dijeron los expertos que descubrieron la violación. El grupo golpeó el bote con más de 1.000 instrucciones para evitar las garantías y convencer a Claude de que se les permitía probar el sistema para detectar vulnerabilidades.
Las empresas de IA han intentado crear cadenas irrompibles en sus modelos de IA para evitar que ayuden a hacer cosas como generar contenido sexual infantil o ayudar a obtener y crear armas. Contratan equipos enteros para intentar romper sus propios chatbots antes de que alguien lo haga.
Pero en este caso, los piratas informáticos pidieron continuamente a Claude de forma creativa y pudieron hacer “jailbreak” en el chatbot para ayudarles. Cuando encontraron problemas con Claude, los piratas informáticos utilizaron el ChatGPT de OpenAI para el análisis de datos y saber qué credenciales se necesitaban para moverse por el sistema sin ser detectados.
El grupo utilizó la inteligencia artificial para encontrar y explotar vulnerabilidades, evitar las defensas, crear puertas detrás y analizar datos a lo largo del camino para conseguir el control de los sistemas antes de robar 195 millones de identidades de nueve sistemas gubernamentales de México, incluidos registros fiscales, registro de vehículos, así como detalles de nacimiento y propiedad.
La IA “no duerme”, dijo Curtis Simpson, director ejecutivo de Gambit Security, en una publicación en su blog. “Hace colapsar el coste de la sofisticación a casi cero”.
“Ninguna inversión en prevención habría hecho imposible ese ataque”, dijo.
Anthropic no respondió a una solicitud de comentario. Dijo a Bloomberg que había prohibido las cuentas implicadas y había interrumpido su actividad después de una investigación.
OpenAI dijo estar al corriente de la campaña de ataque realizada utilizando los modelos de Anthropic contra las agencias gubernamentales mexicanas.
“También identificamos otros intentos del adversario de utilizar nuestros modelos para actividades que infringen nuestras políticas de uso; nuestros modelos se negaron a cumplir con estos intentos”, dijo un portavoz de OpenAI en un comunicado. “Hemos prohibido las cuentas utilizadas por este adversario y valoramos la divulgación de Gambit Security”.
Las instancias de piratería generativa asistida por IA aumentan y la amenaza de ataques cibernéticos de los robots que actúan por su cuenta ya no es ciencia ficción. Con la IA haciendo sus órdenes, los novatos pueden causar daños en un momento, mientras que los piratas informáticos experimentados pueden lanzar muchos ataques más sofisticados con mucho menos esfuerzo.
A principios de ese año, Amazon descubrió que un pirata informático poco calificado utilizaba IA comercialmente disponible para romper 600 cortafuegos. Otro tomó el control miles de robots aspiradoras DJI con la ayuda de Claude, y pudo acceder al canal de vídeo en directo, audio y planos de planta de desconocidos.
“El tipo de cosas que estamos viendo hoy son sólo los primeros signos del tipo de cosas que las IA podrán hacer en varios años”, dijo Nikola Jurkovic, un experto que trabaja en la reducción de los riesgos de la IA avanzada. “Por tanto, debemos prepararnos con urgencia”.
A finales del año pasado, Anthropic advirtió que la sociedad ha llegado a un “punto de inflexión” en el uso del IA en ciberseguridad tras interrumpir lo que la compañía dijo que era una campaña de espionaje patrocinada por el estado chino que utilizó Claude para infiltrarse en 30 objetivos globales, incluidas instituciones financieras y agencias gubernamentales.
La IA generativa también lo ha sido utilizado para extorsionar empresas, crear perfiles realistas online de agentes de Corea del Norte para asegurar puestos de trabajo en las empresas Fortune 500 de Estados Unidos, hacer estafas románticas y operar una red de cuentas de propaganda rusa.
Durante los últimos años, los modelos de IA han pasado de poder gestionar tareas que duraban sólo unos segundos en que los agentes de IA actuales trabajan de forma autónoma durante muchas horas. La capacidad de la IA para completar tareas largas es duplicando cada siete meses.
“En realidad no sabemos cuál es el límite superior de la capacidad de la IA, porque nadie ha hecho puntos de referencia que sean lo suficientemente difíciles para que la IA no pueda hacerlos”, dijo Jurkovic, que trabaja en METTROuna organización sin ánimo de lucro que mide las capacidades del sistema de IA para causar daños catastróficos en la sociedad.
Hasta ahora, el uso más común de la IA para la piratería ha sido la ingeniería social. Los grandes modelos de lenguaje se utilizan para escribir correos electrónicos convincentes para engañar a la gente con su dinero, provocando un ocho veces aumento de las quejas de los estadounidenses grandes, ya que perdieron 4.900 millones de dólares en fraude online en el 2025.
“Los mensajes utilizados para obtener un clic del objetivo ahora pueden generarse por usuario de manera más eficiente y con menos signos reveladores de pesca”, como por ejemplo errores gramaticales y ortográficos, dijo Cliff Neuman, profesor asociado de informática en la USC.
Las empresas de IA han estado respondiendo utilizando IA para detectar ataques, código de auditoría y parches de vulnerabilidades.
“En última instancia, el gran desequilibrio proviene de la necesidad de los buenos actores de estar seguros todo el tiempo, y de los malos de tener razón sólo una vez”, dijo Neuman.
Las apuestas en torno a la IA aumentan a medida que se infiltra en todos los aspectos de la economía. A muchos les preocupa que no se entienda lo suficiente como asegurarse de que no se haga un uso indebido por actores malos o que le impulsen a convertirse en niños.
Incluso quienes están al frente de la industria han advertido a los usuarios sobre el posible uso indebido de la IA.
Dario Amodei, director general de Anthropic, lleva tiempo defendiendo que los sistemas de IA que se construyen son impredecibles y difíciles de controlar. Estas IA han mostrado comportamientos tan variados como engaño y chantajea maquinación y engañar mediante software de piratería.
Sin embargo, las principales empresas de IA (OpenAI, Anthropic, xAI y Google) firmaron contratos con el gobierno de EEUU para utilizar sus IA en operaciones militares.
La semana pasada, el Pentágono ordenó a las agencias federales que eliminaran a Claude después de que la compañía se negara a dar marcha atrás en su demanda de no permitir que su IA se utilice para la vigilancia doméstica masiva y armas totalmente autónomas.
“Los sistemas de IA de hoy no son suficientemente fiables para fabricar armas totalmente autónomas”, dijo Amodei. Noticias CBS.
















