El antropólogo de la compañía de inteligencia artificial (IA) de los Estados Unidos dice que su tecnología tiene “armas” para llevar a cabo un ataque cibernético sofisticado de los piratas informáticos.
Anthrope, que produce el reloj de chatbot, dice que sus herramientas usaron piratas informáticos para “extorsionar a gran escala y datos personales”.
La firma dice que su IA se utilizó para ayudar a ingresar un código de ciberataque, en otro caso, los estafadores de Corea del Norte usaron a Claud para conseguir un trabajo lejano en las mejores organizaciones estadounidenses.
Anthrope dice que fue capaz de interrumpir los actores de amenaza y mejoró el equipo de identificación, así como las autoridades informaron los casos.
A medida que la tecnología se vuelve más capaz y accesible, el uso de la IA en el código de escritura ha aumentado la popularidad.
Anthrope dice que ha identificado un caso de la “piratería de hermanos” llamado SO, donde su código de IA se usó para escribir un código de IA que podría piratear al menos 17 compañías diferentes, incluidas las agencias gubernamentales.
Dice que los piratas informáticos usaron IA en “en lo que creemos” en un grado sin precedentes “.
Solían “decidir qué datos deberían exhaustarse y cómo hacer que las afirmaciones de extorsión de atacamiento psicológica” se clasifiquen para hacer “decisiones estratégicas y estratégicas”.
Incluso sugiere la cantidad de rescate para las víctimas.
El Agente AI, donde la tecnología está operada de forma autónoma, se ha identificado como el próximo paso principal del espacio.
Sin embargo, estos ejemplos parecen vulnerables a las personas potenciales afectadas del crimen cibernético.
El uso de IA significa “el tiempo necesario para explotar la vulnerabilidad de la ciberualización” se está reduciendo rápidamente “, dice la asesora de crímenes cibernéticos y AI Alina Timophiva.
“La identificación y la mitigación deben moverse hacia ser activas y preventivas, no encuestadas después del daño”, dijo.
Sin embargo, no es solo un delito cibernético que se está utilizando la tecnología.
Anthrope dijo que los “agentes” de Corea del Norte usaron sus modelos para crear un perfil falso para la compañía de tecnología de US Fortune 500.
El uso de trabajos remotos para obtener acceso al sistema de agencias Fue conocido por algún tiempoSin embargo, el antropólogo dice que usar IA en el esquema de fraude es “este escándalo de empleo es fundamentalmente el nuevo episodio”.
Dice que las aplicaciones de trabajo de IA se usaron para escribir, y una vez que se emplearon los fraudes, se usó para traducir los mensajes y escribir el código.
Jeff White, vicepresente del podcast de la BBC, dijo que los trabajadores norcoreanos a menudo están “cultural y técnicamente sellados del mundo exterior, lo que hace que este subterforio sea más difícil de eliminar”. HysterEl
“El agente AI puede ayudarlos a saltar con estos obstáculos, permitirles alquilar”, dijo.
“Su nuevo empleador, sin saberlo, violó las sanciones internacionales al pagar a Corea del Norte”.
Sin embargo, dijo que la IA “actualmente no no crea nuevas ondas de delitos” y “Mucha infiltración de Ranswar todavía envía correos electrónicos de phishing e intentó buscar debilidad de software y gracias por las estrategias probadas”.
“Las empresas deben comprender que la IA es una variedad de información confidencial que requiere protección como cualquier otro sistema de almacenamiento”, dijo la agencia de protección cibernética, consultor de protección senior de la agencia de protección cibernética, Nivedita Kick.

















