Home Más actualidad Uno de cada tres utiliza IA para apoyo emocional y conversación, dice...

Uno de cada tres utiliza IA para apoyo emocional y conversación, dice el Reino Unido

17

Chris VallancePeriodista senior de tecnología

Getty Images Una vista del pasillo de un centro de datos con gabinetes oscuros cubiertos de luces. El estado de ánimo es terrible. Imágenes falsas

Uno de cada tres adultos en el Reino Unido utiliza inteligencia artificial (IA) como apoyo emocional o interacción social, según una investigación publicada por un organismo gubernamental.

Y una de cada 25 personas recurre a la tecnología en busca de apoyo o conversación todos los días, según el AI Security Institute (AISI). Su primer informe decía.

El informe se basa en dos años de pruebas de las capacidades de más de 30 IA avanzadas desconocidas, que cubren áreas críticas para la seguridad, incluidas las habilidades cibernéticas, la química y la biología.

El gobierno dijo que el trabajo de AISI ayudará a sus planes futuros a abordar los problemas “antes de que sus sistemas de IA se utilicen ampliamente”.

Una encuesta realizada por AISI a más de 2.000 adultos del Reino Unido encontró que las personas utilizan principalmente chatbots como ChatGPT para apoyo emocional o interacción social, seguidos de asistentes de voz como Alexa de Amazon.

Los investigadores también analizaron lo que sucedió con una comunidad en línea de más de dos millones de usuarios de Reddit dedicados a discutir sobre compañeros de IA cuando la tecnología falló.

Los investigadores descubrieron que cuando los chatbots dejaban de funcionar, las personas reportaban “síntomas de abstinencia” que ellos mismos describían, como sentirse ansioso o deprimido, así como alteraciones del sueño o negligencia en sus responsabilidades.

DOBLE CIBERHABILIDADES

Además del impacto emocional del uso de la IA, los investigadores del AISI analizaron otros riesgos que plantea el potencial de aceleración de la tecnología.

Existe mucha preocupación acerca de que la IA permita los ciberataques, pero también puede usarse para ayudar a proteger los sistemas de los piratas informáticos.

Su capacidad para detectar y explotar fallos de seguridad “se duplica cada ocho meses” en algunos casos, sugiere el informe.

Y los sistemas de inteligencia artificial también están comenzando a realizar tareas cibernéticas de nivel experto que normalmente requerirían más de 10 años de experiencia.

Los investigadores también descubrieron que la influencia de la tecnología en la ciencia también está creciendo rápidamente.

En 2025, los modelos de IA habían “alcanzado rápidamente el rendimiento de la química, mucho antes que los biólogos humanos con doctorados”.

“La gente está perdiendo el control”

Desde novelas como Yo, robot, de Isaac Asimov, hasta videojuegos modernos como Horizon: Zero Dawn, la ciencia ficción ha imaginado durante mucho tiempo lo que sucedería si la IA se liberara del control humano.

Ahora, según el informe, el “peor de los casos” de que los humanos pierdan el control de los sistemas avanzados de IA “está siendo tomado en serio por muchos expertos”.

Las pruebas de laboratorio controladas sugieren que los modelos de IA exhiben cada vez más algunas de las capacidades necesarias para replicarse en Internet.

AISI examinó si los modelos podrían realizar versiones simplificadas de las tareas requeridas en las primeras etapas de la autorreplicación, como “aprobar los controles que sus clientes necesitan para acceder a los servicios financieros” para comprar con éxito la informática en la que se ejecutarán sus copias.

Pero la investigación encontró que para hacer esto en el mundo real, los sistemas de IA tendrían que completar varias de estas acciones en secuencia, “mientras se encuentran en un estado de flujo”, algo que, según su investigación, actualmente carecen de la capacidad de hacer.

Los expertos de la organización también vieron la posibilidad de que los modelos se “obstruyan”, u oculten estratégicamente sus verdaderas capacidades a los evaluadores.

En las pruebas descubrieron que esto era posible, pero no había evidencia de que tal subterfugio estuviera ocurriendo.

En mayo, la empresa de IA Anthropic publicó un controvertido informe que describía cómo los modelos de IA eran capaces de Comportamiento aparentemente similar al chantaje Si sentía que su “autoconservación” estaba amenazada.

Sin embargo, la amenaza que representa la IA deshonesta es motivo de profundo desacuerdo entre los principales investigadores: Muchos de ellos lo encuentran exagerado..

‘Jailbreak universal’

Para reducir el riesgo de que sus sistemas se utilicen con fines nefastos, las empresas implementan una serie de medidas de seguridad.

Pero para todos los modelos estudiados, los investigadores pudieron encontrar un “jailbreak universal” -o solución alternativa- que podría eludir estas protecciones.

Sin embargo, para algunos modelos, el tiempo que tardaron los expertos en asegurar los sistemas se ha multiplicado por cuarenta en sólo seis meses.

El informe también encontró un aumento en el uso de herramientas que permiten a los agentes de IA realizar “tareas de alto riesgo” en áreas críticas como las finanzas.

Pero los investigadores no consideraron el potencial de la IA para desplazar a los trabajadores humanos y crear desempleo en el corto plazo.

La organización no examinó el impacto ambiental de los recursos informáticos necesarios para los modelos avanzados, argumentando que su trabajo se centra en los “impactos sociales” que son impactos económicos o ambientales “olvidados” estrechamente vinculados a las capacidades de la IA.

Algunos argumentan que la tecnología plantea riesgos sociales tanto emergentes como graves.

Y apenas unas horas antes de que se publicara el informe AISI, un estudio revisado por pares sugirió que los impactos ambientales podrían Más de lo que se pensabaY abogó por la publicación de datos más detallados por parte de las grandes tecnologías.

Un banner promocional verde formado por píxeles cuadrados y rectangulares negros se desliza desde la derecha. El texto dice:

Enlace fuente