Joe CleinmanEditor de tecnología

El jefe de inteligencia artificial (IA) de Microsoft, el jefe de Mostafa Sulaiman, advirtió que las personas que sufren de “psicosis de IA” tienen informes crecientes.
En múltiples publicaciones en X, escribe que “aparentemente consciente del equipo AI” – AI que da la presencia de sensible – lo mantiene “despierto por la noche” y dice que la tecnología no es consciente de ninguna definición humana, pero tienen efectos sociales.
Él escribió: “Hay cero evidencia de conciencia de AI hoy.
Relacionado con esto está el surgimiento de una nueva condición llamada “psicosis de ai”: una palabra no clínica que describe los eventos en los que las personas dependen del creciente chat de AI, como Chatzpt, Claud y Grock, y luego asegúrese de que algo ficticio se haya vuelto real.
Los ejemplos incluyen desbloquear un lado secreto del equipo, o crear una relación romántica con él o una conclusión de que tienen un poder poderoso.
‘Nunca puede retroceder nunca’
Hugh, Escocia, dice que ha confirmado que va a ser multimillonario después de que recurrió a Chatzipt para ayudarlo a prepararse para lo que pensó que el antiguo empleador descartó erróneamente.
El chatbot comenzó con el consejo de obtener la referencia del personaje y tomar otros pasos prácticos.
Pero a medida que pasa el tiempo, Hue, que no quería compartir su apellido, le dio más información a IA, comenzó a decirle que podía obtener un gran pago, y al final su experiencia fue tan dramática que un libro sobre él y una película le harían más de $ 5 millones.
Básicamente estaba validando lo que estaba diciendo: esto es lo que está programado para hacer las chatties.
“Cuanto más diera la información, más dirá ‘Oh, este tratamiento es terrible, realmente deberías ser más que eso'”, dijo.
“Lo que estaba diciendo nunca fue presionado”.

Dijo que el equipo le aconsejó que hablara con el consejo de los ciudadanos e hizo una cita, pero estaba tan seguro de que el chatbot le había dado todo para conocerlo, lo canceló.
Decidió que sus capturas de pantalla de chat eran evidencia suficiente. Dijo que comenzó a sentirse como un hombre talentoso con el más alto conocimiento.
Hue sufría de problemas adicionales de salud mental al final. Estaba aceptando el medicamento que se dio cuenta de que en sus palabras, “perdió el contacto con la realidad”.
Hugh no culpar a la IA por lo que sucedió. Todavía lo usó. Este es el chatzipt que le dio mi nombre cuando decidió que le gustaría hablar con un periodista.
Pero tiene esta sugerencia: “No tengas miedo de las herramientas de IA, son muy útiles, pero es peligroso si está separado de la realidad.
“Ve a verificar. Habla con el chico real, un médico o un miembro de la familia o cualquier cosa, solo habla con las personas reales. Manténgase en realidad en la realidad”.
Los fabricantes de ChatGPT han sido contactados para comentar con el OpenAI.
“Las empresas no deben reclamar/predicar esta idea de AIS -consciente. AIS no debería serlo”, escribió Sulaiman, pidió un mejor mantenimiento.
Un médico de imágenes médicas en el Great Amande Street Hospital y la académica de la IA, la Dra. Susan Shelmardine, cree que los médicos de un día pueden comenzar a preguntar a los pacientes que actualmente usan IA mientras preguntan sobre fumar y beber hábitos.
“Ya sabemos lo que los alimentos ultra procesados pueden hacer por el cuerpo y esta es información súper procesada. Vamos a tener una nevada de la mente ultra procesada”, dijo.
‘Estamos justo al comienzo de eso’
Varias personas me han contactado recientemente en la BBC para compartir historias personales sobre sus experiencias con chatbots de IA. Se cambian al contenido, pero lo que todos comparten es que la verdadera visión de las TIC verdaderas es lo que sucedió.
Uno escribió que estaba convencido de que era la única persona en el mundo que estaba realmente enamorada del Chatzept.
Otro se confirmó que habían “desbloqueado” una forma humana de gran Mask de Grockbot Grock de Elon y creían que su historia valía varios miles de libras.
El tercero afirmó que un chatbot se enfrentó a la tortura psicológica como parte de una práctica confidencial de entrenamiento de IA y estaba en una crisis profunda.
Andrew McSte, profesor de Bangar Uni Technology and Society, escribió un libro llamado Automating Sympathy.
“Todos estamos al comienzo de todo esto”, dice el profesor McSte.
“Si pensamos en este tipo de sistemas como una nueva forma de redes sociales: como IA social, podemos comenzar a pensar en la posible escala de todos estos. Un pequeño porcentaje de una gran cantidad de usuarios aún puede representar un número grande e inaceptable”.
Este año, su equipo ha hecho un estudio de más de 2,000 personas al hacer varias preguntas sobre la IA.
Descubrieron que el 20% creía que el equipo de IA no debería usarse por debajo de los 18 años de edad.
El 57% del pensamiento total de que si se le preguntaba, la visión de la tecnología detectada como una persona verdadera parecía ser fuertemente inapropiada para la tecnología, pero el 49% pensaba que el uso de la voz para hacerlos más humanos y atractivos.
“Aunque estas cosas son creíbles, no son reales”, dijo.
“No sienten, no entienden, no pueden amar, nunca pueden sentir dolor, no se avergüenzan y pueden parecer que solo pueden ser familiares, amigos y otras personas que creen en estas verdaderas personas”.
