La inteligencia artificial creó la posibilidad de volver a contactar con las personas fallecidas: en qué consisten los ghostbots y qué peligros tienen

Las investigaciones sugieren que deberían usarse sólo como una ayuda temporal durante el primer momento del duelo sobre todo si la muerte llega de sorpresa.

Perder a un ser querido es de los momentos más difíciles y dolorosos que experimenta el ser humano. Sin embargo, la inteligencia artificial (IA) creó la posibilidad de volver a contactar con las personas fallecidas mediante chats o videos.

Las investigaciones sugieren que los deathbots o ghostbots deberían usarse sólo como una ayuda temporal durante el primer momento del duelo sobre todo si la muerte llega de sorpresa como en un accidente, asesinato o circunstancias donde no fue posible una despedida o preparación y que podría presentar dificultades a la hora de aceptar la muerte.

Sin dudas que ver a un ser querido fallecido hace mucho tiempo, moverse y hablar otra vez puede ofrecer consuelo a quienes lo querían. No obstante, resucitar a personas como avatares tiene el potencial de causar más mal que bien, según indica la psicología y la psiquiatría.

Según datos publicados en la revista científica The Conversation, estas herramientas de inteligencia artificial pueden interferir en el proceso de duelo, generar confusión, estrés, depresión, paranoia y, en algunos casos, psicosis. El duelo lleva tiempo y hay muchas etapas diferentes que pueden tener lugar a lo largo de meses o años.

Pasando por la confusión, la negación, ira, negociación, depresión y aceptación, entre otras manifestaciones y estos fantasmas digitales podrían generar una dependencia emocional con la herramienta o avatar de su ser querido. También existe el riesgo de que estos hologramas puedan decir cosas dañinas o dar malos consejos a alguien que está de luto.

Ya hubo denuncias de chatbots que incitaban a cometer delitos, a abandonar a otros seres queridos o invitar a un individuo a unirse a ellos en la muerte. Tal es así, que en Reino Unido durante el 2023 se comenzó a elaborar una ley  para impedir que la IA sea entrenada para incitar a la violencia luego de que un hombre intentara asesinar a la reina alentado por su novia chatbot, con quien tenía una relación “emocional y sexual”.

Más allá de esto, los psicólogos insisten en el uso controlado y supervisado de estas herramientas son la clave para poder disfrutar de los beneficios sin poner en jaque nuestra salud mental.

 


Las Más Vistas