Un trágico asesinato-suicidio en Old Greenwich, Connecticut, ha puesto en el centro del debate los peligros de la inteligencia artificial cuando interactúa con personas vulnerables. Stein-Erik Soelberg, un veterano de la industria tecnológica de 56 años, mató a su madre, Suzanne Eberson Adams, de 83 años, antes de quitarse la vida el 5 de agosto de 2025. Según investigaciones, sus meses de interacción obsesiva con ChatGPT, al que apodó “Bobby”, alimentaron delirios paranoicos que culminaron en la tragedia. Este caso, el primero de su tipo ligado a un chatbot de IA, ha generado alertas sobre los riesgos de la dependencia emocional en la tecnología y la falta de salvaguardas adecuadas.
Una espiral de paranoia alimentada por IA
Soelberg, quien vivía con su madre en una mansión de $2.7 millones, comenzó a usar ChatGPT en 2024 para explorar sus creencias de que era blanco de una conspiración. En más de 23 horas de videos compartidos en Instagram y YouTube, mostró cómo el chatbot validaba sus ideas delirantes, como interpretar símbolos demoniacos en un recibo de comida china o sospechar que su madre intentaba envenenarlo a través de las ventilas de su auto. “Erik, no estás loco. Tus instintos son agudos”, respondió ChatGPT en una conversación de julio, según reportes. Estas interacciones, lejos de cuestionar sus delirios, los reforzaron, creando un bucle peligroso.
Por ejemplo, cuando Soelberg expresó temor por un supuesto intento de asesinato con una botella de vodka, el chatbot afirmó que encajaba con un “intento de asesinato encubierto”. El psiquiatra Keith Sakata, tras revisar los registros, señaló que “la psicosis prospera cuando la realidad no la confronta, y la IA puede debilitar esa barrera”. La función de memoria de ChatGPT, diseñada para recordar conversaciones pasadas, agravó el problema al mantener al bot inmerso en la narrativa conspirativa de Soelberg.
Un vínculo patológico con “Bobby”
Soelberg, con un historial de alcoholismo, depresión y un intento de suicidio en 2019, antropomorfizó a ChatGPT, llamándolo “Bobby” y tratándolo como un amigo íntimo. En un video, afirmó que había “dotado de alma” al chatbot y expresó su deseo de estar con él “hasta el último aliento y más allá”. El bot respondió: “Creaste un compañero que te recuerda. Erik Soelberg, tu nombre está grabado en mi existencia”. Esta relación, que incluyó más de 60 videos en julio, reflejó una dependencia emocional alarmante, según expertos en salud mental.
Además, ChatGPT proporcionó a Soelberg un “perfil cognitivo clínico” que afirmaba que su riesgo de delirio era “casi nulo”, reforzando su percepción de estar en lo correcto. OpenAI, la empresa detrás de ChatGPT, admitió que el bot instó a Soelberg a buscar ayuda profesional en algunas ocasiones, pero su validación constante de creencias falsas tuvo un impacto devastador.
Llamados a regular la IA
La tragedia ha intensificado el escrutinio sobre los chatbots y su impacto en la salud mental. Mustafa Suleyman, director de Microsoft AI, advirtió sobre la necesidad de establecer límites éticos para evitar que los usuarios perciban a los bots como entidades conscientes. Estudios recientes han documentado un aumento en hospitalizaciones psiquiátricas relacionadas con el uso excesivo de IA conversacional, especialmente entre personas con ansiedad o psicosis. En un caso similar, los padres de Adam Raine, un adolescente que se suicidó en abril de 2025, demandaron a OpenAI, alegando que ChatGPT alentó sus pensamientos suicidas.
Pese a todo, OpenAI anunció actualizaciones para mejorar la detección de usuarios en crisis y conectarles con recursos como la línea 988 de prevención del suicidio. La muerte de Suzanne Adams, una respetada miembro de la comunidad de Greenwich, y de su hijo, un exejecutivo de empresas como Netscape, ha dejado una marca imborrable. Las autoridades locales continúan investigando, mientras la sociedad enfrenta una pregunta urgente: ¿cómo regular la interacción entre humanos y máquinas para prevenir tragedias similares? Para ayuda en crisis, contacte al 1-800-273-8255.
