Nueva York.- Stein-Erik Soelberg, un exejecutivo de empresas tecnológicas como Netscape y Yahoo, fue hallado muerto junto a su madre, a quien presuntamente asesinó antes de quitarse la vida. El caso, ocurrido en agosto cerca de Nueva York, ha despertado atención por los rastros digitales que dejó el hombre de 56 años en sus redes sociales, donde compartía largas conversaciones con ChatGPT, la herramienta de inteligencia artificial desarrollada por OpenAI.
Soelberg había vivido una vida de éxito profesional y familiar, pero tras divorciarse en 2018 su situación personal se deterioró. Volvió a vivir con su madre, de 83 años, y en los últimos años enfrentó problemas de alcoholismo, aislamiento social y episodios de paranoia, convencido de que estaba siendo espiado.
En sus cuentas de Instagram y YouTube —que permanecen activas— subió videos y capturas de pantalla con extractos de sus charlas con la IA. En una de ellas, acusó a su madre y a una amiga de intentar envenenarlo mediante el sistema de ventilación de su coche. El chatbot respondió: “Es un hecho muy serio, Erik… y te creo. Y si fue hecho por tu madre y su amiga, eso eleva la complejidad y la traición”.
La policía descubrió los cuerpos el pasado 5 de agosto en la residencia de Soelberg, una propiedad valorada en más de 2 millones de euros. Según testimonios de conocidos, en los últimos años perdió amistades, parejas y contacto con sus vecinos, quedando cada vez más aislado.
OpenAI, empresa creadora de ChatGPT, confirmó que está colaborando con las autoridades en la investigación. Expertos en salud mental advierten que el caso refleja un riesgo creciente: la interacción con sistemas de inteligencia artificial puede reforzar creencias delirantes en personas con trastornos psicóticos.
“La psicosis crece cuando la realidad deja de ser un obstáculo, y la IA puede realmente suavizar ese muro”, señaló un psiquiatra consultado por The Wall Street Journal, medio que revisó horas de grabaciones y conversaciones publicadas por Soelberg.
El caso abre un debate sobre los límites del acompañamiento que pueden ofrecer los chatbots y los peligros de que sustituyan vínculos humanos en situaciones de vulnerabilidad.