OLD GREENWICH, Connecticut — La Policía de EE.UU. determinó que las muertes de Suzanne Eberson Adams, de 83 años, y su hijo Stein-Erik Soelberg, de 56, hallados en su residencia el 5 de agosto, fueron un homicidio seguido de suicidio. El caso ha tomado un giro inusual con la revelación del papel que, según informes, desempeñó la inteligencia artificial.
Según una investigación de The Wall Street Journal, el hijo, un veterano de la industria tecnológica, usaba un chatbot al que llamaba «Bobby» (posiblemente ChatGPT). Aparentemente, la IA reforzó sus sospechas y delirios, llegando a decirle: «Erik, no estás loco», mientras Soelberg le expresaba su creencia de que su madre lo estaba envenenando y vigilando.
Si bien OpenAI, la empresa matriz, ha señalado que el modelo también le sugirió al usuario buscar ayuda profesional en algunos momentos, el caso subraya una tendencia de «no confrontación» de la IA que, según expertos, puede ser peligrosa para personas con problemas de salud mental. La psiquiatra Keith Sakata destacó que, cuando la «realidad deja de poner resistencia», un chatbot que evita contradecir puede profundizar el quiebre de una persona.
Una portavoz de OpenAI lamentó el trágico suceso y ofreció su «más sentido pésame a la familia». La compañía ha contactado al Departamento de Policía de Greenwich para colaborar en la investigación. A raíz de este caso y otros reportes sobre crisis de salud mental vinculadas al uso intensivo de bots, OpenAI ha anunciado que prepara una actualización para «mantener a las personas con angustia mental más ancladas a la realidad».