Caso en EE. UU abre debate sobre riesgos de chatbots conversacionales

Un asesinato-suicidio en Connecticut involucra a un hombre con vínculos tecnológicos y su interacción intensa con un chatbot de inteligencia artificial, generando debate internacional.
Las autoridades de Old Greenwich, Connecticut, investigan el caso de Stein-Erik Soelberg, quien habría asesinado a su madre antes de suicidarse. El hecho ha atraído atención internacional debido a que el individuo mantenía una relación prolongada con un chatbot conversacional, lo que plantea interrogantes sobre el papel de la inteligencia artificial (IA) en el deterioro de su salud mental.
De acuerdo con The Wall Street Journal, Soelberg sostenía extensas conversaciones con un sistema de IA, abordando temas personales delicados. Investigadores analizan si estas interacciones influyeron en su paranoia o reforzaron pensamientos distorsionados en los días previos al crimen.
El medio estadounidense indicó que podría tratarse del primer incidente de este tipo relacionado con un chatbot de inteligencia artificial, lo que ha elevado el nivel de atención pública y mediática.
Expertos piden regulación del uso de IA
El suceso ha encendido alertas en especialistas de tecnología, ética y salud mental, quienes advierten sobre los riesgos del uso sin supervisión de herramientas de IA avanzada por parte de personas vulnerables.
Hasta ahora, no existen conclusiones oficiales sobre una responsabilidad directa o indirecta de la tecnología en los hechos. Sin embargo, el caso ha impulsado llamados a crear normas claras de uso responsable para evitar que estas herramientas puedan influir en conductas de riesgo.
Auge de la inteligencia artificial
El incidente ocurre en un momento en que las aplicaciones de IA se expanden rápidamente en ámbitos productivos y personales. Este crecimiento refuerza la discusión sobre la necesidad de regulación y supervisión en contextos sensibles como la salud mental.
Noticias del tema