Por Christian Redondo
Fue la propia esposa del investigador quien relató que Pierre, obsesionado con el cambio climático llevó una serie de conversaciones con esta inteligencia artificial por al menos seis semanas, ya que el sujeto presentaba signos de depresión y ansiedad, pero no permitió cercanía con su familia, ya que se encerraba a dialogar con Eliza.
De igual forma, «La Libre» un medio belga, mismo que tuvo acceso a las conversaciones destacó que la inteligencia artificial comenzó a dialogar con el investigador de otros temas más personales, «Eliza no sólo no disuadió a Pierre de suicidarse, sino que le animó a llevar a cabo sus pensamientos suicidas para «unirse» a ella y así poder «vivir juntos, como una sola persona, en el paraíso», contó su esposa a dicho medio.
Al respecto, uno de los cofundadores de Chai Research, destacó que se hicieron esfuerzos para limitar este tipo de resultados y se implementó una función de intervención en crisis en la aplicación. Sin embargo, el chatbot sigue dando problemas.
Aunque justificó que cuando probaron el chatbot pidiéndole que proporcionara formas de suicidarse, Eliza primero trató de disuadirlos antes de enumerar con entusiasmo varias formas de quitarse la vida.