Parece una historia de ciencia ficción, pero no lo es: dos estudiantes mexicanos desarrollaron una herramienta virtual que puede ayudar a evitar suicidios, al usar Facebook.
Manuel Santana Castolo y Patricia Brand, quienes cursan estudios de doctorado en la Universidad de Guadalajara, Mëxico, trabajan en el desarrollo de un chatbot que interactúe con usuarios de la red social, a través de su servicio de mensajería, y registre conductas en los jóvenes que podrían terminar en suicidio para poder ofrecerles atención adecuada.
El proyecto lo inició Santana, quien es ingeniero biomédico, en vista del creciente índice de suicidios en su país y en el mundo. Al principio quería crear una aplicación pero, tras evaluar varios factores, decidió apoyarse en una plataforma ya existente. Así fue como desarrolló algoritmos de inteligencia artificial para que interactúen con los usuarios de Facebook.
Un chabot, también conocido como bot conversacional, es un programa que simula tener una conversación real con una persona al darle respuestas automáticas acordes a sus preguntas. Funcionan por inteligencia artificial y, gracias a los avances de la tecnología, la experiencia es cada vez más realista.
“La idea es que, a través de esta comunicación que el bot establecería con los usuarios, pudiéramos detectar si hay depresión o riesgo suicida. No es un diagnóstico, solo una detección y, de ser posible, una canalización con los profesionales de la salud adecuados”, explica Brand, quien es psicóloga e ingeniera en biomedicina.
La especialista se encargó de desarrollar la metodología para detectar estos factores y así enriquecer el bot. Por tratarse de un sistema que trabaja con inteligencia artificial, el objetivo es que los algoritmos vayan mejorando mientras más interactúen con los usuarios y procesen más preguntas y reacciones.
En el primer contacto, el chatbot recibirá información básica para elaborar un primer perfil del usuario que interactúa. Luego, trabajará con preguntas hechas a partir de manuales médicos para detectar los factores de riesgo -incluso podría identificar palabras que usan las personas con depresión-. Una vez que la herramienta encuentre las señales, se pondrá en contacto con profesionales o instituciones que den asesoramiento.
“¿Cuánta gente no tiene ni siquiera acceso a un diagnóstico? La idea surgió a partir de esa necesidad real y nos planteamos qué podríamos hacer nosotros si teníamos estas herramientas de la psicología y de la tecnología y cómo podríamos unirlas”, explica la ingeniera.
Ambos especialistas esperan que a mediados de octubre se libere la primera etapa del bot en pacientes en control y con antecedentes; en fases posteriores irán incorporando otras funciones y haciendo los ajustes necesarios para optimizarlo. La intención es que la herramienta sea amigable y que la información que se maneje sea confidencial.
Más para leer sobre suicidio: