Ahora mismo hay 4500 estudiantes norteamericanos aconsejados psicol贸gicamente por un chatbot. Es solo el principio

Ahora mismo hay 4500 estudiantes norteamericanos aconsejados psicol贸gicamente por un chatbot. Es solo el principio
ahora mismo hay 4500 estudiantes norteamericanos aconsejados psicol贸gicamente por un chatbot. es solo el principio

Ahora mismo, mientras escribo esto, hay unos 4.500 estudiantes norteamericanos siendo "aconsejados psicol贸gicamente" a trav茅s de una aplicaci贸n llamada Sonny. No es nada sorprendente. En EEUU, en torno al 17% de las escuelas secundarias no tienen orientador ni psic贸logo escolar. La mayor铆a de ellas est谩n en 谩mbitos rurales o en zonas econ贸micamente deprimidas y aplicaciones de este tipo acercan la asistencia psicosocial a todo el mundo.


El problema no es ese. El problema es que Sonny es un chatbot de inteligencia artificial.


Y, de hecho, seg煤n explican algunos de sus usuarios, m谩s all谩 de su efectividad terap茅utica final, este tipo de enfoques permiten al colegio identificar casi a tiempo real problemas entre el alumnado. En Berryville (Arkansas), descubrieron que m谩s de la mitad de los usuarios enviaba mensajes justo antes de los ex谩menes y les permiti贸 desarrollar intervenciones de apoyo emocional.


¿Este es el futuro? Hace un par de a帽os, Zara Abrams publicaba un extenso an谩lisis en la American Psychological Association, donde se conclu铆a que "los chatbots de inteligencia artificial (IA) pueden hacer que la terapia sea m谩s accesible y menos costosa". Justo lo que hace Sonny.


Sin embargo, como tambi茅n explicaba Abrams, "a pesar del potencial de la IA, todav铆a hay motivos para preocuparse: las herramientas de IA utilizadas en el 谩mbito sanitario han discriminado a personas en funci贸n de su raza y su condici贸n de discapacidad y hay chatbots maliciosos han difundido informaci贸n err贸nea, han profesado su amor a los usuarios o han acosado sexualmente a menores". Eso es precisamente lo que Sonny trata de evitar.


¿C贸mo es posible? En principio, seg煤n explican desde la empresa, Sonny tiene un equipo de personas con "experiencia en psicolog铆a, trabajo social y apoyo en l铆nea" que supervisan e incluso reescriben las respuestas del bot. Cada t茅cnico supervisa entre 15 y 25 chats a la vez.


Es la forma que tiene Sonar Mental Health, la empresa detr谩s de la app, para evitar el gran pecado original de los LLM: su tendencia a delirar, fantasear y dar consejos que puedan no ser correctos. Adem谩s, el chatbot h铆brido est谩 dise帽ado para avisar a padres y profesores ante la m谩s m铆nima posibilidad de peligro (ya sea para uno mismo o para los dem谩s).


¿Han solucionado el problema? La verdad es que no lo sabemos (porque faltan estudios sobre ello), pero sinceramente es poco probable que lo hayan conseguido: estamos en una fase muy temprana como para confiar en que todos los problemas asociados est茅n resueltos.


Pero es un paso radical. Como dec铆a Abrams, es posible que "los psic贸logos y sus habilidades sean irremplazables", pero dado que la llegada de la IA es inevitable tenemos que apostar por una "implementaci贸n reflexiva y estrat茅gica". Algo que, efectivamente, es muy parecido a no decir nada. Hay mucho que a煤n no sabemos y, por eso, hacer predicciones concretas es peligroso.


Lo que s铆 est谩 claro es que la pregunta no es si tendremos GPTerapeutas, ya los tenemos. La pregunta es c贸mo podemos usarlos para no empeorar la atenci贸n que hoy se est谩 dando (una tentaci贸n siempre presnete) y convertirlos en una herramienta clave para reducir el sufrimiento humano. Esperemos responderla pronto.


Imagen Sonar / Sigmund


En este blog 50 a帽os de investigaci贸n sobre la psicoterapia de la depresi贸n dejan un dato sorprendente: no hemos mejorado nada


No hay comentarios.:

Con tecnolog铆a de Blogger.