Los riesgos y los desafíos del uso de la inteligencia artificial en salud mental

Presenta ventajas de accesibilidad y tal vez algún día llegue a una mayor personalización, pero aún requiere un análisis detallado por sus potenciales efectos negativos y debates éticos

Si bien la investigación en sistemas de inteligencia artificial ha comenzado hace décadas, en los últimos años se está trabajando mucho en la integración de sistemas de IA en la medicina en varios ámbitos y las posibilidades del mismo, sin embargo, el tema está aún en etapas iniciales y, al igual que en las otras áreas, el camino por delante lleva muchas promesas, pero también peligros de importancia.

Por de pronto solo con el nivel alcanzado en la actualidad se debe pasar por numerosas pruebas, muchas de ellas en curso, para evaluar el impacto de las mismas antes de una aplicación plena.

Hasta hace poco nuestra mayor inquietud como profesionales era la “interconsulta” con el irónicamente llamado “Dr. Google”, que genera en algunos casos ventajas, por ejemplo, el paciente se informa de aspectos preventivos, pero en otros claramente hay desventajas, como la falta de adherencia al tratamiento o el cuestionamiento por la búsqueda de información repetida, en algunos casi hasta la obsesión.

En algunos casos se manifiestan cuadros que llegan a cumplir los criterios del DSM (Manual Diagnostico de Enfermedades Mentales) para ser encuadrados como trastorno de ansiedad por enfermedad, antes referido como ansiedad referida a la salud y tradicionalmente conocido como hipocondría.

Este tipo de situación ante los buscadores, se repite con videos, o seguimiento de “influencers de salud”, muy habitualmente no profesionales etc. En este contexto también aparecen las búsquedas o preguntas por medio de programas de IA que, en definitiva, se trata de una recopilación de información obtenida mediante buscadores.

De la constante y rápida evolución de la inteligencia artificial (IA), pero también de la creciente demanda y problemática de salud mental en el mundo, surge esta línea generando gran expectativa, pero también es un tema que lleva a controversias.

Las promesas de la IA

Un interesante artículo en la publicación Frontiers in Digital Health muestra la amplitud de dominios en los cuales la inteligencia artificial puede ser usada, no solo en la información, concientización, sino en sistemas de soporte. Al mismo tiempo señala sistemas de aplicación de protocolos específicos.

Un aspecto importante es hacer que la atención de la salud mental sea más accesible y quizás llegue a ser hasta personalizada. Los chatbots de IA y los terapeutas virtuales se presentan con la ventaja de no estar limitados por horarios o limitaciones geográficas y pueden proporcionar asistencia inmediata, sin embargo, este aspecto deja de lado que ya existen líneas de urgencia y, por otro lado, son contrarios a un concepto psicoterapéutico básico en el cual la inmediatez quizás no sea la mejor respuesta terapéutica, sino que refuerce aspectos negativos como, por ejemplo, la intolerancia a la frustración (”lo quiero todo y lo quiero ya”) y de alguna manera comportamientos adictivos.

Por otro lado, es cierto que las plataformas de IA podrían en su gran capacidad para procesar infinidad de datos estadísticos, establecer la pertinencia de protocolos de manera más acertada, al menos desde el punto de vista estrictamente estadístico. Algunos sugieren que esto incrementa el compromiso del paciente con la terapia y la adherencia al tratamiento y desde ese punto de vista propugnan que significará un avance positivo.

Ejemplos de uso de IA

Algunas de las aplicaciones prácticas que ya se llevan a cabo son:

  1. Soporte de decisiones clínicas: analiza la información del paciente confrontándola con la última literatura científica o protocolos de tratamiento para sugerir opciones diagnósticas y terapéuticas.
  2. Automatizando tareas administrativas: eso ya se usa frecuentemente como sistemas de turnos o llenado de formularios con la economía de tiempo que en el marco, por ejemplo, de la salud pública representa ahorro de recursos.
  3. Chatbots: una función muy simple de los chatbots es el de preguntas frecuentes con información que el centro o el profesional quiera aclarar y dejar de responder preguntas repetidas de temas que generan mucha ansiedad (”¿Puedo tomar alcohol y el somnífero juntos?”, etc.).
  4. Realidad virtual: los entornos de realidad virtual usados por ejemplo en las fobias, son seguros y la exposición es menos traumática pero igualmente efectiva.
  5. Ejercicios comportamentales de aprendizaje: repitiendo una tarea o un ejercicio una y otra vez, y generando el refuerzo según la idea del condicionamiento operante.

Hay muchos más y estos son solo ejemplos, ahora el aspecto que no debe ser olvidado es que son complementarios a la intervención profesional y en tal caso son extremadamente útiles, y en la medida de un seguimiento del paciente aportan reducción de los tiempos de abordaje terapéutico.

Riesgos y consideraciones éticas

El dilema que tenemos con la IA en todos los dominios (el de la creación artística, de videos hasta de personajes o perfiles sociales y la distorsión idealizada de la propia imagen etc.) es hasta cuándo y en qué medida. Es así que la integración de la IA en la medicina psiquiátrica y en la psicoterapia no está exenta de riesgos.

Una de las preocupaciones fundamentales, como en otros dominios, redes sociales, buscadores etc., es sobre la privacidad y la seguridad de los datos personales. En el caso de una intervención médica o psicoterapéutica se comparte información personal sensible durante las sesiones de terapia.

Los peligros son significativos y la Asociación Americana de Psicología publicó recientemente un trabajo en el que explica sus riesgos, donde señalan lo que estamos divulgando y es que la implementación cuidadosa es crucial y es imperativo el cuidado de ciertos aspectos, como puede ser el no potenciar aspectos negativos, administrando sin controlar protocolos que se enuncian como para una función específica, como lo es la meditación o relajación, y el efecto puede ser contrario, como por ejemplo ocurre en ciertos pacientes obsesivos con algunas técnicas de meditación o de relajación.