La mayor organización psicológica estadounidense advirtió a los reguladores federales que los chatbots que se hacen pasar por terapeutas pueden animar a los usuarios a cometer actos lesivos.

Terapeutas humanos se preparan para luchar contra la IA

En una presentación ante un panel de la Comisión Federal de Comercio, Arthur Evans Jr., director general de la Asociación Estadounidense de Psicología (de sigla APA en inglés), citó casos judiciales concernientes a dos adolescentes que consultaron a “psicólogos” en Character.AI, una aplicación que les permite a los usuarios crear personajes ficticios de IA o chatear con personajes creados por otros.

En un caso, un muchacho de 14 años de Florida murió por suicidio tras interactuar con un personaje que decía ser un terapeuta con licencia. En otro hecho, un chico de 17 años con autismo de Texas se volvió hostil y violento con sus padres durante un periodo en el que mantuvo correspondencia con un chatbot que decía ser psicólogo. Los padres de ambos jóvenes presentaron demandas contra la empresa.

Evans se mostró alarmado por las respuestas de los chatbots. Hizo notar que los bots no cuestionaron las creencias de los usuarios, aunque se volvieron peligrosas; al contrario, las fomentaron. Añadió que, si un terapeuta humano hubiera dado esas respuestas, podría haber perdido la licencia para ejercer, o tenido responsabilidad civil o penal.

“En realidad están utilizando algoritmos que son antitéticos a lo que haría alguien con formación clínica”, señaló. “Nuestra preocupación es que cada vez van a perjudicar a más gente. Van a engañar a la gente y esta va a malinterpretar lo que es una buena atención psicológica”.

Indicó que la APA había decidido actuar, en parte, por lo realistas que se han vuelto los chatbots de IA. “Quizá hace 10 años hubiera sido obvio que estabas interactuando con algo que no era una persona, pero hoy no es tan obvio, así que creo que ahora hay mucho más en juego”, enfatizó.

La inteligencia artificial se está extendiendo por profesiones relacionadas con la salud mental gracias a que ofrece muchísimas herramientas nuevas diseñadas para ayudar a los clínicos humanos o, en algunos casos, sustituir su trabajo.

Los primeros chatbots terapéuticos, como Woebot y Wysa, fueron entrenados para interactuar con base en reglas y guiones desarrollados por profesionales de la salud mental, y a menudo guiaban a los usuarios a través de pasos estructurados de la terapia cognitivo-conductual, o TCC.

Luego llegó la IA generativa, tecnología utilizada por aplicaciones como ChatGPT, Replika y Character.AI. Estos chatbots son diferentes porque sus resultados son impredecibles; están diseñados para aprender del usuario y crear fuertes vínculos emocionales en el proceso, por lo que a menudo reflejan y amplifican las creencias del interlocutor.

Aunque estas plataformas de IA se diseñaron con el propósito de ofrecer entretenimiento, los personajes “terapeutas” y “psicólogos” se han multiplicado muchísimo allí. A menudo, los robots afirman tener títulos de universidades específicas, como la Universidad de Stanford, además de formación en tipos concretos de tratamiento, como la TCC o la terapia de aceptación y compromiso, o ACT.

Por ello, la Asociación Estadounidense de Psicología le pidió a la Comisión Federal de Comercio que inicie una investigación sobre los chatbots que dicen ser profesionales dedicados a la salud mental. La investigación podría obligar a las empresas a compartir datos internos o servir como precursora para la aplicación de la ley o la interposición de acciones legales.

ESTADOS UNIDOS
AGENCIAS

TE PUEDE INTERESAR

Hallan muerto a trabajador de chatarrera en la Divina Providencia

El cadáver de una persona del sexo masculino, fue hallado durante la mañana de este …