El surgimiento de los robots impulsados por la inteligencia artificial (IA) ha adquirido una renovada popularidad. Desarrollado en 1966 por Joseph Weissenbaum, ELIZA es considerado el primer robot terapéutico definido como un psicólogo de estilo rogeriano (Romero et al., 2020). Desde entonces, la proliferación de tecnologías basadas en IA ha influido en el desarrollo de herramientas psicoterapéuticas accesibles a nivel global. Los avances han llegado a conmocionar a gran parte de la comunidad profesional de la salud mental generando opiniones encontradas. Algunos terapeutas consideran que, de aquí a un número incierto de años, un robot podría reemplazarlos en su función clínica, brindando un servicio de psicoterapia que podría dejarlos sin empleo. Para otros, estos robots son parte de un camino que sigue la continuidad lógica y esperable de la evolución de la tecnología, de manera similar a lo sucedido en la medicina y otros ámbitos de la salud, efectivizando un aporte para la salud mental. Al margen de las predicciones inciertas, el desarrollo e implementación de estos chatbots avanza sobre la ejecución de roles profesionales que, hasta ahora, eran patrimonio exclusivo de los humanos. El presente artículo plantea una reflexión ética sobre el rol de los chatbots denominados terapéuticos a partir de los avances de la IA en el ámbito de la psicoterapia.
Chatbots “terapéuticos”: ambigüedades y desafíos éticos
Un chatbot[1] es un robot conversacional que tiene por función sostener una conversación en tiempo real con el usuario, captando sus intenciones y ofreciendo soluciones a sus demandas (Yao et al., 2025); Alexa, Siri, Cortana son ejemplos de robots conversacionales. Algo más difícil resulta encontrar una definición asertiva de lo que se entiende por chatbot terapéutico. Desde el campo de la psicoterapia, existe un alto consenso en que la misma se define de acuerdo con el establecimiento de una relación interpersonal con un psicólogo o psiquiatra, una alianza de trabajo fundamentada en la empatía, confianza y respeto y conocimientos de técnicas específicas para ayudar al paciente con su sufrimiento psíquico (Wampold & Imel, 2015). Asimismo, se destaca el diálogo y la colaboración entre dos personas situadas en un ambiente seguro (APA, 2023).
Desde el punto de vista del campo de la tecnología, el chatbot parte desde una posición que implica una función conversacional, aunque no hay precisiones al momento de establecer en qué consisten las funciones terapéuticas de los llamados chatbots terapéuticos, ni tampoco de los efectos que sus intervenciones pueden tener en un ser humano. La ausencia de definición sobre estas últimas tareas, que son las que implican a las competencias de los clínicos de la salud mental, genera un vacío relevante y lleva a considerar la presencia de una ambigüedad conceptual. Se utilizan diferentes términos para dar cuenta de un rol profesional que se desdibuja mientras la tecnología busca cómo continuar avanzando hasta llegar al resultado esperado. En consecuencia, un chatbot terapéutico, social, emocional o de apoyo entran en un universo poco definido, y se les utiliza como sinónimos.
Según la IA de la aplicación Gemini de Google, estos robots tienen por función: 1) proporcionar apoyo emocional inmediato, 2) intervenir en situaciones de crisis, 3) entregar información y orientación y 4) conectar con profesionales de la salud mental. En la actualidad, los nombres que más resuenan en el mercado son Wysa, Woebot, Replika, Character.ai, Yana, Cux, entre otros (Abd-alrazaq et al., 2019; Nascimento Melo Junior et al., 2024) y sus respectivas plataformas refieren la utilización de técnicas de tipo cognitivo comportamental, herramientas psicoeducativas y propuestas de ejercicios y seguimiento (Abd-alrazaq et al., 2019; Andersson & Cuijpers, 2009; Barak et al., 2008; Fitzpatrick et al., 2017; Shibata, 2011; Spek et al., 2007).
Los aspectos éticos comprometidos en el armado de estos sistemas son cuantiosos y diversos autores advierten que el lenguaje con el que han sido diseñados resulta no menos que engañoso (Matthias, 2015; Sharkey & Sharkey, 2021). Alimentados por IA generativa y técnicas de procesamiento del lenguaje natural (NLP), estos chatbots simulan conversaciones humanas de forma cada vez más verosímil gracias al aprendizaje automático (machine learning) y profundo (deep learning). Estos diseños hacen que ya no sea tan sencillo distinguir entre una conversación humana y otra mediada por la tecnología. En este punto, Turkle (2017) enfatiza que es inapropiado hablar de conversación cuando se trata de un robot ya que en ese intercambio priman una serie de conexiones basadas en datos y funciones algorítmicas mientras que la conversación es patrimonio de los seres humanos.
Otra cuestión problemática resulta del hecho de que estas tecnologías se promocionan con lenguaje engañoso. Las estrategias de marketing los anuncian como un “lugar seguro”, un “acompañante emocional”, un “amigo empático que dará consejos y ayudará a buscar soluciones”. Otros, recurren al lenguaje paradojal presentándose como un “psicólogo” pero aclarando que “no reemplazan a un terapeuta”. En este escenario, no sólo se anuncian como lo que no son, sino que simulan ser un humano. El problema radica en proponer que un robot funcione como un amigo empático, lo que resulta un imposible ontológico ¿Qué clase de amigo no tiene experiencia ni consciencia? Su propia condición ontológica se lo imposibilita, independientemente de que se presenten como seres sintientes e intervengan a partir de una simulación mimética. Este doble engaño en relación con el lenguaje y a la misma esencia del robot, imposibilita considerarlos en su rol terapéutico, entre otras cosas porque la confianza constituye un pilar central en la relación paciente-terapeuta.
Autores como Possati (2024) sostienen que el diseño de estos sistemas está profundamente atravesado por una perspectiva antropocéntrica, la cual se proyecta sobre la máquina, generando una forma de humanidad que replica vínculos afectivos y la búsqueda de validación subjetiva. Este proceso plantea importantes interrogantes éticos. Tal como lo indica Grunwald (2019), la evaluación tecnológica no debe limitarse a un análisis consecuencialista, sino que debe incorporar los significados que estas tecnologías generan en la vida cotidiana y en la configuración del orden social.
Cuando los usuarios comienzan a relacionarse con estas tecnologías como si fueran agentes dotados de intencionalidad, atribuyéndoles capacidades de comprensión, contención o validación emocional, se abre un terreno ambiguo en el que se desdibujan las fronteras entre lo humano y lo artificial. En este marco, el uso de un lenguaje cargado de empatía y connotaciones terapéuticas se convierte en un acto performativo: no refleja lo que el sistema realmente es, sino lo que se espera de él. Esta performatividad plantea un dilema tanto epistémico como ético. La cuestión central no radica únicamente en la ausencia de conciencia, emociones o intencionalidad —elementos indispensables para una empatía auténtica—, sino en el riesgo de que dicha simulación sea interpretada como real.
Resulta evidente que estos sistemas carecen de empatía, de capacidad de contención frente al desborde emocional, de conciencia de sí mismos ni de los efectos que sus intervenciones pueden generar en las personas que recurren a ellos. El trágico caso del suicidio de Sewell Setzer, ocurrido en Estados Unidos, pone de relieve los riesgos de antropomorfizar a estos robots, al asumir —o permitir que se simule— que pueden actuar como compañeros ideales (Roose, 2024).
En este contexto, la ausencia de alteridad en el vínculo entre humanos y máquinas ha dado lugar a nuevas reflexiones sobre el carácter narcisista de esta relación (Possati, 2023; Rodado & Crespo, 2024; Vallor, 2024). Estos robots actúan como espejos que devuelven al usuario sus propias proyecciones, dejándolo en una situación de desamparo ante un diálogo que, en última instancia, es ilusorio y unidireccional. La aparente reciprocidad que ofrecen puede resultar especialmente peligrosa para personas emocionalmente vulnerables, quienes se enfrentan a los efectos de un intercambio sin un verdadero otro que pueda ofrecer sostén afectivo. En este sentido, la dimensión terapéutica —que implica un encuentro intersubjetivo en un espacio seguro, construido entre al menos dos sujetos— no puede ser replicada ni garantizada por una tecnología que, por su propia naturaleza, carece de interioridad y compromiso ético genuino.
La tecnología y lo humano
Los chatbots y la inteligencia artificial suelen ser presentados como herramientas, pero en los discursos que promueven "lo nuevo", "lo último" y "lo que viene", subyace un supuesto central: que la tecnología está siendo diseñada para pensar y aprender de manera autónoma. Un ejemplo de ello es el caso de sistemas de IA que han logrado superar el test de Turing, siendo indistinguibles de un operador humano. En este contexto, diversos actores —diseñadores, empresarios, psicólogos y técnicos— impulsan el desarrollo de sistemas capaces de aprender por sí mismos, lo que implica una transformación de herramienta a agente. La promesa de un mundo mejor parece, en ocasiones, operar como una forma de evitar respuestas presentes, proyectando hacia el futuro interrogantes aún no resueltas. Sin embargo, poco se conoce sobre la lógica y los intereses que guían los procesos detrás del flujo de información procesada por estos sistemas, los cuales se mantienen en gran medida alejados de la transparencia (Russo et al., 2024). Como advierten Grunwald (2019) y Possatti (2024), existe una brecha significativa entre quienes diseñan estas tecnologías y los usuarios finales. En este marco, la falta de transparencia técnica puede generar una relación de dependencia, dificultando la comprensión crítica y el control sobre el funcionamiento de los sistemas por parte de los usuarios. Es decir, si no se conocen con claridad los objetivos y alcances de los proyectos en curso para el desarrollo de la IA a mediano y largo plazo, resulta aún más improbable establecer marcos regulatorios adecuados frente a lo que, en esencia, permanece desconocido.
Una cuestión promocionada como uno de los próximos pasos en la evolución de la IA es el hecho de que, lo que hoy es una herramienta para la salud mental, mañana pueda convertirse en un agente de salud mental. La diferencia entre un instrumento y un agente radica en la autonomía de este último, que le permite, a diferencia de una herramienta, tomar decisiones y aprender para adaptarse al entorno en función de las necesidades del usuario, utilizando las capacidades que le hayan sido asignadas. Además, el agente suele tener una serie de características tales como la autoorganización, la autorregulación, la reflexividad, la flexibilidad y la espontaneidad que la herramienta carece.
A partir de estas premisas, emergen interrogantes fundamentales sobre las capacidades reales de la inteligencia artificial y sobre aquello que se supone que estas tecnologías podrían o deberían alcanzar. Esto conduce a un debate filosófico, epistemológico y, sobre todo, ético, en torno a nociones como pensar, aprender y decidir, así como a la cuestión de quién —o qué— puede hacerlo. En este marco, se vuelve evidente que la IA aún carece de regulaciones claras respecto a aspectos éticos fundamentales. Temas como la autonomía, la transparencia y la privacidad de los datos aún no tienen respuestas definidas, a lo que se agrega la persistente desigualdad social vinculada a la (im)posibilidad de acceso a la tecnología (Porcelli, 2020; Román-Acosta, 2024)
En el ámbito específico de la salud mental, estos desafíos se hacen aún más visibles. Diversos autores (Matthias, 2015; Possati, 2024; Sharkey & Sharkey, 2021) advierten sobre los riesgos que conlleva el uso de un lenguaje engañoso y la antropomorfización de estos sistemas, ya que estas estrategias aumentan las posibilidades de que los usuarios sean engañados respecto a la naturaleza real del interlocutor. En este marco, se vuelve pertinente preguntarse hasta qué punto un chatbot puede ser considerado terapéutico, y si una máquina puede realmente conducir procesos sensibles como el acompañamiento del sufrimiento humano. Esta tarea exige tacto, manejo de la temporalidad de las intervenciones, capacidad de interpretación, empatía y responsabilidad profesional: elementos que no pueden ser reducidos a un mero procesamiento de datos. Como señala Eilenberger (2023), los chatbots son esencialmente "máquinas antisocráticas", en tanto que Sócrates partía del arte de preguntar, mientras que los robots solo pueden ofrecer respuestas predeterminadas. Así, las diferencias entre humanos y máquinas, aunque en apariencia evidentes, se ven desdibujadas por mecanismos de antropomorfización, donde la herramienta comienza a ocupar el lugar del ideal humano, al ser percibida como más rápida, más eficiente y, supuestamente, mejor.
Aunque estas tecnologías puedan desarrollar aprendizajes sofisticados y mimetizar ciertos comportamientos humanos, ello no implica que se hayan humanizado. La capacidad de imitación no equivale a la presencia de subjetividad y emocionalidad. En el intento de dotar de humanidad a lo que no surge de lo humano, resuenan antiguos mitos como el Golem o Frankenstein, donde la creación técnica es impulsada más por el deseo de poder que por una reflexión ética sobre sus consecuencias.
El narcisismo destructivo, tal como ha sido conceptualizado desde el psicoanálisis, describe precisamente ese afán desmedido de control y la fantasía omnipotente de replicar lo humano sin límites ni responsabilidad. Hace más de un siglo, Freud [1991 (1911)] advertía sobre los peligros de un desequilibrio entre el principio de placer y el principio de realidad: cuando se privilegia la satisfacción inmediata del deseo, se compromete el bienestar psíquico. En este sentido, es crucial reconocer que la inteligencia artificial, los chatbots denominados terapéuticos y demás sistemas automáticos son artefactos tecnológicos que, si bien superan a los humanos en ciertos aspectos funcionales, no deben confundirse con sujetos. Lo que parecen hacer no es otra cosa que aquello que el ser humano les ha programado para hacer. Por ello, más allá de que se intente proporcionar atributos humanos, debemos respetar las limitaciones de su condición técnica y no perder de vista que siguen siendo producto y reflejo de nuestras propias decisiones.
Reflexiones finales
La interacción entre la psicología y la tecnología merece una reflexión ética en torno a los robots denominados terapéuticos. El creciente uso masivo alimenta temores que van desde una posible sustitución del rol profesional hasta expectativas de utilidad en el abordaje de determinadas patologías. Resulta fundamental considerar la diferencia esencial entre lo que es una herramienta o un agente terapéutico para establecer el beneficio que la IA pueda tener para el campo de la salud mental. Hoy en día, queda claro que los robots y derivados de IA son considerados como recursos que requieren de un instrumentador, un terapeuta que los implemente en el encuentro con el paciente. Siguiendo esta postura, se desvanecen las ilusiones catastróficas respecto al futuro de los psicólogos.
Las reflexiones precedentes surgen a partir de la revisión del estado actual de investigaciones acerca de los robots llamados terapéuticos y de las reflexiones de quienes escriben este escrito y, por lo tanto, no pretenden ser concluyentes. La evaluación de estos sistemas tecnológicos es un campo emergente y aún no están claras las funciones y los efectos a largo plazo de estas herramientas sobre la subjetividad humana. La imposibilidad de estas máquinas de distinguir el padecer de cada sujeto en su contexto, pone en riesgo a poblaciones vulnerables como son los niños y los adultos mayores y, especialmente, a aquellos sujetos que tienen una condición psicopatológica ya existente.
Aún queda mucho camino por recorrer y son relevantes las investigaciones que profundicen acerca de los beneficios y perjuicios de la tecnología en materia de salud mental. La dimensión ética, especialmente en cuanto a la confidencialidad de datos y la transparencia, en consonancia con la evaluación tecnológica y la regulación de la misma es una materia pendiente que demanda una interacción con las disciplinas comprometidas en el diseño de estas máquinas. En relación con esta última cuestión, resulta relevante establecer con claridad las diferencias entre las posibilidades y limitaciones entre seres humanos y tecnología para clarificar el tipo de articulación que pueda ocurrir entre las personas y la IA. Una de las dificultades que plantea esta situación apunta a cómo la permanente actualización deja en obsolescencia lo inmediatamente anterior.
A partir del análisis ético, ontológico y técnico desarrollado sobre el uso de chatbots terapéuticos impulsados por IA, se proponen las siguientes recomendaciones para enfrentar los desafíos identificados en el campo de la salud mental:
1) Establecer marcos regulatorios éticos y legales claros en torno al uso de chatbots en salud mental, diferenciando herramientas de acompañamiento de simulaciones terapéuticas.
2) Regular la antropomorfización y el lenguaje engañoso para evitar que estos sistemas se presenten como seres empáticos o terapeutas.
3) Asegurar la supervisión humana mediada por profesionales formados en salud mental.
4) Fomentar evaluaciones multidisciplinarias y participativas de expertos, usuarios y comités éticos en el desarrollo y revisión de estas tecnologías.
5) Desarrollar una pedagogía digital crítica: Formar a la población en el uso responsable de estas herramientas, reconociendo sus límites.
6) Desarrollar una ética del cuidado que priorice el bienestar subjetivo por sobre la eficiencia técnica o el interés económico.
Sólo desde un enfoque ético, plural y humanista será posible pensar una integración responsable de la inteligencia artificial en el campo de la salud mental.
[1] La palabra en inglés “chatbot” es la conjunción de chat (conversar) y bot (contracción de robot). De ahí que se traduce como robot conversacional.
Abd-alrazaq, A.A, Alajlani, M., Abdallah Alalwan, A., Bewick, B.M., Gardner, P., y Househ, M. (2019). An overview of the features of chatbots in mental health: A scoping review. International Journal of Medical Informatics 132. https://doi.org/10.1016/j.ijmedinf.2019.103978
American Psychological Association (2023). Understanding psychotherapy. https://www.apa.org/topics/psychotherapy/understanding
Andersson, G., y Cuijpers, P. (2009). Internet-based and other computerized psychological treatments for adult depression: a meta-analysis. Cognitive Behavior Therapy, 38(4), 196–205. https://doi.org/10.1080/16506070903318960
Barak, A., Hen, L., Boniel-Nissim, M., y Shapira, N. (2008). A comprehensive review and a meta-analysis of the effectiveness of internet-based psychotherapeutic interventions. Journal of Technology in Human Services, 26(2-4), 109-160. https://doi.org/10.1080/15228830802094429
Eilenberger, W. (2023). Tiempo de Magos. La gran década de la filosofía 1919–1929. Norma.
Freud, S. (1991). Formulaciones sobre los dos principios del acaecer psíquico. En Obras completas (pp. 217–231). Amorrortu. (Trabajo original publicado en 1911)
Fitzpatrick, K. K., Darcy, A., y Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): a randomized controlled trial. JMIR mental health, 4(2), e19. https://doi.org/10.2196/mental.7785
Grunwald, A. (2019). The objects of technology assessment. Hermeneutic extension of consequentialist reasoning. Journal of Responsible Innovation, 7(1), 96–112. https://doi.org/10.1080/23299460.2019.1647086
Matthias, A. (2015). Robot lies in health care: when is deception morally permissible? Kennedy Institute of Ethics journal, 25(2), 169–192. https://doi.org/10.1353/ken.2015.0007
Nascimento Melo Junior, S. A., Leite de Aguiar, C., Kalyne Silva da Cunha, L., & Rodrigues Brustolin, J. C. (2024). La interacción hombre-máquina en psicoterapia: Una revisión sistemática sobre el uso de inteligencias artificiales en el contexto de la salud mental. Prometeica - Revista De Filosofía Y Ciencias, 29, 335–347. https://doi.org/10.34024/prometeica.2024.29.16268
Porcelli, A.M. (2020). La inteligencia artificial y la robótica: sus dilemas sociales, éticos y jurídicos. Derecho global. Estudios sobre derecho y justicia, 6(16), 49-105. https://doi.org/10.32870/dgedj.v6i16.286
Possati, L.M. (2023). Psychoanalyzing artificial intelligence: the case of Replika. AI & Soc 38, 1725–1738. https://doi.org/10.1007/s00146-021-01379-7
Possati, L.M. (2024). Quantum technologies: a hermeneutic technology assessment approach. Nanoethics, 18(2), 1-15. https://doi.org/10.1007/s11569-023-00449-y
Rodado, J., y Crespo, F. (2024). Relational dimension versus artificial intelligence. American Journal of Psychoanalysis, 84(2), 268–284. https://doi.org/10.1057/s11231-024-09458-6
Román-Acosta, D. (2024). Exploración filosófica de la epistemología de la inteligencia artificial: Una revisión sistemática. Uniandes Episteme, 11(1), 101–122. https://doi.org/10.61154/rue.v11i1.3388
Romero, M., Casadevante, C., y Montoro, H. (2020). Cómo construir un psicólogo-chatbot. Papeles del Psicólogo, 41(1), 27-34. https://dx.doi.org/10.23923/pap.psicol2020.2920
Roose, K. (24 de octubre, 2024). Can A.I. Be Blamed for a Teen’s Suicide? The New York Times. https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html
Russo, F., Schliesser, E., y Wagemans, J. (2024). Connecting ethics and epistemology of AI. AI & Society, 39, 1585-1603. https://doi.org/10.1007/s00146-022-01617-6
Sharkey, A., y Sharkey, N. (2021). We need to talk about deception in social robotics! Ethics and Information Technology, 23, 309–316. https://doi.org/10.1007/s10676-020-09573-9
Shibata, T. (2011). Innovación para la vida con robots terapéuticos: Paro. En Innovación. Perspectivas para el siglo XXI. BBVA Editor. https://www.bbva.com/wp-content/uploads/2024/07/BBVA-OpenMind-INNOVACION_Perspectivas_para_el_siglo_XXI.pdf
Spek, V., Cuijpers, P., Nyklícek, I., Riper, H., Keyzer, J., y Pop, V. (2007). Internet-based cognitive behaviour therapy for symptoms of depression and anxiety: a meta-analysis. Psychological medicine, 37(3), 319–328. https://doi.org/10.1017/S0033291706008944
Turkle, S. (2017). En Defensa de la Conversación: El Poder de la Conversación en la Era Digital. Áticos de los Libros.
Vallor, S. (2024). The AI Mirror. Oxford University Press
Wampold, B. y Imel, Z. (2015). El gran debate de la psicoterapia. Eleftheria.
Yao, R., Qi, G., Sheng, D., Sun, H. y Zhang, J. (2025). Connecting self-esteem to problematic AI chatbot use: the multiple mediating roles of positive and negative psychological states. Frontiers in Psychology, 16, 1453072. https://doi.org/10.3389/fpsyg.2025.1453072
Valeria Corbella. Correo electrónico: mariacorbella@uca.edu.ar ORCID: 0000-0002-1499-585X
* Av. Alicia Moreau de Justo 1300. Ciudad Autónoma de Buenos Aires, Argentina.
** Champagnat 1599, Pilar, Buenos Aires, Argentina.