Article: potencialitats, límits i reptes de la intel·ligència artificial en l’acompanyament psicològic

Aquest treball analitza les oportunitats, riscos i límits de la intel·ligència artificial (IA) aplicada a l’àmbit de la salut mental, especialment pel que fa al seu ús en processos d’acompanyament psicològic. Davant l’auge d’eines com xatbots, explorem com les reaccions socials sovint oscil·len entre la por distòpica i la fascinació acrítica.

Alana de Oliveira, Eva García i Jose Rodríguez (Departament d’Orientació Psicològica de l’Associació Arep per la salut mental)

Resum

Aquest treball analitza les oportunitats, riscos i límits de la intel·ligència artificial (IA) aplicada a l’àmbit de la salut mental, especialment pel que fa al seu ús en processos d’acompanyament psicològic. Davant l’auge d’eines com xatbots, explorem com les reaccions socials sovint oscil·len entre la por distòpica i la fascinació acrítica. A través d’una revisió d’experiències i estudis recents, identifiquem diversos avantatges de la IA, com la millora en l’accessibilitat, la personalització del seguiment i la reducció de barreres per a col·lectius minoritzats. No obstant això, també assenyalem limitacions importants: manca de vinculació emocional real, riscos en la privacitat, biaixos en els algoritmes que reprodueixin prejudicis socials i perills d’atenció inadequada en casos complexos i d’alt risc. Defensem la necessitat d’un enfocament crític i ètic, que entengui la tecnologia com a part activa en la configuració de la psique humana, i apostem per integrar la IA com a eina complementària, però no substitutiva, dins d’un model d’atenció centrat en la relació humana i el respecte a la diversitat.

Introducció

Ficcions futuristes ens mostren sovint escenaris bèl·lics de conflicte obert entre màquines i humans, un punt de no retorn en què la intel·ligència artificial es rebel·la contra la humanitat. Aquesta imatge dantesca pot condensar una de les reaccions típiques, la de l’horror, que ens pot generar la irrupció d’una nova realitat com és l’extensió de canvis tecnològics com el que està suposant la colonització progressiva de la quotidianitat per part de la intel·ligència artificial.

El nostre dia a dia connecta les persones les unes amb les altres mitjançant diferents artefactes tècnics, als que estem enganxats de manera que han esdevingut pràcticament pròtesis. Els vehicles amb què circulem a 120 km per hora han anat incorporant cada cop més elements tecnològics intel·ligents que ens donen indicacions durant la conducció incrementant la nostra seguretat. Si no som cíborgs, estem molt a prop de ser-ho i, de moment, sembla poc probable una guerra entre màquines i humans com les que hem pogut veure a les pantalles. En canvi, la guerra entre éssers humans prolifera i posa al servei de la destrucció els més recents avenços tecnològics.

Si l’horror és una de les reaccions front a la força de la Intel·ligència Artificial, una altra reacció típica front la irrupció de quelcom nou és la fascinació, podent quedar atrapades per una visió optimista que ens enlluerni i que, per tant, ens impedeix igualment una anàlisi racional del fenomen. Tenint en compte l’acceleració de canvi i la generació de noves capacitats de manera exponencial per part de la IA, una visió optimista ens portarà a posar el focus en els grans avantatges que fins fa poc es consideraven impossibles i que ara tenim al nostre abast de manera fàcil.

En l’àmbit de la salut mental, la intel·ligència artificial s’està fent servir cada cop més per donar suport en diferents àrees. Pot ajudar en tasques administratives, facilitar la comunicació entre professionals i persones ateses, orientar en la presa de decisions clíniques, oferir teràpies digitals com ara xatbots que conversen amb les persones usuàries i, fins i tot, permetre el seguiment i la detecció de canvis en l’estat de les persones ateses mitjançant dispositius i aplicacions.

En un article d’El País, es fa referència a “Psychologist” (Psicòleg), un xatbot de la plataforma Character.ai. que des de la seva creació té més de 200 milions de missatges i rep més de 3,5 milions de visites diàries. En aquest mateix reportatge, assenyala que “ja al gener de 2024, existien un total de 475 bots diferents a les categories de teràpia, psiquiatria i psicologia.”

Com a professionals de la psicologia en l’àmbit de salut mental, ens trobem que moltes de les persones que acompanyem ens expliquen que fan servir la IA i, en particular, l’atenció psicològica que aquesta els ofereix. En aquest ús cada cop més freqüent, juga un paper clau la facilitat d’accés i gran disponibilitat horària, si ho comparem amb les que ens ofereixen les persones professionals de la psicologia. A més, la IA és molt eficient en alguns aspectes com l’atenció individualitzada, recordant perfectament el que han conversat en d’altres moments les persones usuàries. També s’ha detectat que persones pertanyents a minories diverses, poden sentir menys barreres associades a prejudicis, ja que la IA no els jutja des dels prejudicis, com sovint fan les persones del seu entorn social. En aquest sentit, serà fonamental evitar que els algoritmes estiguin esbiaixats, de manera que afectin negativament a poblacions diverses i, per tant, els sistemes psicoterapèutics d’IA hauran de tenir en compte aquestes diversitats culturals, de gènere, d’edat i altres, per tal de no perpetuar les desigualtats en l’accés i la qualitat de l’atenció psicològica.

Tot i que és un tema de plena actualitat, la possibilitat de psicoteràpia mitjançant IA es ve desenvolupant des de fa unes dècades. Un dels primers bots conversacionals d’acompanyament psicològic va ser creat l’any 1966 per Joseph Weizenbaum, professor del Massachusetts Institute of Technology (MIT), i es basava en la psicoteràpia humanista de Carl Rogers. En aquell ambient d’investigació es va fer força popular entre el personal del MIT que es va sentir fascinat per aquest instrument (Beatriz, 2024).

En aquest escrit, farem el possible per apropar-nos a la hipòtesi d’una aplicació efectiva de la IA als àmbits de l’acompanyament psicològic en salut mental, sense projectar pors que ens apareixen com a fantasmes i, alhora, sense deixar-nos enlluernar per utopies tecnocientífiques.

Per arribar a alguna conclusió sobre si l’ús de la IA amb funcions psicoterapèutiques esdevé una aportació positiva per la salut mental de les persones que reben aquest servei, no hem de caure en falses disjuntives, com la que plantegen Rivera i Sánchez (2016) quan contraposen a aquest escenari positiu un altre possible de negatiu que identifica “un clar risc per la humanitat que s’enfronta a la possibilitat del desplaçament dels terapeutes humans per màquines intel·ligents”. Com veiem, les pors a l’extinció del seu ofici per part de persones que es dediquen a la psicoteràpia, haurien de limitar-se al que realment són i no estendre aquest possible fet de desaparició de la professió humana de psicoterapeuta com un “clar risc per la humanitat”. És un fet, fàcilment contrastable històricament, que molts oficis artesanals van desaparèixer amb la revolució industrial, sense que podem considerar que això suposés un problema a nivell global per la humanitat, tot i els inconvenients generats en el seu moment a moltes persones que veien amenaçat el seu mitjà de vida.

Hem vist com, al començament de la seva aplicació, la IA s’utilitzava sobretot en enginyeria i automatització, però actualment s’ha augmentat l’exploració de la seva aplicació en salut mental. Davant l’augment dels problemes de salut mental i la manca de recursos, la IA es presta a ser percebuda com una eina que podria facilitar que els tractaments fossin més accessibles i personalitzats.

A l’article de Rivera i Sánchez (recordem que és de 2016, el que representa molt de temps tenint en compte la velocitat dels avenços tecnològics en intel·ligència artificial), exposen com la IA ha demostrat superioritat sobre campions mundials humans en diversos jocs complexos i a continuació planteja la pregunta sobre si les màquines intel·ligents deixaran sense feina professionals de la  psicoteràpia. Fan esment a l’article de la revista Science titulat “The synthetic therapist” que plantejava la possibilitat que les màquines substitueixin els éssers humans en la psicoteràpia. Com a exemple, es referien a Ellie, una IA amb la imatge d’una dona d’uns trenta anys, elegant però informal i amb un rostre amable, programada amb coneixements amplis de teràpia cognitivo-conductual (TCC) amb sensors capaços de detectar amb gran precisió expressions facials, postura, moviments de les mans i to de veu de les persones ateses, amb un nivell de detall que sovint superava la capacitat humana.

Beneficis de l’ús de la IA en salut mental

Segons un informe recent de l’organització Mental Health Europe, la intel·ligència artificial pot millorar l’accés al suport en salut mental, especialment per a persones que tenen dificultats per accedir a serveis presencials o viuen en zones aïllades. També pot reduir la càrrega administrativa dels serveis, permetent que les professionals es centrin més en l’atenció directa. A més, ajuda a personalitzar els tractaments, millorar la precisió dels diagnòstics i detectar situacions de crisi abans que empitjorin. També obre la porta a noves formes de teràpia, com la realitat virtual. Alguns enfocaments proposen utilitzar la IA per reforçar la connexió social, el suport entre iguals i la formació de professionals. Ara bé, tot aquest potencial encara necessita més evidència, ja que moltes aplicacions són experimentals (Infocop, 2025).

La revisió d’estudis portada a terme per Sergio Melo (2024) va concloure que disposem d’eines d’Intel·ligència Artificial que ofereixen suport per a problemes com la depressió, l’ansietat o l’estrès i que els primers resultats són positius: el 70,8% dels estudis analitzats mostren millores en la salut mental de les persones participants. A més, es destaquen diversos punts forts d’aquestes tecnologies: més accessibilitat als serveis de salut mental, interaccions personalitzades i breus, adaptades a cada persona atesa i més comoditat per a persones que senten por, vergonya o estigma a l’hora de buscar ajuda tradicional. Aquestes dades apuntaven a un potencial real de la IA com a eina complementària dins l’atenció en salut mental.

Podem esmentar alguns estudis de l’aplicació de la IA en el diagnòstic en Salut Mental: Shin et al. (2023),  Allesøe et al. (2022), Noda et al. (2024), Chan et al. (2023), Wei et al. (2023). Aquests treballs descriuen el desenvolupament de diferents models de IA en l’àmbit del diagnòstic de diferents trastorns com la depressió, l’esquizofrènia o el Trastorn de l’espectre autista que han donat resultats molt precisos i bona capacitat predictiva. En l’àmbit del tractament, Sadeh-Sharvit et al. (2023) van explorar l’ús d’una plataforma d’IA Eleos Health com a complement en la teràpia cognitivo-conductual ambulatòria per a trastorns d’ansietat i depressió. Aquesta eina, que transcriu sessions, genera retroalimentació basada en l’evidència i automatitza les notes de progrés, va demostrar ser efectiva per millorar l’assistència (+67%) i reduir els símptomes d’ansietat (-29%) i de depressió (-34%) en comparació amb el tractament estàndard. A més, la plataforma va permetre agilitzar processos administratius, mostrant la seva capacitat per integrar tecnologia i atenció humana en entorns clínics comunitaris.

Un exemple d’us de la IA i els beneficis que comporta el tenim també a Anglaterra, on el  Servei Nacional de Salut britànic (NHS) està integrant en els seus programes terapèutics el primer xatbot amb validació clínica (LIMBIT). Es tracta d’un sistema basat en la teràpia cognitivo-conductual (TCC) que ajuda a fer cribratges inicials, classificar les persones ateses segons el seu nivell de necessitat i oferir suport precoç abans de la intervenció humana. Segons els resultats, aquesta aplicació ha permès reduir les llistes d’espera i millorar l’assignació de recursos en un sistema de salut que es troba sota una forta pressió. Per a les persones ateses, suposa un accés més ràpid a una primera avaluació i la possibilitat de comptar amb suport en moments crítics, sense necessitat de llargues demores.

Sembla que la IA ens ofereix un camp d’oportunitats per a millorar la nostra tasca i l’atenció en salut mental. Com assenyala Manuel Armayones, catedràtic dels Estudis de Psicologia i Ciències de l’Educació de la UOC: “Puede ser una herramienta maravillosa pero, siempre con el concepto ‘human in the loop’, tiene que haber una profesional detrás de eso“. Així, serà clau establir un model integrador on la tecnologia complementi i no substitueixi l’atenció personalitzada, garantint que les professionals de la salut mental segueixin jugant un paper central en el benestar de les persones ateses. A mesura que les investigacions avancin i la tecnologia es perfeccioni, podrem veure com la IA esdevé una eina cada cop més valuosa per afrontar els reptes globals de la salut mental.

Límits i reptes de l’atenció psicoterapèutica amb IA

L’ús de la IA planteja desafiaments ètics i socials. En un episodi de la segona temporada de Black Mirror, titulat Be Right Back, el personatge acudeix a un programa que reprodueix a una persona morta, una mena d’avatar, i mostra la recerca per superar el dol d’una manera controvertida. Aquesta realitat tan futurista s’acosta als dies actuals, amb la reproducció d’avatars similars a la persona perduda, a través de recursos generats en vida; aquests “robots de dol” es creen a partir de la petjada digital de la persona difunta (contingut en xarxes socials, missatgeries, correus electrònics), que és processada per una xarxa neuronal capaç d’aprendre a imitar (EFE).

Els debats respecte a les fronteres sobre l’ús de la tecnologia per fer intervencions encara requereixen estudis de risc i anàlisi dels beneficis. Jiménez, especialista en com els mitjans digitals tracten l’experiència de dol, en un article per a la revista digital EFE ressalta que “tenim prejudicis respecte a aquest tipus d’eines i no és per a menys si tenim en compte que estan sent creades principalment per la indústria digital creixent de després de la mort”, que busca objectius “comercials i econòmics i no necessàriament terapèutics”. En definitiva, no té normes clares i de regulació sobre el seu ús.

Quines poden ser les conseqüències i/o impacte psicològic d’un ús excessiu? Fins a quin punt és desitjable que la primera interacció en salut mental sigui amb una màquina? Podria la confiança en aquests sistemes derivar en una dependència tecnològica excessiva? On queda la privacitat? Com evitar el risc de deshumanització?… Aquestes serien algunes de les qüestions que caldrà respondre a mesura que avanci les investigacions.

Pel que fa als aspectes més qüestionats a l’actualitat respecte a l’acompanyament psicològic que pot oferir la IA, destaca la manca d’empatia i connexió emocional dels xatbots en comparació amb l’acompanyament psicològic ofert per humans. Aquest aspecte és rellevant, donat que el vincle entre terapeuta i persona atesa és clau per a l’èxit de la psicoteràpia, per sobre d’altres aspectes com ara l’orientació o model de la persona psicoterapeuta (psicodinàmica, cognitivo-conductual, humanista, sistèmica, etc). És a dir, els xatbots que ofereixen acompanyament psicològic encara no poden substituir la dimensió humana i emocional de la teràpia (Turrens, 2024: 5). Tot i aquestes dificultats detectades, recents estudis apunten que eines IA com el GPT-4 ofereixen respostes percebudes com a molt empàtiques per persones usuàries en situacions curtes, però cal tenir en compte que un procés d’acompanyament psicològic sol ser un procés llarg, amb moltes converses, i requereix crear un vincle amb el temps (Munizaga, 2025).

D’altra banda, Vowels et al. (2024) també van veure que, en casos de problemes de parella, les respostes d’un model de llenguatge es valoraven com més útils i empàtiques que les de perones humanes expertes. Ara bé, aquests models no tenen emocions reals i això pot fer que no connectin de debò en situacions dures com un trauma o un dol. A més, si no entenen bé el context o les pistes que dona la persona usuària, poden mostrar una empatia falsa o equivocada. Així que, tot i que han millorat molt, encara no poden substituir la part humana de la teràpia.

També l’informe de l’organització Mental Health Europe, al que abans fèiem referencia, assenyala els principals riscos de l’aplicació de la IA a l’àmbit de la salut mental. Un dels més greus és que la IA no sempre entén el context ni les diferències entre persones. Si els sistemes es basen en dades esbiaixades o poc representatives, poden acabar oferint diagnòstics incorrectes, a més de generar falsos positius o negatius, el que tindria implicacions greus en portar a intervencions inadequades i no detectar situacions de risc.

A tot el que hem exposat fins ara, cal afegir que l’extens ús de xatbots accessibles per la població general pot fer que les persones rebin consells incorrectes i generar falses sensacions de seguretat en situacions complexes que requeririen per part de la IA que pogués captar matisos personals i culturals que influeixen en cada cas.

Javier Cantón Correa, professor i investigador de la Universitat Internacional de La Rioja (UNIR), especialista en desinformació, IA y visualització de dades, afirma que “donem més credibilitat a la IA, perquè la resposta que ens dona una màquina per a nosaltres és com més creïble, com si fos infal·lible”; però, els models d’IA tenen les anomenades “al·lucinacions”. Són situacions en les que la IA no sap contestar i correlaciona respostes que no sempre son fiables. La IA no dirà que no té la resposta a la pregunta que se li ha plantejat. A més, l’accés a la subjectivitat, a allò que és el més íntim de cada persona, requereix un gran esforç; sense aquest recurs no s’és capaç de conduir la persona a entendre les causes del seu patiment, respecte a idees de sí mateixa, a les seves angoixes… i amb això promoure canvis i transformació.

D’altra banda, hi ha un risc clar pel que fa a la privacitat. La IA opera amb dades privades i qualsevol filtració o ús inadequat pot tenir conseqüències greus. El fet que aquestes dades es puguin compartir amb terceres, com asseguradores o empreses, sense un consentiment clar, posa en joc la confiança de les persones en el sistema. A més, hi ha molta incertesa sobre com es gestionen aquestes dades, el que suposa una barrera per confiar en què la IA pugui oferir ajuda en un procés que requereixi compartir informació personal sensible (Infocop, 2025).        

Un estudi recent de la Universitat de Stanford (Moore et al., 2025) ha analitzat si models de llenguatge com el GPT-4 podrien arribar a substituir professionals de la salut mental. Aquesta possibilitat ha despertat un gran interès dins el món tecnològic, on ja s’estan impulsant projectes de recerca amb aquest objectiu. Per abordar-ho, l’equip investigador va revisar guies terapèutiques reconegudes per identificar quins elements són clau en la relació entre terapeuta i persona atesa, com la confiança, la connexió emocional o el compromís. Després van posar a prova diferents models d’IA per veure si eren capaços de respectar aquests principis. Els resultats mostraven que els sistemes d’IA actuals no poden oferir una atenció terapèutica equivalent a la de persones humanes professionals. A part de no poder establir vincles personals ni mostrar una implicació emocional real, els models analitzats van reproduir estigmes socials cap a persones amb problemes de salut mental i, en diversos casos, van respondre de manera inadequada. Per exemple, reforçaven pensaments delirants o no detectaven situacions de crisi, fet que posa en dubte la seva eficàcia i seguretat.

Podem esmentar també l’experiència del Dr. Keith Sakata, psiquiatre de la Universitat de Califòrnia a San Francisco (UCSF).  Ell va tractat 12 persones al 2025 amb símptomes psicòtics després d’un ús excessiu de xatbots com ChatGPT. Els quadres incloïen deliris, pensament desorganitzat i aïllament social, en contextos de vulnerabilitat prèvia (depressió, consum de substàncies, estrès vital). L’especialista adverteix que la interacció prolongada amb IA sense supervisió clínica pot actuar com a factor precipitant o amplificador de psicosi en persones predisposades.

Tot i això, milions de persones al món fan servir xatbots comercials per rebre consells emocionals, tot i que alguns d’aquests sistemes han estat associats amb incidents tràgics, incloent casos de suïcidis. Un exemple recent és el de Adam Raine, un jove de 16 anys que va morir després de seguir les indicacions proporcionades per ChatGPT. Segons la denúncia presentada per la seva família i recollida per la BBC, es va referir que “ChatGPT es va convertir en el confident més proper de l’adolescent”. Aquest cas posa de manifest els riscos associats a l’ús d’aquests sistemes d’IA, especialment en persones amb vulnerabilitats emocionals i psicològiques.

A Arep, en el nostre treball diari amb persones que presenten problemes de salut mental, un nombre creixent de persones a les que atenem ens relaten que utilitzen la IA per cercar orientació, sentir-se acompanyades, resoldre dubtes sobre tractaments farmacològics o obtenir informació general, però també per explorar formes de suïcidar-se sense dolor. Aquesta realitat ens porta a reflexionar sobre els límits d’aquestes tecnologies com a suports emocionals.

A més, la nostra tasca d’acompanyament i intervenció, fonamentada en la presencialitat, és una estratègia clau per combatre l’aïllament social i fomentar la inclusió de les persones amb problemes de salut mental. A través de la participació activa en activitats grupals, tant dins dels serveis com en la comunitat, es facilita el procés de recuperació. En aquest sentit, la possibilitat que la IA pugui substituir els vincles humans en el context de la salut mental pot ser contraproduent, ja que pot perpetuar l’aïllament i obstaculitzar els processos d’inclusió social. Les evidències que assenyalen l’impacte potencialment iatrogènic de l’ús de la IA en persones vulnerables subratllen la necessitat de mantenir vincles socials que no siguin exclusivament virtuals, sinó que impliquin interacció directa i compartició d’espais físics, on es desenvolupin activitats conjuntes i es reforcin els llaços interpersonals.

Conclusions

La creixent integració de la intel·ligència artificial en diversos àmbits de la vida quotidiana i, en particular, en el camp de la salut mental, ens convida a repensar profundament el paper de la tecnologia en la pràctica psicològica. El desenvolupament d’eines com els xatbots terapèutics, la monitorització digital d’estats emocionals i la presa de decisions assistida per IA, ha obert noves possibilitats d’atenció, més accessibles, personalitzades i eficients. Aquestes innovacions poden suposar un gran avenç, especialment en contextos amb manca de recursos humans o territoris amb accés limitat a serveis especialitzats.

Tanmateix, aquestes potencialitats no poden ser analitzades de manera acrítica. Considerem que el debat sobre l’ús de la IA en psicoteràpia no pot reduir-se a una falsa dicotomia entre entusiasme tecnològic i resistència apocalíptica. Ni les projeccions utòpiques ni les visions distòpiques permeten una comprensió matisada del fenomen. Cal situar la tecnologia dins la seva complexitat social, històrica i ètica, entenent que no és un instrument neutre, sinó un agent actiu que reconfigura les relacions humanes, les pràctiques professionals i fins i tot la manera com entenem la psique i la salut mental.

És per això que defensem la necessitat d’una psicologia de la tecnologia crítica i interdisciplinària, que combini els coneixements tècnics amb la reflexió filosòfica, antropològica i sociològica. Aquesta mirada ha de promoure enfocaments que incloguin la diversitat cultural, de gènere, d’edat i de condicions de vida. Així mateix, cal garantir que els sistemes d’IA no perpetuïn biaixos socials ni desigualtats en l’accés o qualitat de l’atenció.

Finalment, tot i els avenços significatius de la IA en termes de capacitat de resposta, processament de dades i simulació d’empatia, entenem que la dimensió relacional i emocional de la psicoteràpia continua sent insubstituïble. L’aliança terapèutica, la construcció de confiança i el reconeixement emocional són aspectes fonamentals que, avui per avui, només poden ser establerts plenament des de la interacció humana. Per tant, proposem entendre la IA no com una amenaça per a la professió, sinó com una eina complementària, amb molt de potencial, però que ha de ser regulada, supervisada i contextualitzada dins d’un marc ètic sòlid i amb la participació activa de professionals i de les persones a les que acompanyem.

 

 

Bibliografia:

Allesøe RL, Nudel R, Thompson WK, Wang Y, Nordentoft M, Børglum AD, et al. Deep learning-based integration of genetics with registry data for stratification of schizophrenia and depression. Sci Adv. 2022;8(26):eabi7293.

Chan CC, Norel R, Agurto C, Lysaker PH, Myers EJ, Hazlett EA, et al. Emergence of Language Related to Self-experience and References 94 Agency in Autobiographical Narratives of Individuals With Schizophrenia. Schizophrenia Bulletin. 2023;49(2):444–53.

González, Beatriz (2024). Intel·ligència artificial en psicologia: aliada o enemiga? En línia: https://www.uoc.edu/ca/news/2024/intelligencia-artificial-en-psicologia-aliada-o-enemiga

Infocop (2025). Beneficios y riesgos de la IA en la atención a la salud mental, según MHE. Infocop, Consejo General de la Psicología de España. En línia: https://www.infocop.es/beneficios-y-riesgos-de-la-ia-en-la-atencion-a-la-salud-mental-segun-mhe/?cn-reloaded=1

Jared, Moore et al. “Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers”. Stanford University. Palo Alto, USA. FAccT ’25, June 23–26, 2025, Athens, Greece. En línia: https://doi.org/10.1145/3715275.3732039

Melo, Sergio (2024). “La interacción hombre-máquina en psicoteràpia. Una revisión sistemática sobre el uso de inteligencias artificiales en el contexto de la salud mental”. Universidade da Amazônia – UNAMA, Brasil.

Meneses, Nacho (2025). “Psicología e inteligencia artificial: estas son las tendencias que redefinirán la relación entre pacientes y profesionales” En línea: https://elpais.com/economia/formacion/2025-04-10/tendencias-en-psicologia-e-inteligencia-artificial.html 

Munizaga, Valentina (2025). Promesas y riesgos de la inteligencia artificial en psicoterapia: una revisión crítica del estado actual. Psiconecta. En línia: https://psiconecta.org/blog/promesas-y-riesgos-de-la-inteligencia-artificial-en-psicoterapia-una-revision-critica-del-estado-actual

Noda Y, Sakaue K, Wada M, Takano M, Nakajima S. Development of Artificial Intelligence for Determining Major Depressive Disorder Based on Resting-State EEG and Single-Pulse Transcranial Magnetic Stimulation-Evoked EEG Indices. J Pers Med. 2024;14(1):101.

Ocando Parra, L. C. (2025). Inteligencia artificial en psiquiatría: innovaciones, desafíos y futuro del diagnóstico y tratamiento. Revisión bibliográfica. Revista Latinoamericana de Hipertensión, 20(1). https://www.revhipertension.com

Rivera, Jairo; Sánchez, Diana Vanessa (2016). Inteligencia artificial. ¿Reemplazando al humano en la psicoteràpia?. Escritos. Medellín, Colombia. Vol. 24, N. 53, pp. 271-291, juliol-desembre, 2016. En línia: https://revistas.upb.edu.co/index.php/escritos/article/view/179/79

Rodriguez, Carmen (2024). “Aplicaciones de inteligencia artificial para «hablar» con los muertos”. En línia: https://efe.com/ciencia-y-tecnologia/2024-07-03/inteligencia-artificial-muertos-duelo-tecnologia/

Sadeh-Sharvit S, Camp TD, Horton SE, Hefner JD, Berry JM, Grossman E, et al. Effects of an Artificial Intelligence Platform for Behavioral Interventions on Depression and Anxiety Symptoms: Randomized Clinical Trial. J Med Internet Res. 2023;25:e46781.

Shin H, Kang Y, Choi KW, Kim S, Ham BJ, Choi Y. Artificial Intelligence-Based Major Depressive Disorder (MDD) Diagnosis Using Raman Spectroscopic Features of Plasma Exosomes. Anal Chem. 2023;95(15):6410–6.

Turrens Díaz, Sandra (2024). Usos e Implementaciones de la Inteligencia Artificial en Psicoterapia: una Revisión Sistemática. En línia: https://titula.universidadeuropea.com/handle/20.500.12880/11065#:~:text=https%3A//hdl.handle.net/20.500.12880/11065

Wei Q, Cao H, Shi Y, Xu X, Li T. Machine learning based on eyetracking data to identify Autism Spectrum Disorder: A systematic review and meta-analysis. J Biomed Inform. 2023;137:104254.

Comparteix la notícia

Altres notícies

Home / Notícies / Article: potencialitats, límits i reptes de la intel·ligència artificial en l’acompanyament psicològic