• Tema central: la relació entre intel·ligència artificial (IA) i salut mental, amb èmfasi en adolescents, ús de bots, riscos de dependència i privacitat, i el paper insubstituïble del vincle humà.
• Missatge clau: la IA pot ser eina útil si hi ha supervisió professional i no substitueix la relació terapèutica ni les relacions humanes.
"La IA no és sinònim d’informació contrastada."
"El sofriment no s’ha de resoldre de forma instantània; l’encontre humà és insubstituïble."
• La intel·ligència (del llatí, relacionat amb “elegir”) és la capacitat de discernir i resoldre problemes i té múltiples facetes no automàtiques.
• La IA és una rama de la informàtica que imita conductes intel·ligents: des de classificar dades fins a conversar, generar textos o fins i tot interpretar emocions.
• Preocupació central: el creixement vertiginós i la seva implantació massiva en mòbils, xarxes, feina i fins i tot en espais terapèutics.
• Vivim en una cultura de la immediatesa: volem respostes ràpides, poca tolerància a l’espera i a la incertesa.
• La IA encaixa perquè respon de seguida, sense dubtar, i és accessible 24/7 (p. ex. bots d’ajuda emocional).
• Advertiment: els resums IA en cercadors (p. ex. Google) poden no estar verificats ni entendre ironia/context.
• Per a adolescents aïllats o amb bullying, els bots poden actuar com a “amics incondicionals”: sempre disponibles i sense judici.
• Risc: substituir el vincle real i evitar situacions que generen ansietat pot frenar el procés de creixement i la construcció subjectiva.
• Existeixen plataformes dissenyades com a “amic interactiu” per a nens amb TEA o altres perfils.
• Pot ser positiu si aporta estructures i rutines, però només si no es descarta el vincle humà i la interacció social presencial.
• El vincle d’aferrament és essencial des de bebès: la mirada i reconeixement de la figura de cura és vital.
• En teràpia, més enllà d’una resposta funcional, es treballa: vincle, espera, obertura de preguntes, sostenir l’angoixa i tolerar el buit — aspectes no automatitzables.
• IA “entre bastidors”: analitza i sintetitza dades, detecta patrons i pot optimitzar diagnòstics — útil si hi ha supervisió professional.
• IA generativa (bots, Replika, ChatGPT): interacció directa que pot simular converses terapèutiques o d’amistat; el risc és suplantar la relació terapèutica o social.
• Exemple de limitació: una resposta IA va recomanar “cola per enganxar el formatge” a la pizza per no detectar la ironia d’un TikTok — alerta sobre errors greus en àmbits complexos com la salut mental.
• Dependència d’eines automatitzades i pèrdua de pensament crític.
• Manca de supervisió: recomanacions inadequades o potencialment perjudicials.
• Biaixos algorítmics (culturals, socials, de gènere): resultats inequitatius per a diferents orígens.
• Privacitat i seguretat: maneig de dades sensibles (historials emocionals, converses) amb dubtes sobre emmagatzematge, ús i protecció.
• L’anonimat és sovint una il·lusió: el que diem pot ser analitzat, venut o reutilitzat en altres algoritmes.
• Plataformes “gratuïtes”: si el servei no es paga amb diners, es paga amb dades (informació i imatges compartides poden tenir ús desconegut).
• Observació social: bots que simulen psicòlegs o amics reben més de 3 milions de visites diàries (majoritàriament 16–30 anys), símptoma de la necessitat d’interacció i la seva digitalització.
• Utilitza la IA com a eina de suport, no com a substitut de la teràpia ni del vincle humà.
• Contrasta informació amb professionals i fonts fiables; vigila la veracitat i el context.
• Sigues conscient de la privacitat: què comparteixes, on i amb quina finalitat.
• Si vius malestar emocional: demana ajuda i parla amb algú. La teràpia pot ser presencial o en línia, però sempre amb subjectivitat i vincle.
• Recordatori clau: el sofriment no es resol instantàniament; cal temps, pensament i acompanyament.