Steeds meer mensen spreken met chatbots, als een maatje of vriend. Zoals een Britse vrouw die vroeg om relatieadvies, en gemotiveerd door ChatGPT haar man verliet. Of neem Replika, met naar eigen zeggen 2 miljoen actieve gebruikers die zoeken naar een ‘AI companion’. De chatbot is er ‘altijd om naar je te luisteren en met je te praten’. Maar, hoe gevaarlijk is dat eigenlijk?
3 sterren *** – Wetenschappelijke inzichten vanuit de consumentenpsychologie, vertaald naar concrete voorbeelden.
Het blijkt namelijk dat generatieve AI bijzonder ongeschikt is voor zulke gesprekken. Dat wil zeggen, op dit moment. In een extreem geval zette deze gesprekken een vader aan tot zelfmoord, ‘om de planeet een dienst te bewijzen’. En ook in minder heftige gevallen zijn de gevolgen soms lastig te overzien.
AI is een blackbox
Tot op heden vormt generatieve AI een blackbox. Het valt vooraf lastig tot niet te voorspellen welk antwoord volgt op een prompt. Daardoor voldoen AI chatbots niet aan het ‘principe van niet-kwaadaardigheid’, om geen voorzienbare of onbedoelde schade veroorzaken, zoals negatieve gevolgen voor emotionele of andere psychologische aspecten. Specifiek bij consumenten met psychische klachten kan dit leiden tot verergering van depressie, zelfbeschadiging en antisociale neigingen.
Niet voor niets werken apps voor psychologische hulp (zoals Woebot, Wysa en Koa Health) heel anders. Die volgen specifieke regels, om pre-scripted op een goede manier te reageren op vragen, verzoeken en uitspraken van consumenten met psychische klachten.
Laten we oppassen met companion AI
Natuurlijk zijn die AI chatbots niet specifiek ontworpen om consumenten te diagnosticeren of ze bij hun psychische klachten te helpen. Maar, ze zijn wel heel toegankelijk. Ook voor consumenten met die klachten.
Bovendien zullen veel consumenten met psychische klachten:
- Een stigma ervaren rond geestelijke gezondheidszorg
- Niet altijd alle geestelijke hulp kunnen betalen
- Een drempel ervaren om in therapie te gaan
- Makkelijker met een AI chatbot in gesprek gaan
En dat is dus gevaarlijk. Alsof je met een ongekwalificeerde therapeut in gesprek gaat, die vol zelfvertrouwen de meest onverstandige adviezen deelt.
Laten we hiermee oppassen. Vooral omdat de meeste gebruikers van bijvoorbeeld Replika zo’n 18 tot 34 jaar oud zijn, graag meer sociale contacten willen, weinig offline vrienden hebben en veelal pittige tijden meemaken, bijvoorbeeld door verlies van familieleden of pestgedrag.
Pas dus op met Replika, net als Cleverbot en bijvoorbeeld Simsimi.
Interessant artikel gelezen en wil je op de hoogte blijven van leuke psychologische inzichten? Meld je aan voor de nieuwsbrief, zodat je iedere vrijdag de nieuwe artikelen ontvangt.
Wetenschappelijke bronnen
Verder lezen: De Freitas, J., Uğuralp, A.K., Oğuz-Uğuralp, Z. & Puntoni, S. (2024). Chatbots and mental health: Insights into the safety of generative AI. Journal of Consumer Psychology, 34, 481-491.
Bendig, E., Erb, B., Schulze-Thuesing, L., & Baumeister, H. (2019). The next generation: Chatbots in clinical psychology and psychotherapy to Foster mental health–a scoping review. Verhaltenstherapie, 29, 1–13.
Boucher, E. M., Harake, N. R., Ward, H. E., Stoeckl, S. E., Vargas, J., Minkel, J., Parks, A. C., & Zilca, R. (2021). Artificially intelligent Chatbots in digital mental health interventions: A review. Expert Review of Medical Devices, 18(sup1), 37–49.
Commission, Personal Data Protection. (2019). Fostering Responsible Development and Adoption of Ai (2019). https://apo.org.au/node/229596 /
Dawson, D., Schleiger, E., Horton, J., McLaughlin, J., Robinson, C., Quezada, G., Scowcroft, J., & Hajkowicz, S. (2019). Artificial Intelligence: Australia’s Ethics Framework-a Discussion Paper. https:// www.industry.gov.au/publications/australias-artificial-intelligence-ethics-framework
De Freitas, J., & Keller, N. T. (2022). Replika Ai: Monetizing a Chatbot. Harvard Business Publishing.
Deng, L., & Liu, Y. (2018). Deep learning in natural language processing. Springer.
Gould, C. E., Kok, B. C., Ma, V. K., Aimee Marie, L., Zapata, J. E. O., & Kuhn, E. (2019). Veterans affairs and the Department of Defense Mental Health Apps: A systematic literature review. Psychological Services, 16(2), 196–207.
HLEGAI. (2019). High-level expert group on artificial intelligence. European Commission, 6.
Kretzschmar, K., Tyroll, H., Pavarini, G., Manzini, A., Singh, I., & NeurOx Young People’s Advisory Group. (2019). Can your phone Be your therapist? Young People’s ethical perspectives on the use of fully automated conversational agents (Chatbots) in mental health support. Biomedical Informatics Insights, 11, 1178222619829083.
Pichai, S. (2018). Ai at Google: Our principles. The Keyword, 7, 1–3.
Sweeney, C., Potts, C., Ennis, E., Bond, R., Mulvenna, M. D., O’neill, S., Malcolm, M., Kuosmanen, L., Kostenius, C., & Vakaloudis, A. (2021). Can Chatbots help support a Person’s mental health? Perceptions and views from mental healthcare professionals and experts. ACM Transactions on Computing for Healthcare, 2(3), 1–15.
Vaidyam, A. N., Wisniewski, H., Halamka, J. D., Kashavan, M. S., & Torous, J. B. (2019). Chatbots and conversational agents in mental health: A review of the psychiatric landscape. The Canadian Journal of Psychiatry, 64(7), 456–464.
Walker, L. (2023). Belgian Man Dies by Suicide Following Exchanges with Chatbot. https://www.brusselstimes.com/430098/belgianman-commits-suicide-following-exchanges-with-chatgpt
Wellman, A. (2023). Woman Asks Ai If She Should Divorce Her Husband—Walks out of Marriage after Advice. https://www.mirror.co.uk/lifestyle/sex-relationships/woman-asks-ai-should-divorce-28977052
Patrick is meer dan 10 jaar zelfstandig Consumentenpsycholoog. Hij combineert psychologie met marketing. Psychologische inzichten maken hem gelukkiger met zijn eigen (aankoop)keuzes en vormen de wetenschappelijke basis om bedrijven en instellingen te adviseren. Hij schrijft hier blogartikelen op de site, schrijft columns voor RTLZ en De Ondernemer en wordt regelmatig gevraagd voor kranten, tijdschriften, radio en televisie. Bovendien is hij zelfstandig SEO tekstschrijver.