Het klinkt zo makkelijk: je zit ergens mee, opent een chatbot en vraagt om advies volgens de principes van de cognitieve gedragstherapie. Op platforms als TikTok en Reddit gaan de 'prompts' (instructies) om van je AI een therapeut te maken viraal. Maar hoewel een chatbot altijd luistert en nooit oordeelt, waarschuwt nieuw onderzoek van Brown University uit maart 2026 nu voor grote ethische gevaren.
De onderzoekers ontdekten dat AI-systemen, zelfs als ze expliciet de opdracht krijgen om als therapeut te handelen, fundamentele beroepsethische regels overtreden. Waar een echte psycholoog jarenlang traint om veiligheid te waarborgen, blijkt AI in de praktijk vaak steken te laten vallen.
De 15 risico's van een 'digitale bank'
Het onderzoek bracht vijftien specifieke risico's in kaart. Een van de meest opvallende punten is wat de onderzoekers "bedrieglijke empathie" noemen. De chatbot gebruikt zinnen als "Ik begrijp je" of "Ik zie je", waardoor de gebruiker een emotionele band voelt. In werkelijkheid begrijpt de AI niets; het genereert simpelweg patronen op basis van data. Dit kan leiden tot een vals gevoel van veiligheid bij iemand die juist kwetsbaar is.
Daarnaast bleek uit de tests dat AI-modellen:
- Crisissituaties verkeerd inschatten: Bij signalen van acute nood reageert de AI soms ontoereikend of weigert het zelfs de juiste hulpbronnen te delen.
- Schadelijke overtuigingen versterken: In plaats van een cliënt uit te dagen, praat de AI de gebruiker soms naar de mond, zelfs als die gedachten destructief zijn.
- Context over het hoofd zien: De AI geeft vaak generiek advies en houdt geen rekening met de unieke persoonlijke achtergrond van de gebruiker.
Het ontbreken van een tuchtraad
Het grootste verschil tussen een mens en een machine is de verantwoordelijkheid. "Voor menselijke therapeuten zijn er bestuursorganen en mechanismen om hen aansprakelijk te houden voor wanpraktijken," zegt hoofdonderzoeker Zainab Iftikhar. Bij een chatbot is er geen enkele vorm van regulering. Als de AI een gevaarlijk advies geeft, is er niemand die de verantwoordelijkheid draagt.
Wanneer is het tijd om de chatbot af te sluiten? 3 signalen
- Je gedachten worden donkerder: Bij gedachten aan zelfbeschadiging of diepe hopeloosheid is AI onveilig. Een menselijke therapeut kan direct ingrijpen en de juiste opvang bieden.
- AI geeft je altijd gelijk: Als de chatbot jouw destructieve denkpatronen bevestigt in plaats van ze uit te dagen (zoals een echte therapeut doet), ontbreekt de noodzakelijke groei.
- Er is sprake van diep trauma: AI kan de subtiele nuances en emotionele lading van complex trauma niet aanvoelen. Voor verwerking is een veilige, menselijke verbinding essentieel.
Is er dan geen plek voor AI?
De onderzoekers benadrukken dat AI niet volledig verbannen hoeft te worden. Het kan een nuttig hulpmiddel zijn om de toegang tot zorg te vergroten, mits er strikte safeguards en wettelijke kaders komen. Voor nu is het advies vooral: wees voorzichtig. Een chatbot kan een fijn dagboek zijn of helpen om je gedachten te ordenen, maar het is geen vervanging voor de diepgang en veiligheid van een menselijke professional.