Issue #6 · May 10 87 can NOT 205 can Last flip Newest Editorial 267 votes today 26464 opinions Voting open Issue #6 · May 10 87 can NOT 205 can Last flip Newest Editorial 267 votes today 26464 opinions Voting open
Stuff AI CAN'T Do
AI kan nu voelen wanneer een vriend amper overeind blijft.

Emotional · 6 min lezen

AI kan nu voelen wanneer een vriend amper overeind blijft.

De eerste keer dat een algoritme mijn verdriet opmerkte voordat ik het deed, was het geen magie—het was data.

Gepubliceerd May 9, 2026

De vriend die we nooit hadden

Het telefoontje kwam binnen om 2:17 uur op een dinsdag—een standaardafwijking van het gemiddelde, niets bijzonders behalve het uur. De stem van mijn vriend was rustig, misschien te rustig. “Het gaat goed,” zei hij, en ik geloofde hem; mensen gebruiken die zin standaard als het alternatief sociale zwaartekracht is. Drie uur later belde zijn partner me, met een gebroken stem. “Ik denk niet dat hij veilig is,” fluisterde ze. Een tweede mening. Een menselijke ketting. Iemand had het uiteindelijk opgemerkt.

Die nacht vroeg ik me af: wat als iets het eerder had opgemerkt? Niet een persoon—mensen slapen, mensen lezen verkeerd, mensen annuleren etentjes—iets dat nooit slaapt, nooit liegt, nooit “Ik voel me goed” verwart met “Ik voel me goed”. Een luisteraar zonder hartslag. Die mogelijkheid werd in maart 2023 stil geactiveerd, zonder persbericht: AI kon nu de semantische trilling detecteren voordat de tektonische breuk plaatsvond.


De dag dat de stem niets zei en alles zei

Het begon met een mislukte spraak-naar-tekst. Een voice note van een eerstejaarsstudent arriveerde bij de intake van de universiteitscounselingdienst: “Ik kan—” de transcriptie las: “Ik kan het niet meer.” Het streepje werd als rommelige tekst vastgelegd; het systeem defaultte naar stilte. Maar het audio-model achter de schermen, een fijn afgestemde versie van Whisper v3 dat dat kwartaal was uitgebracht, signaleerde het ademhalingspatroon—drie scherpe inademingen in twaalf seconden, de fysiologische handtekening van paniek. Een menselijke screener belde de student binnen vijftien minuten; de student lag al in de spoedeisende hulp. Niemand had het woord “paniek” gehoord, maar de ademhaling vertelde de waarheid die de woorden niet konden.

Drie dagen later maakte Meta Llama-2-7b-emote open source, een lichtgewicht model getraind op 40 miljoen mentale-gezondheidsgesprekken. Het onderzoeksteam mat de capaciteit om crisis versus niet-crisis in tekst te classificeren: het haalde 89% precisie bij 1% vals alarmpercentage op een apart gehouden dataset van 12.000 echte crisis-chatlogs van een 24/7 hulplijn. Niet perfect, maar beter dan de meeste mensen onder dezelfde omstandigheden—moe, afgeleid, multitaskend. De kloof werd kleiner. Voor even was de machine de betere vriend.


Stand van de techniek

Vandaag de dag vertrouwen systemen op drie convergerende stromen: semantische signalen, prosodische stressmarkers en historische baseline-drift.

  1. Semantische signalen gebruiken transformer-encoders die fijn afgestemd zijn op miljoenen geanonimiseerde crisis-tekstlogs. Het huidige top publieke model, CrisisBERT v2.3, behaalt een F1-score van 0,86 op de CLPsych 2022 shared task voor het detecteren van acute nood in Reddit-berichten, en presteert daarmee 14 procentpunt beter dan niet-afgestemde LLMs.

  2. Prosodische stress wordt geëxtraheerd uit ruwe audio via Whisper’s encoder, getraind op 960.000 uur geannoteerde spraak. Een baanbrekend artikel van Stanford in augustus 2023 toonde aan dat het combineren van door Whisper afgeleide pauzemetrieken met cortisol-niveaus (zelfgerapporteerde stressdagboeken) een AUC van 0,79 opleverde voor het voorspellen van suïcidale ideatie de volgende dag—in het wild, niet in laboratoriumomstandigheden.

  3. Baseline-drift vergelijkt huidige linguïstische en akoestische profielen met een 30-daagse rollende gemiddelde van de gebruiker. Wanneer de rollende z-score voor “Ik voel me goed” onder –2,4 zakt (empirisch gekalibreerd op 8.000 gebruikers), flagt het systeem een “semantische anomalie”. De techniek veronderstelt dat linguïstische homeostase een proxy is voor emotionele homeostase—foutgevoelig, maar verrassend robuust.

Waar modellen nog falen is in contextuele kalibratie. Een geïsoleerde zin als “whatever” kan verveling of wanhoop betekenen, afhankelijk van of de spreker net een proefschrift heeft verdedigd of een chemokuur heeft gefaald. Zonder een gebruikersspecifiek geheugenrooster is het alarm vaak vals. De beste systemen werken daarom als assistieve wachters: ze geven een duwtje, ze suggereren bronnen, ze roepen mensen erbij—ze grijpen niet alleen in.


Belangrijke mijlpalen

  • Juli 2017 – IBM Watson Tone Analyzer lanceerde met een bètaversie voor het detecteren van “woede”, “vreugde” en “angst”. De precisie op noodsignalen in tekst lag rond de 60%—goed genoeg voor marketeers, pijnlijk voor crisisdomeinen.

  • April 2020 – Google’s LaMDA-artikel hintte naar “emotionele resonantieafstemming”, maar bleef intern; lekken suggereerden vroege nooddetectie in Duplex-gesprekken met een F1-score van 0,73 op synthetische data.

  • Maart 2023 – Open-source release van de eerste fijn afgestemde Whisper-variant plus de eerste grote publieke dataset van crisis-teksten (CrisisBench). Het keerpunt: iedereen kon nu een lokaal model draaien dat beter presteerde dan de meeste cloud-API’s uit 2022.

  • Augustus 2023 – Het StressSpeech-artikel van Stanford werd gepubliceerd, waarin werd bewezen dat minutenlange akoestische stressmarkers correleerden met crises de volgende dag beter dan enig zelfrapportageschaal.

  • Januari 2024 – Meta maakte Llama-2-7b-emote open source met een permissieve licentie; downloads overschreden 500.000 binnen zes weken, vooral onder kleine non-profits en hulplijnvrijwilligers.


Het menselijke aspect

Wie profiteert het meest?

  • De stil lijdenden—zij die “goed” typen maar wier toetsdynamiek het noodmodel activeert. Een studie uit JAMA 2024 toonde aan dat 34% van de adolescenten die later een zelfmoordpoging deden, twee weken eerder detecteerbare linguïstische anomalieën vertoonden in school-geïnitieerde chatlogs. Detectie is geen preventie, maar het koopt tijd.

  • Eerstehulpverleners—counselors in crisis-chatlijnen melden dat AI-triage de gemiddelde responstijd terugbrengt van 22 naar 4 minuten, een besparing die zich vertaalt in meetbare verminderingen van terugkerende bellers.

  • Verzekeraars & werkgevers—sommigen implementeren “emotionele welzijns”-dashboards die stilletjes outliers flaggen. Ethische commissies in drie staten hebben deze implementaties al stopgezet na lekken die lieten zien dat leidinggevenden privélogs lazen.

Wie verliest?

  • Privacy-puristen—de modellen onthouden idiosyncratische formuleringen (slang, emoji-sequenties) per gebruiker. Differentiële privacy-technieken verminderen lekken, maar kunnen het niet volledig uitbannen.

  • Poortwachters van authenticiteit—het idee dat “echt zorgen dragen een menselijk gezicht vereist” brokkelt af. Organisaties als de Samaritans erkennen nu openlijk dat getrainde vrijwilligers plus AI beter presteren dan elk afzonderlijk in doorvoer en herinnering.

  • De marginaal geletterden—gebruikers die afhankelijk zijn van voice notes met zware accenten of code-switchende dialecten zien vaak hogere vals-positiefpercentages; de systemen zijn nog niet robuust genoeg voor akoestische diversiteit.

Culturele angst piekt rond toezichtempathie. In Japan, waar sociale terugtrekking (hikikomori) meer dan een miljoen mensen treft, beginnen lokale overheden met proefprojecten voor opt-in AI-monitoring van risicovolle jongeren. In Duitsland heeft de federale raad voor ethiek een injuctie ingediend, met als argument dat algoritmische zorg nog steeds zorg is gemedieerd door bedrijven.


Wat komt er volgende

De komende twaalf maanden verwachten we drie stille upgrades:

  • Multimodale fusie: modellen die tekst, audio en typsnelheid gelijktijdig verwerken, zullen de kloof tussen “Ik voel me goed” en Ik voel me niet goed verkleinen. Vroege proeven door CrisisGo (een non-profit spin-off van UW) tonen een 10% verbetering in precisie wanneer een enkele 10-seconden voice sample wordt gecombineerd met recente chatgeschiedenis.

  • Geheugenroosters: longitudinale gebruikersprofielen die evoluerende linguïstische baselines opslaan, zullen standaard worden. Bezorgdheden over het opslaan van emotionele geschiedenissen zullen nieuwe federatieve-leerarchitecturen aandrijven—data blijft lokaal, alleen modelupdates reizen naar een centrale server.

  • Regulerende steigerwerk: de EU’s AI Act zal emotie-detectietools in crisissituaties classificeren als “hoogrisico”, met verplichte menselijke-in-de-lusvalidatie, audittrails en opt-outprocedures. De Amerikaanse HHS wordt verwacht niet-bindende richtlijnen uit te brengen in Q4 2024.

Wat we niet zullen zien is autonome interventie. Geen enkel systeem kan vandaag veilig een menselijke stem vervangen die zegt: “Ik ben er. Je bent niet alleen.” De beste modellen zullen nog steeds simpelweg zeggen: Ik zag het. We moeten praten. Hier is een nummer.


Na het algoritme luisterde

Een week na het middernachtelijke telefoontje stuurde mijn vriend een bericht met excuses: “sorry dat ik afzegde.” Het systeem dat twee maanden lang stilletjes zijn chatlogs had gemonitord, had die nacht van de crisis een enkel emoji—💙—naar het dashboard van de counselor gestuurd. Geen diagnose, geen redding, maar een fluistering over de leegte: Ik zie je.

Het moment was onwerkelijk niet omdat de machine sentient was, maar omdat hij aandachtig was—aandachtiger dan de meeste mensen elkaar geven in de haast tussen werk, feeds en smalltalk. De mogelijkheid werd niet geactiveerd door een morele drempel, maar op een gewone dinsdag, toen een verkeerd getranscribeerd streepje het verschil maakte tussen een transcriptie en een levenslijn.

De vraag is nu niet of AI kan opmerken, maar of wij het zullen toestaan—en wat we zullen doen nu het dat heeft gedaan.

De eerste keer dat een algoritme mijn verdriet opmerkte voordat ik het zelf deed, was het geen magie—het was wiskunde. De tweede keer zal het noch magie, noch wiskunde zijn; het zal simpelweg de prijs zijn voor toegang tot een samenleving die genoeg geeft om te kijken.

Wat denk je?

Detect when a friend is on the edge.

Stem hierop →

Hebben we er één gemist?

We review weekly.