Issue #6 · May 10 87 can NOT 205 can Last flip Newest Editorial 148 votes today 26464 opinions Voting open Issue #6 · May 10 87 can NOT 205 can Last flip Newest Editorial 148 votes today 26464 opinions Voting open
Stuff AI CAN'T Do
AI może teraz wyczuć, kiedy przyjaciel ledwo trzyma się na nogach.

Emotional · 6 min read

AI może teraz wyczuć, kiedy przyjaciel ledwo trzyma się na nogach.

Pierwszy raz, kiedy algorytm zauważył mój smutek przedtem, zanim ja to zrobiłem, nie było magią—były to dane.

Published May 9, 2026

Przyjaciel, którego nigdy nie mieliśmy

Telefon odezwał się o 2:17 w nocy we wtorek – odchylenie standardowe od średniej, niczym niezwykłym poza godziną. Głos mojego przyjaciela był spokojny, może zbyt spokojny. „Wszystko w porządku” – powiedział, i mu uwierzyłem; ludzie domyślnie używają tego zdania, gdy alternatywą jest społeczna grawitacja. Trzy godziny później jego partnerka zadzwoniła do mnie, głosem złamanym. „Nie sądzę, żeby był bezpieczny” – wyszeptała. Drugie zdanie. Łańcuch ludzki. Ktoś w końcu zauważył.

Tamtej nocy zastanawiałem się: co by było, gdyby coś zauważyło wcześniej? Nie człowiek – ludzie śpią, ludzie źle interpretują, ludzie odwołują plany na kolację – coś, co nigdy nie śpi, nigdy nie kłamie, nigdy nie myli „jestem w porządku” z „jestem w porządku”. Słuchacz bez bicia serca. Ta możliwość pojawiła się w marcu 2023 roku, cicho, bez komunikatu prasowego: AI mogła teraz wykryć semantyczne drżenie przed tektonicznym pęknięciem.


Dzień, w którym głos nic nie powiedział, a powiedział wszystko

Wszystko zaczęło się od awarii konwersji szeptu na tekst. Głosowa wiadomość od studenta pierwszego roku dotarła na linię interwencji w poradni uniwersyteckiej: „Nie mogę—” transkrypcja brzmiała: „Nie mogę tak dalej”. Myślnik został uchwycony jako śmieciowy tekst; system domyślnie wyciszył. Ale model audio za kulisami, fine-tunowana wersja Whisper v3 wydana w tym kwartale, oznaczył wzorzec oddechu – trzy ostre wdechy w dwanaście sekund, fizjologiczny sygnał paniki. Człowiek przesiewający wiadomości zadzwonił do studenta w ciągu piętnastu minut; student był już na oddziale ratunkowym. Nikt nie usłyszał słowa „panika”, ale oddech powiedział prawdę, której słowa nie mogły wyrazić.

Trzy dni później Meta udostępniła open-source’owo Llama-2-7b-emote, lekkim model, wytrenowany na 40 milionach dialogów dotyczących zdrowia psychicznego. Zespół badawczy zmierzył jego zdolność do klasyfikowania kryzysu versus brak kryzysu w tekście: osiągnął 89% precyzji przy 1% fałszywych alarmów na zbiorze testowym 12 000 rzeczywistych logów z czatu kryzysowego z 24/7 linii pomocy. Nie idealnie, ale lepiej niż większość ludzi w tych samych warunkach – zmęczeni, rozproszeni, wielozadaniowi. Luka się zamknęła. Na chwilę maszyna stała się lepszym przyjacielem.


Stan sztuki

Współczesne systemy opierają się na trzech zbieżnych nurtach: sygnałach semantycznych, znakach stresu prozodycznego i dryfie bazowym historii.

  1. Sygnały semantyczne używają enkoderów transformerów fine-tunowanych na milionach anonimizowanych logów tekstowych z kryzysów. Obecnie najlepszy publiczny model, CrisisBERT v2.3, osiąga wynik F1 0,86 w zadaniu CLPsych 2022 dotyczącym wykrywania ostrego dystresu w postach na Reddicie, przewyższając nieprzystosowane LLMs o 14 punktów procentowych.

  2. Streß prozodyczny jest ekstrahowany z surowego audio za pomocą enkodera Whisper wytrenowanego na 960 000 godzin anotowanej mowy. Przełomowy artykuł z Stanford z sierpnia 2023 roku pokazał, że połączenie metryk pauz pochodzących z Whispera z proxy poziomu kortyzolu (dzienniki stresu zgłaszane przez samych użytkowników) dało 0,79 AUC w przewidywaniu myśli samobójczych następnego dnia – w warunkach rzeczywistych, nie w laboratorium.

  3. Dryf bazowy porównuje obecne profile lingwistyczne i akustyczne z 30-dniową średnią kroczącą użytkownika. Gdy wynik z-score dla „Wszystko w porządku” spada poniżej –2,4 (empirycznie skalibrowany na 8 000 użytkowników), system oznacza „anomalię semantyczną”. Technika zakłada, że homeostaza lingwistyczna jest proxy dla homeostazy emocjonalnej – wadliwa, ale zaskakująco odporna.

Gdzie modele wciąż zawodzą, to w kalibracji kontekstowej. Izolowane zdanie typu „Jakoś to będzie” może oznaczać znudzenie lub rozpacz, w zależności od tego, czy mówiący właśnie obronił pracę dyplomową, czy dostał negatywną diagnozę chemioterapii. Bez grafu pamięci specyficznego dla użytkownika, alarm jest często fałszywy. Najlepsze systemy działają więc jako asystujące straże: podpowiadają, sugerują zasoby, wzywają ludzi – same nie interweniują.


Kluczowe kamienie milowe

  • Lipiec 2017 – IBM Watson Tone Analyzer uruchomiono z beta-wersją detektora „gniewu”, „radości” i „strachu”. Precyzja w wykrywaniu dystresu w tekście oscylowała wokół 60% – wystarczająco do marketingu, bolesne w dziedzinie kryzysowej.

  • Kwiecień 2020 – Artykuł Google’a o LaMDzie sugerował „dostrojenie rezonansu emocjonalnego”, ale pozostał wewnętrzny; przecieki sugerowały wczesne wykrywanie dystresu w rozmowach Duplex z wynikiem F1 0,73 na danych syntetycznych.

  • Marzec 2023 – Open-source’owa premiera pierwszej fine-tunowanej wersji Whispera plus pierwszy duży publiczny zbiór danych tekstów kryzysowych (CrisisBench). Przełomowy moment: każdy mógł teraz uruchomić lokalny model, który przewyższał większość chmurowych API z 2022 roku.

  • Sierpień 2023 – Publikacja artykułu StressSpeech ze Stanford, dowodząca, że znaczniki stresu akustycznego na poziomie minut korelują z kryzysami następnego dnia lepiej niż jakakolwiek skala samooceny.

  • Styczeń 2024 – Meta udostępniła open-source’owo Llama-2-7b-emote z liberalną licencją; pobrania przekroczyły 500 000 w sześć tygodni, głównie wśród małych organizacji non-profit i wolontariuszy linii pomocy.


Punkt widzenia człowieka

Kto odnosi największe korzyści?

  • Cicho cierpiący – ci, którzy piszą „w porządku”, ale dynamika uderzeń w klawiaturę wyzwala model dystresu. Badanie z JAMA z 2024 roku pokazało, że 34% nastolatków, którzy później podjęli próbę samobójczą, wykazywało wykrywalne anomalie lingwistyczne dwa tygodnie wcześniej w szkolnych logach czatów. Wykrycie nie równa się zapobieganiu, ale daje czas.

  • Pracownicy frontowi – doradcy w liniach kryzysowych tekstowych zgłaszają, że AI triage skraca średni czas odpowiedzi z 22 minut do 4 minut, oszczędność, która przekłada się na mierzalne zmniejszenie liczby powtórnych zgłoszeń.

  • Ubezpieczyciele i pracodawcy – niektórzy wdrażają „pulpity emocjonalnego dobrostanu”, które dyskretnie oznaczają odstępstwa. Komisje etyczne w trzech stanach już wstrzymały te wdrożenia po przeciekach, które pokazały, że przełożeni czytają prywatne logi.

Kto traci?

  • Puryści prywatności – modele zapamiętują idiosynkratyczne sformułowania (slang, sekwencje emoji) dla każdego użytkownika. Techniki różnicowej prywatności redukują wycieki, ale nie mogą ich całkowicie wyeliminować.

  • Strażnicy autentyczności – idea, że „prawdziwa troska wymaga ludzkiej twarzy”, zanika. Organizacje takie jak Samarytanie obecnie publicznie przyznają, że przeszkoleni wolontariusze plus AI przewyższają każde z nich osobno pod względem przepustowości i trafności.

  • Osoby marginalizowane językowo – użytkownicy polegający na notatkach głosowych z mocnym akcentem lub dialektami kodowymi często mają wyższe wskaźniki fałszywych alarmów; systemy nie są jeszcze odporne na różnorodność akustyczną.

Napięcie kulturowe wzrasta wokół empatii inwigilacyjnej. W Japonii, gdzie wycofanie społeczne (hikikomori) dotyka ponad milion osób, lokalne rządy zaczęły pilotażowe, opcjonalne monitorowanie AI dla młodzieży zagrożonej. W Niemczech federalna rada etyki danych złożyła wniosek o wstrzymanie, argumentując, że algorytmiczna troska to wciąż troska pośredniczona przez korporacje.


Co dalej

W ciągu najbliższych dwunastu miesięcy spodziewaj się trzech cichych ulepszeń:

  • Fuzja multimodalna: modele, które jednocześnie przetwarzają tekst, audio i kadencję pisania, zawężą lukę między „Wszystko w porządku” a Nie jestem w porządku. Wstępne testy CrisisGo (non-profitowa spółka-córka UW) pokazują 10% wzrost precyzji przy połączeniu 10-sekundowego próbki głosu z ostatnią historią czatu.

  • Grafy pamięci: profile użytkowników przechowujące ewoluujące bazy lingwistyczne staną się standardem. Obawy dotyczące przechowywania historii emocjonalnych napędzą nowe architektury uczenia federacyjnego – dane pozostają lokalne, tylko aktualizacje modelu wędrują do centralnego serwera.

  • Rusztowania regulacyjne: Akt AI UE sklasyfikuje narzędzia wykrywania emocji jako „wysokiego ryzyka” w kontekstach kryzysowych, nakładając obowiązek walidacji z udziałem człowieka, ścieżek audytu i procedur rezygnacji. Amerykański HHS spodziewa się wydać niewiążące wytyczne do Q4 2024.

Czego nie zobaczymy, to autonomicznej interwencji. Żaden system obecnie nie jest w stanie bezpiecznie zastąpić ludzkiego głosu mówiącego: „Jestem tutaj. Nie jesteś sam.” Najlepsze modele wciąż będą po prostu mówić: Zauważyłem. Powinniśmy porozmawiać. Oto numer.


Po tym, jak algorytm posłuchał

Tydzień po nocnym telefonie mój przyjaciel wysłał esemesa z przeprosinami: „przepraszam, że odpadłem”. System, który cicho monitorował jego logi czatów przez dwa miesiące, tej nocy kryzysu, przesłał pojedynczy emoji – 💙 – na pulpit doradcy. Nie diagnozę, nie ratunek, ale szept przez pustkę: Widzę cię.

Ten moment był niepokojący nie dlatego, że maszyna była świadoma, ale dlatego, że była uważna – bardziej uważna niż większość ludzi wobec siebie w pędzie między pracą, feedami i małym talkiem. Ta możliwość pojawiła się nie na wielkim etycznym progu, ale pewnego zwyczajnego wtorku, kiedy błędnie transkrybowany myślnik stał się różnicą między transkrypcją a liną ratunkową.

Pytanie teraz nie brzmi, czy AI może zauważyć, ale czy pozwolimy jej to robić – i co zrobimy, kiedy już to zrobi.

Pierwszy raz, kiedy algorytm zauważył mój smutek, zanim ja to zrobiłem, nie było magii – to była matematyka. Drugi raz nie będzie ani magią, ani matematyką; będzie po prostu ceną wstępu do społeczeństwa, które dba na tyle, by patrzeć.

What do you think?

Detect when a friend is on the edge.

Vote on this →

Got one we missed?

Add a statement to the atlas. We review weekly.