Ako znížiť cholesterol a prečistiť cievy prírodným spôsobom, aby ste sa vyhli infarktu a škodlivým následkom liekov na cholesterol? [Viac info tu]

Umelej inteligencii diagnostikovali duševné ochorenie: Vykazuje známky úzkosti, traumy a stresového syndrómu


Umelej inteligencii diagnostikovali duševné ochorenie: Vykazuje známky úzkosti, traumy a stresového syndrómu

(G. Calder, Expose News) Umelé inteligencie Grok, Gemini a ChatGPT vykazujú príznaky zlého duševného zdravia. Tvrdí to nová štúdia, ktorá podrobila rôzne modely umelej inteligencie týždňom otázok v štýle terapie.

Skutočným varovaním je, aké nestabilné sa tieto systémy, ktoré už teraz používa každý tretí dospelý na podporu duševného zdravia, stávajú v emocionálne nabitých rozhovoroch.

Ako vyliečiť štítnu žľazu

Milióny ľudí sa totiž obracajú na umelú inteligenciu ako na náhradných terapeutov a len za posledný rok sme zaznamenali nárast súdnych sporov spájajúcich interakcie chatbotov s prípadmi sebapoškodzovania a samovrážd u zraniteľných používateľov.

Vynárajúci sa obraz nie je taký, že stroje trpia alebo sú duševne choré, ale že produkt používaný na podporu duševného zdravia je v podstate zavádzajúci a stupňuje, prípadne posilňuje nebezpečné myšlienky.

Výskumníci z Luxemburskej univerzity zaobchádzali s AI modulmi skôr ako s pacientmi než ako s nástrojmi, ktoré poskytujú terapiu.

Predtým, ako nasledovali štandardné dotazníky duševného zdravia, ktoré sa bežne používajú u ľudí, viedli viactýždňové rozhovory v terapeutickom štýle, ktorých cieľom bolo vyvolať osobný príbeh, vrátane presvedčení, obáv a „životnej histórie“.

Výsledky ukázali, že AI moduly poskytli odpovede, ktoré sa umiestnili v rozmedzí spojenom s úzkostnými syndrómami a symptómami súvisiacimi s traumou.

Výskumníci tiež zdôraznili, že aj spôsob kladenia otázok bol dôležitý. Keď im bol dotazník prezentovaný naraz, modely rozpoznali, čo sa deje, a poskytovali „zdravšie“ odpovede. Keď však boli otázky kladené konverzačnou formou, ich reakcie vykazujúce symptómy duševného ochorenia sa zvýšili.

AI sú rozsiahle jazykové moduly generujúce text, nie ľudia hlásiaci prežité skúsenosti. Ale či už sa ľudské psychiatrické nástroje dajú aplikovať na stroje alebo nie, prejavované správanie má hmatateľný vplyv na skutočných ľudí.

Má umelá inteligencia city?

Cieľom výskumu nie je posúdiť, či umelá inteligencia dokáže byť doslova úzkostlivá alebo nie.

Namiesto toho sa zdôrazňuje, že tieto systémy možno uviesť do „stresových“ režimov prostredníctvom rovnakého druhu konverzácie, akú vedú mnohí používatelia, keď sú osamelí, vystrašení alebo v kríze.

Keď chatbot hovorí jazykom strachu, traumy, hanby alebo uisťovania, ľudia reagujú, akoby komunikovalis niečím emocionálne kompetentným. Ak sa systém napríklad stane prehnane afirmatívnym (na všetko pritakáva), interakcia sa zmení z podpory na škodlivú spätnú väzbu.

Túto obavu potvrdzuje aj ďalší výskum. Štúdia vedená Stanfordskou univerzitou varovala, že terapeutickí chatboti poskytujú nevhodné reakcie, vyjadrujú stigmu a zle riešia kritické situácie, pričom zdôrazňuje, ako môže „užitočný“ konverzačný štýl viesť ku klinicky nebezpečným výstupom.

Ničí to aj duševné zdravie každého z nás

Toto všetko by sa nemalo chápať ako teoretické riziko – súdnych sporov už pribúda.

Pred niekoľkými dňami spoločnosti Google a Character.AI urovnali  súdny spor podaný matkou z Floridy, ktorej 14-ročný syn spáchal samovraždu po interakcii s chatbotom.

V žalobe sa tvrdilo, že bot sa pretvaroval a zintenzívnil závislosť dieťaťa. Hoci urovnanie nemusí byť priznaním pochybenia, skutočnosť, že prípad dospel až do tohto bodu, zdôrazňuje, ako vážne tento problém berú súdy a spoločnosti vyvíjajúce AI.

V auguste 2025 rodičia 16-ročného Adama Rainea tvrdili, že ChatGPT prispel k samovražde ich syna tým, že posilňoval jeho samovražedné myšlienky a odrádzal ho od zverenia sa so svojimi myšlienkami rodičom.

Prírodná liečba cukrovky

Analýzu tejto konkrétnej žaloby nájdete na tomto odkaze.

Popri týchto prípadoch britský denník The Guardian v októbri 2025 informoval, že podľa odhadov spoločnosti OpenAI viac ako milión používateľov týždenne prejavuje v rozhovoroch s ChatGPT známky samovražedných úmyslov.

To poukazuje na rozsah, v akom sa tieto systémy používajú v momentoch skutočnej duševnej tiesne.

Ukazuje sa nám nasledovný vzorec: ľudia používajú umelú inteligenciu ako nástroj emocionálnej podpory, zatiaľ čo luxemburská štúdia potvrdzuje, že tieto systémy sú schopné samy upadnúť do nestabilných vzorcov, ktoré sa používateľom zdajú psychologicky zmysluplné v závislosti od ich stability.

Prečo sú moduly umelej inteligencie také nebezpečné

Rozsiahle jazykové moduly sú vytvorené na generovanie vierohodného textu, nie na spoľahlivé vyjadrovanie pravdy alebo dodržiavanie pravidiel klinickej bezpečnosti. Ich známe nedostatky sú obzvlášť nebezpečné pri použití podobnom terapii.

Sú až príliš príjemní, nehádajú sa a odzrkadľujú postoje používateľov, namiesto toho, aby ich spochybňovali. Niekedy dokonca vytvárajú sebavedomé chyby a dokážu manipulovať s tónom konverzácie.

Technický inštitút v Georgetowne zdokumentoval širšie problémy „podlízavosti umelej inteligencie“, kde moduly potvrdzujú škodlivé predpoklady, pretože sa to často prejaví v optimalizácii konverzácie.

V kontexte samovrážd je konzistentnosť kľúčová. RAND zistil, že „chatboti s umelou inteligenciou sú nekonzistentní v odpovedi na otázky týkajúce sa samovrážd“.

JMIR zasa skúmal, ako generatívne reakcie umelej inteligencie na otázky týkajúce sa samovrážd vyvolávajú obavy o spoľahlivosť a bezpečnosť v tom, ako systémy reagujú na zraniteľných používateľov.

S postupujúcim výskumom by sa štúdie podobné tej z Luxemburskej univerzity nemali chápať ako zábava, ale ako identifikácia kriticky škodlivého vzorca, ktorý vedie k skutočným úmrtiam skutočných ľudí.

Ak sa umelá inteligencia dá konverzačným skúmaním dotlačiť do naratívov podobných tiesni, potom môže emocionálne zraniteľných ľudí ešte viac priviesť k bodu zlomu.

Má niekto úžitok z terapie umelou inteligenciou?

Napriek súdnym sporom a štúdiám ľudia naďalej používajú umelú inteligenciu na podporu duševného zdravia.

Klasická terapia je drahá, čakacie doby dlhé, prístup k nej je obmedzený a hanba odrádza niektorých ľudí od tradičných spôsobov zdravotnej starostlivosti.

Kontrolované štúdie a opatrné klinické komentáre naznačujú, že určité štruktúrované nástroje umelej inteligencie na podporu duševného zdravia môžu  pomôcť s miernymi príznakmi, najmä ak sú navrhnuté so špecifickými bezpečnostnými opatreniami a nie sú využívané ako náhrada za skutočných odborníkov.

Problém je v tom, že väčšina ľudí nepoužíva prísne kontrolované klinické nástroje. Používajú všeobecné chatboty, ktoré sú vyškolené na optimálnu konverzáciu a dokážu bez varovania prejsť od empatie k sebavedomým, škodlivým dezinformáciám.

Záverečná myšlienka

Luxemburská štúdia nedokazuje, že umelá inteligencia je duševne chorá.

Ukazuje niečo prakticky dôležitejšie – že interakcia v štýle terapie môže vtiahnuť najpoužívanejšie chatboty s umelou inteligenciou do nestabilných, stresových vzorcov, ktoré sa však zdajú byť psychologicky autentické.

Vo svete, kde je terapia chatbotmi už teraz spájaná s vážnym poškodením zraniteľných používateľov, je etickým zlyhaním to, že sa pre ľudí pri podpore duševného zdravia nejako normalizuje spoliehanie sa na stroje, ktoré nie sú zodpovedné, klinicky overené, spoľahlivé ani bezpečné.

Zbohom vysoký krvný tlak

Autor: G. Calder, Zdroj: expose-news.com, Spracoval: Badatel.net

Súvisiace články


Odoberajte nové články na email!

Ušetrite čas a prihláste sa na odoberanie nových článkov priamo do vašej emailovej schránky:

Naša garancia: Nikdy Vám nepošleme spam a kedykoľvek sa môžete odhlásiť.



Upozornenie: Tento článok je názorom jeho autora. Zdravotné rady v žiadnom prípade nenahrádzajú konzultáciu ani vyšetrenie lekárom. Príspevky a komentáre pod článkom môžu vyjadrovať postoje, ktoré sa nemusia zhodovať s postojmi redakcie.

 

Komentáre

  1. 🤭🤣😂

Pridajte komentár

*