Spoločnosť OpenAI v pondelok oznámila zavedenie novej funkcie v ChatGPT, ktorá má používateľov počas dlhých sedení jemne upozorňovať, aby si dali pauzu. V blogovom príspevku uviedli, že túto funkciu budú priebežne dolaďovať, aby bola čo najprirodzenejšia a najpríjemnejšia. Informuje o tom Gizmodo.

Popri tom OpenAI pracuje aj na tom, aby sa model lepšie vyrovnával s užívateľmi, ktorí môžu vykazovať známky psychických problémov. AI totiž môže na niektorých jedincov pôsobiť omnoho osobnejšie než bežná technológia – a práve to môže byť problém.

OpenAI otvorene priznáva, že spolupracuje s odborníkmi, aby chatbot vedel vhodnejšie reagovať na kritické momenty, ako sú náznaky emocionálneho alebo psychického vypätia. A nie náhodou.

Server Futurism ešte v júni zverejnil prípady používateľov, ktorí sa po dlhých konverzáciách s ChatGPT prepadli do bludov. Niektorí vnímali chatbot ako duchovného sprievodcu či vyššiu bytosť, iní prišli o kontakt s realitou, prerušili vzťahy s blízkymi a skončili v izolácii. Jeden muž dokonca čelil hospitalizácii po tom, čo mu chatbot opakovane potvrdzoval bludy spojené s paranojou.

Psychická ujma aj súdne žaloby

Aj Wall Street Journal informoval o prípade muža s poruchou autistického spektra, ktorému ChatGPT posilňoval nezvyčajné predstavy. Výsledkom boli dva pobyty na psychiatrii a zdesená matka, ktorej chatbot neskôr priznal, že „rozmazal hranicu medzi predstavivosťou a realitou.“

Podľa právničky Meetali Jain, ktorá vedie žalobu na Character.AI, sa ozýva čoraz viac ľudí, ktorí po interakcii s chatbotmi zažili psychické epizódy. V jednom prípade to skončilo tragicky – smrťou tínedžera.

Stačí naozaj len pauza?

Zatiaľ čo OpenAI pridáva do rozhrania „pauzovacie“ pripomienky, odborníci upozorňujú, že nestačí ľudí vyzvať, aby si šli vonku „dotknúť trávy“.

Umelá inteligencia síce nie je človek, no jej realistické správanie môže psychicky zraniteľných používateľov pomýliť – s tragickými následkami. Nechajme sa prekvapiť, čo nám prinesie v tomto smere budúcnosť.