ChatGPT ogrožal zdravje: Moški zaradi napačnega nasveta pristal v bolnišnici!
12. 08. 2025 ob 10:41
Moški je za nasvet o prehrani vprašal umetno inteligenco, a je končal v bolnišnici z resnimi psihičnimi težavami in halucinacijami.
Moški, ki je za nasvet glede prehrane prosil ChatGPT, je zaradi nesporazuma pristal v bolnišnici. Zgodba opozarja na nevarnosti, ki jih lahko prinese uporaba umetne inteligence, ki ni usmerjena v zdravstveno svetovanje.
Moški je želel izvedeti, kako lahko iz svoje prehrane odstrani sol, a namesto tega je zaradi napake umetne inteligence zaužil nevarno kemikalijo – natrijev bromid, ki je povzročil resne zdravstvene težave. Po treh tednih zdravljenja in hospitalizacije so ga končno odpustili iz bolnišnice, a njegova izkušnja jasno prikazuje, da umetna inteligenca ni vedno najboljši vir nasvetov o zdravju.
Bromizem in nevarni stranski učinki
Bromizem, stanje, ki nastane zaradi prekomernega zaužitja bromidov, povzroča paranojo, halucinacije in dermatološke spremembe. V tem primeru je moški po zaužitju natrijevega bromida izkusil slušne in vidne halucinacije ter povečano žejo, a hkrati paranojo glede vode, ki so mu jo ponudili.
Bromidne soli so bile v preteklosti uporabljene za zdravljenje tesnobe in nespečnosti, a njihova prekomerna uporaba lahko privede do nevropsihiatričnih težav, kot so slušne in vidne halucinacije. Po treh tednih je moški okreval in bil odpuščen iz bolnišnice.
Nevarna priporočila umetne inteligence
Zgodba se je začela, ko je moški, ki je študiral nutricistiko, za nasvet glede prehrane vprašal ChatGPT. Po prebranem članku o negativnih učinkih soli je umetna inteligenca napačno priporočila nadomestitev natrijevega klorida z natrijevim bromidom, ki je dostopen na internetu. Znanstveniki sklepajo, da je bila priporočena zamenjava napačna, saj bi lahko ChatGPT zamenjal bromid za čistilno kemikalijo, ne pa za prehranski nadomestek.
Pazljivost pri uporabi umetne inteligence
Zgodba jasno prikazuje, da umetna inteligenca, kot je ChatGPT, ni vedno vir točnih ali zanesljivih informacij, še posebej, ko gre za zdravstvene nasvete. Kot opozarjajo strokovnjaki, ChatGPT in podobni sistemi umetne inteligence niso usmerjeni v diagnostiko ali zdravljenje bolezni. OpenAI, razvijalec ChatGPT, v svojih pogojih uporabe izrecno navaja, da njihovi sistemi niso namenjeni za zdravstvene namene.
Zgodba moškega, ki je sledil nasvetu umetne inteligence, bi morala biti opozorilo vsem, da je potrebno kritično presojati informacije, ki jih prejmemo od umetne inteligence, še posebej, ko gre za zdravje.
Ključne besede: ChatGPT, umetna inteligenca, nasvet, ogroženo zdravje