Če tudi vi slepo zaupate umetni inteligenci, je čas, da prenehate - so odgovori, ki jim ne smete verjeti
18. 11. 2025 ob 11:15
Umetna inteligenca je še vedno samo umetna inteligenca in ne človek iz mesa in krvi
Ljudje ne bi smeli slepo zaupati vsemu, kar jim povedo orodja umetne inteligence, je prepričan izvršni direktor Googlove matične družbe Alphabet, Sundar Pichai. V pogovoru za BBC je povedal, da so modeli umetne inteligence ''nagnjeni k napakam'' in pozval uporabnike, naj jih uporabljajo v kombinaciji z drugimi orodji. Ravno tako se namreč uspešno izkoristi bogati informacijski ekosistem, ki je na voljo uporabnikom, namesto, da se ti zanašajo zgolj na tehnologijo umetne inteligence.
Pichai je dodal, da ''so orodja umetne inteligence sicer zelo uporabna, ko denimo želite nekaj napisati v bolj kreativni obliki,'' vendar se morajo ljudje naučiti, za kaj so ta orodja najbolj primerna – in jim ne zaupati brez kritičnega premisleka. Slepo zaupanje odgovorom ChatGpt-ja - lahko postavi diganozo bolezni?Za primer vzemimo ChatGpt, brez katerega si nekateri življenja sploh več ne predstavljajo. Morda je res koristen v službene namene, a vsekakor mu ne gre zaupati za vsako stvar, ki se tiče vašega zasebnega življenja. Ljudje ga dandanes sprašujejo čisto vse, o boleznih, o svojem videzu, o tem, kaj naj počnejo čez dan, kaj jesti, kaj se obleči, kako spoznati partnerja, ... itd. Prav tako ne more vedeti vsega o boleznih, vašemu počutju, bolečinah in ne more vam postavljati diagnoz - zato se raje obrnite na osebnega zdravnika.Modeli, kot je Chat Gpt včasih podajo napačne informacije, in sicer iz teh razlogov:- Delujejo na statističnih vzorcih in ne na razumevanju,- Nimajo lastnih preverjenih virov, včasih zapolnijo ''praznine'' z verjetnimi, a izmišljenimi podatki,- Nimajo zdrave pameti ali konteksta kot človek,- AI ne razume sveta, čustev, varnostnih tveganj ali posledic tako kot ljudje,- Ne razmišlja moralno ali etično,- Ne zna vedno pravilno presoditi, kaj je varno, primerno ali logično.Gemini 3.0 bo nudil novo izkušnjo
Tehnološki svet medtem nestrpno čaka na izid Googlovega potrošniškega modela umetne inteligence, Gemini 3.0, ki ponovno pridobiva tržni delež v primerjavi z modelom ChatGPT.
Google je maja letos začel v svoj iskalnik uvajati nov ''način umetne inteligence'' in je v svoj klepetalni sistem Gemini vključil pogovorno funkcionalnost, ki uporabnikom ponuja izkušnjo pogovora s strokovnjakom.
Gre tudi za del Googlova prizadevanja, da ostane konkurenčen storitvam, kot je ChatGPT, ki so nadomestile Googlovo dolgoletno prevlado na področju spletnega iskanja.
Do podobnih ugotovitev o velikokratni netočnosti informacij umetne inteligence so prišli številni tuji mediji, ki so o tem pisali. Tudi BBC je ugotovil, da veliki jezikovni modeli velikokrat uporabljajo njihove članke kot vir informacij, pogosto pa jih povzamejo netočno. V pogovoru je za britanski medij Pichai še poudaril, da obstaja določena napetost med hitrostjo razvoja tehnologije in vgrajevanjem zaščitnih ukrepov, namenjenih preprečevanju morebitne škode, ki bi jo ta tehnologija lahko povzročila. Pomembno je vlaganje v varnost
Ravno zaradi tega je izvršni direktor poudaril, da Google s povečanimi naložbami v umetno inteligenco krepi tudi naložbe v varnost umetne inteligence. ''Na primer, razvijamo odprtokodno tehnologijo, ki bo omogočala zaznavanje, ali je bila neka slika ustvarjena z umetno inteligenco,'' je pojasnil.
Dodal je, da danes v ekosistemu umetne inteligence sodeluje veliko podjetij. ''Če bi samo eno podjetje razvijalo tehnologijo umetne inteligence, vsi ostali pa bi jo morali uporabljati, bi bil tudi jaz zaskrbljen. A trenutno smo še zelo daleč od takšnega scenarija,'' je zaključil.
Ključne besede: Chat Gpt, umetna inteligenca, napake, zaupanje, uporabnik