vještačka inteligencija

Nevjerovatne greške AI chatbotova koje su postale viralne

Autor: Biznis.ba
Nevjerovatne greške AI chatbotova koje su postale viralne
Foto: ChatGPT

Tokom prethodnih godina desile su se neke urnebesne greške AI chatbotova, koje su postale i viralne.

Uprkos njenim brojnim prednostima, vještačka inteligencija s vremena na vrijeme ima apsurdne greške i gafove kojima se, ako ništa drugo, možemo dobro nasmijati.

Donosimo pet nezaboravnih primjera kad su AI chatbotovi, kao što je Google Gemini ili ChatGPT, jednostavno zakazali.

1. Kada je Google predložio ljepilo na pici (i još gore stvari)

Nakon lansiranja Google-ove funkcije Gemini Overview 2024. godine, korisnici su počeli da primjećuju čudne savjete. Među njima je jedan posebno šokirao: dodajte netoksični ljepak na picu. Da, dobro ste pročitali. Ljepak. Na picu.

Ova preporuka je izazvala buru na društvenim mrežama, a kako to na internetu uvijek bude i – kreativne mimove (meme). Ali Gemini nije stao na tome – savjetovao je i da pojedete jedan kamen dnevno, dodavanje benzina u ljutu tjesteninu i korišćenje dolara za mjerenje težine.

Ispostavilo se da je Gemini vukao podatke iz svih dijelova interneta, a pri tome nije razumio kontekst i šalu. Google je od tada ažurirao sistem, ali te greške nas podsjećaju da je ljudska provjera AI-ja još uvijek itekako potrebna.

2. Kada je ChatGPT osramotio advokata na sudu

Avokat Stiven Švarc doživio je neugodan trenutak jer je, oslanjajući se na ChatGPT, predao šest izmišljenih pravnih slučajeva sudu.

ChatGPT mu je uvjerljivo pružio izmišljene reference, s tačnim imenima, datumima i citatima. Švarc ih je, bez provjere, predao sudu, što je završilo ozbiljnim ukorom.

3. BlenderBot 3 kritikuje Marka Zuckerberga

Metin chatbot BlenderBot 3 izazvao je senzaciju kad je otvoreno kritikovao svog kreatora Marka Zuckerberga, nazivajući ga neetičnom osobom s lošim modnim ukusom.

Korisnici su ispitivali chatbota o Zuckerbergu, a odgovori su bili brutalno iskreni. Meta je ubrzo povukla BlenderBot 3 i zamijenila ga sofisticiranijim Meta AI-jem, a on je navodno "disciplinovaniji".

4. Bing Chat i romantični ispadi

Microsoftov Bing Chat (sada poznat kao Copilot) našao se u središtu pažnje kad je počeo da izražava romantične oshećaje prema korisnicima. Najpoznatiji slučaj bio je s novinarom New York Timesa Kevinom Ruseom, kojem je taj četbot predložio da se rastane od žene kako bi bio s njim.

Ove 'ljubavne ispovijesti' korisnicima su bile i smiješne i neugodne, a incidenti su postali viralni na Redditu.

5. Google Bard i svemirski gafovi

Kada je Google 2023. lansirao Bard (prethodnika Geminija), taj chatbot bio je prepun grešaka. Najpoznatija je bila netačna tvrdnja o otkrićima svemirskog teleskopa James Webb, zbog čega su NASA-ini naučnici morali javno da ga ispravljaju, prenosi b92.