Bez kritičkog razmišljanja i neophodne pažnje, ChatGPT može biti opasan, i dovesti nas do pogrešnih zaključaka ili, u najgorem slučaju, do curenja povjerljivih informacija, piše Nastasja Maksimović, Jheronimus Academy of Data Scienc.
Slijepo poverenje
Što više koristimo ChatGPT i dobijamo dobre odgovore, povjerenje u ovaj alat nam raste. Postoji tendencija da korisnici vremenom postavljaju sve složenija pitanja, očekujući tačne odgovore bez potrebe za dodatnom provjerom.
ChatGPT nije čovjek, već matematička formula koja generiše najvjerovatniji odgovor na osnovu unijetog konteksta. Njegova moć dolazi iz sposobnosti da analizira ogromne količine podataka i predloži najvjerovatniji odgovor. To ne znači da je uvijek tačan i pouzdan. Jedan od većih izazova sa ovim modelima su "halucinacije", gdje AI daje uvjerljive, ali potpuno izmišljene odgovore.
SAVJET: Priložite jasne i konkretne zahtjeve i kritički procijenite svaki odgovor. Koristite ga kao alat koji ubrzava manuelne procese, a ne kao brzo rješenje za nepoznate probleme. ChatGPT je tu da pomogne, a ne da preuzme zadatke koje sami ne razumijemo.
Postavljanje nepreciznih zahtjeva
Jedna od najčešćih grešaka u korištenju ChatGPT-a je nedovoljno precizan zahtjev. Za razliku od ljudi, koji mogu da "popune rupe" na osnovu konteksta i pretpostave šta nam je potrebno, ChatGPT nema tu sposobnost. On ne zna naše ciljeve ako mu to jasno ne kažemo. Zato je važno biti vrlo detaljan u davanju instrukcija, od same formulacije pitanja do tonaliteta i stila odgovora koji očekujemo (tzv. prompt engineering).
SAVJET: Na primer, ako tražite od ChatGPT-a da odgovori na e-mail, ispravno je: "Odgovori na e-mail ljubaznim tonom, tako što ćeš u moje ime zamoliti klijenta za povratnu informaciju o projektu XY. Persiraj klijentu".
Pogrešno: "Odgovori na ovaj e-mail".
Nedostatak iteracije
ChatGPT je konverzacijski model, što znači da je najefikasniji kada mu pružate povratne informacije. Umjesto da prihvatite prvi odgovor kao krajnji, treba mu dati instrukcije kako da poboljša odgovor, prenosi Ekapija. Ako niste odmah dobili zadovoljavajući odgovor, pokušajte ponovo dodajući nove detalje ili tražeći dodatne izmjene. Ovaj iterativni proces je ključan za dobijanje najboljih rezultata.
SAVJET: Na primer, nakon što vam odgovori na pitanje, možete ga zamoliti: "Možeš li proširiti ovaj dio vezan za prednosti proizvoda?" ili "Daj mi alternativnu verziju sa formalnijim tonom".
Dijeljenje povjerljivih i osjetljivih podataka
Jedna od najopasnijih grešaka je dijeljenje osjetljivih informacija sa ChatGPT-om, kao što su lozinke, poslovni podaci ili informacije o klijentima. Postavite sebi pitanje – da li biste te informacije podijelili sa strancem ili ih stavili na internet? Ako je odgovor "ne", onda ih ne unosite u ChatGPT.
Poznat je primjer kada je ovakva greška dovela do fatalnih posljedica za Samsung, čiji su zaposleni slučajno unijeli osjetljive informacije u ChatGPT, uključujući kod i zapisnike sa internih sastanaka. Ove informacije su postale dostupne OpenAI-ju, a time i svim drugim korisnicima kojima je palo na pamet da pitaju "Koja je Samsung-ova strategija za 2025. godinu?".
Također, OpenAI je doživio veliki incident u martu 2023. godine, kada su podaci korisnika bili izloženi zbog greške u softveru, što je omogućilo da korisnici vide historiju chata i podatke o drugim korisnicima.
Zato, kada unosite osjetljive podatke u ChatGPT, morate biti oprezni jer svaki unos može biti zabilježen i potencijalno dostupan trećim licima, što može ugroziti sigurnost poslovnih ili ličnih informacija.
Bilo da se radi o poslovnim, ličnim, finansijskim ili kreativnim podacima, svaka informacija može biti izložena riziku ako nije pravilno zaštićena. Stoga je neophodno koristiti ove tehnologije odgovorno.