Koristite ChatGPT ili neki drugi AI model? Ovih sedam stvari mu nikada ne smete otkriti

chatgpt
Drugi Pišu
maj 12, 2025

0 komentara

7 min čitanja
40

Ako niste sigurni da li smete da podelite neku informaciju ili ne, vodite se ovom jednostavnom logikom – ako ne želite da vam neko ponovi, vidi ili objavi vaš upit negde na internetu, oglasnoj tabli ili u medijima, verovatno ga ne biste smeli ni postaviti AI modelu.

Veliki jezički modeli, odnosno alati sa veštačkom inteligencijom, gotovo su postali neizostavni deo svakodnevnog života. Čak i ako ih ne koristite direktno svakog dana, velika je verovatnoća da koristite neki servis koji u pozadini koristi AI model kao što su ChatGPT, Gemini, Perplexity i slični, piše Dnevnik.hr.

Međutim, iako se mnogi oslanjaju na ove servise kako bi im pomogli u svakodnevnim (poslovnim i privatnim) obavezama, isto tako nisu svesni da svako korišćenje ovih alata nosi i određene bezbednosne rizike.

Naime, u žurbi da što pre obave neki zadatak, ljudi često AI modelima otkrivaju osetljive i privatne informacije koje ne bi trebalo deliti ni sa kim. Ali, četbotovi nisu osobe, zar ne?

Zapravo, u ovom kontekstu treba ih posmatrati kao osobe, jer baš kao što ne biste bilo kome na ulici rekli osetljive informacije o sebi ili firmi u kojoj radite, tako ih ne bi trebalo ni upisivati u AI četbotove.

Iako kompanije koje razvijaju ove modele najčešće ne koriste korisničke podatke iz razgovora za dodatno treniranje modela (mada, na primer, DeepSeek upravo to radi), to ne znači da ti podaci ne ostaju zabeleženi na vašem korisničkom nalogu. Dovoljno je da neko sedne za vaš računar, otvori vaš omiljeni AI model i pročita istoriju razgovora – i time pristupi osetljivim podacima.

Koje osetljive podatke ne smete deliti?
1) Lične podatke
Bez obzira na to koliko verujete AI modelu, nikada ne bi trebalo da u razgovoru sa bilo kojim AI četbotom delite svoje puno ime i prezime, adresu, JMBG, broj lične karte, pasoša i slične identifikacione dokumente. Isto važi i za fotografije takvih dokumenata.

Ako koristite četbot za izradu biografije, bolje ga zamolite da vam napravi obrazac koji ćete sami popuniti na računaru, umesto da ubacujete svoje lične podatke.

2) Finansijske informacije
Kao što se savetuje da ne delite brojeve kreditnih/debitnih kartica, podatke o bankovnom računu ili lozinke za elektronsko bankarstvo – isto važi i za AI modele.

Možda želite savet o najboljem kreditu ili kako uštedeti na porezu, ali koristite izmišljeni primer umesto stvarnih podataka.

3) Lozinke
Ne treba dodatno objašnjavati – deljenje lozinki je izuzetno neodgovorno. Kao što ne biste strancu dali ključeve od stana, tako ih ne treba deliti ni AI modelu.

4) Osetljive ili poverljive informacije

Nemojte tretirati AI model kao poverljivog prijatelja i otkrivati mu intimne ili tajne podatke. Privatni detalji kao što su preljube, ponašanje kolega ili zdravstveni problemi članova porodice nisu za deljenje sa četbotom.

5) Informacije o firmi u kojoj radite ili sarađujete
Možda vam je primamljivo da u ChatGPT ubacite podatke i tražite da sastavi ugovor, ali to nije bezbedno. Isto važi i za poverljive dokumente (o prototipovima, patentima, poslovnim planovima, finansijama itd.). Zato neke firme i zabranjuju korišćenje AI alata na službenim računarima.

6) Eksplicitan sadržaj
Čak i ako je u šali, pitanje poput „kako se rešiti nekoga zauvek“ može izazvati ozbiljne probleme. ChatGPT neće odgovoriti, a neki modeli takva pitanja mogu prijaviti nadležnim organima. Bolje se suzdržite.

7) Medicinske informacije

Umesto „doktora Gugla“, mnogi su počeli da koriste ChatGPT kao ličnog lekara. Nije loše tražiti objašnjenje nalaza, ali izbegavajte unošenje identifikacionih podataka. Bolje je postaviti opšti upit, npr: „Preporuči mi vežbe za muškarca u tridesetim godinama koji ima išijas“.

Zlatno pravilo: Ako niste sigurni da li smete da podelite neku informaciju – zapitajte se da li biste želeli da je neko pročita na internetu ili u medijima. Ako ne biste, onda je ne postavljajte ni AI modelu.

Aplikacije Foto: Thomas Fuller / Zuma Press / Profimedia

Dnevnik.hr/Nova

Poslednje