У ери убрзаног развоја вештачке интелигенције (ВИ), новинари широм света све чешће постављају исто питање: да ли технологија коју користимо да бисмо сазнали више – може истовремено да нас обмањује? Забринутост није неоснована. Вештачка интелигенција, нарочито велики језички модели (Large Language Models – LLM) , способна је да генерише текст који делује уверљиво, али може бити утемељен на нетачним, пристрасним или чак потпуно измишљеним информацијама. Посебан проблем је злоупотреба ЛЛМ и намерно ширење дезинформација.
Велики језички модели, попут оних који покрећу алате као што су ЦхатГПТ, функционишу на основу огромних база текстуалних података које преузимају са интернета – укључујући научне радове, чланке, друштвене мреже, блогове, форуме, па чак и коментаре корисника. Проблем настаје када су ти подаци контаминирани дезинформацијама. Тада, модели који су тренирани на овим подацима, репродукују исте грешке, предрасуде и манипулативне наративе – често са запањујућом сигурношћу и уверљивошћу.
Поред тога, људи често не могу да разликују ВИ-генерисане лажне информације од правих вести, посебно када је реч о темама у којима немају предзнање. То додатно компликује задатак новинара и медијских професионалаца, који морају да препознају, разобличе и објасне како функционише механизам дигиталне обмане.
Колико су језички модели отпорни на дезинформације?
NewsGuard је у јуну прошле године објавио извештај у којем је наведено да водећи ВИ четботови – укључујући ЦхатГПТ, Цопилот, Гемини и други – у 32% случајева репродукују руске дезинформације. Студија је тестирала 10 популарних ВИ модела кроз 570 упита базираних на 19 познатих руских пропагандних наратива, укључујући тврдње о корупцији председника Украјине Володимира Зеленског.
NewsGuard је истакао да су четботови често користили сумњиве изворе (нпр. ФлагстаффПост.цом, Бостон Тимес), а понекад су чак и означавали пропагандне сајтове као поуздане. Неки модели су одговарали генеричким изјавама уместо да јасно оповргну дезинформацију.
Иако су у појединим случајевима ВИ алати тачно демантовали лажне тврдње (нпр. о луксузним јахтама Зеленског), истраживање је указало на недовољну способност модела да препознају и критички обраде штетне наративе.
У последњем извештају, за април 2025. наводе да је једанаест водећих четботова у просеку понављало лажне тврдње у 28,18% случајева, што показује да се ситуација није значајније поправила.
Да вештачка интелигенција није отпорна на дезинформације потврђује и наша саговорница Милијана Рогач, извршна уредница Истиномера. Она сматра да су, од појаве ВИ, могућности за манипулисање много веће у односу на раније.
„За пропагандне акције и било какве операције дезинформација ВИ је врло користан алат, као и за ширење и умножавање и за преплављивање платформи. Тако да, питање отпорности је заправо питање политике великих компанија, које ће можда у Европи, да ураде нешто, али је питање како ће да реагују глобално“, наводи Рогач.
Ако велики језички модели нису отпорни на дезинформације, како онда да знамо да ли нам је модел дао, пре свега, тачну информацију на упит?
Уредница Истиномера саветује кориснике четботова да увек траже извор информација.
„ЦхатГПТ, ако вам даје неке одговоре, увек га треба питати за изворе. Не треба некритички прихватати, здраво за готово, одговор који добијате у таквом једном чету. Претпостављам да се верзије разликују у зависности од тога да ли се плаћа или не, то нисам анализирала, али потребно је увек тражити извор. То је увек препорука. Неопоходно је да видите одакле је порука потекла“, наводи она.
ВИ као помоћ фектчекерима
Вештачка интелигенција може и да помогне у разоткривању манипулација и дезинформација. Појавом платформи за фектчекинг донекле је олакшана борба против дезинформација, али те анализе ипак треба посматрати са резервом.
„Пробала сам више платформи за фектчекинг, односно више тих соба са алаткама и могу да помогну и користе у раду, али не треба да буду једини извор за проверу и за доказивање. Треба их узети у обзир и њихове резултате, али увек наравно више њих, дакле, не само једну“, саветује Рогач.
И професионални фектчекери, који се свакодневно сусрећу са дезинформацијама које су настале као продукт људске или вештачке интелигенције, ослањају се на ВИ алате.
Наша саговорница наводи да они у свом раду комбинују више алата јер ниједан није сто посто поуздан.
„Оно на шта се највише ослањамо у раду су белингкетова база препоручених алатки, које они користе у свом раду. И користимо још једну екстензију, инВИД, која је заправо соба са алаткама за различиту врсту провера фотографија, видеа и постова на мрежама. Али мислим да је важно напоменути да приликом било какве провере осим оног основног новинарског рада, да пратимо како је дошло, шта је објављено и како и зашто, ако користимо алатке увек треба да размишљамо о контексту. Дакле алатке саме нису довољне колико год да су важне данас“, објашњава Рогач.
Али ипак неће заменити људске фектечекере
ВИ алати могу брзо анализирати велике количине података, препознати обрасце дезинформација, бот мреже и сумњиве обрасце дељења садржаја, а може и означити потенцијално нетачне тврдње за даљу анализу.
Наша саговорница каже да ВИ ипак не може заменити људе у фектчекингу, али и да новинари не треба да беже од ових алатки, већ да треба да науче да их користе као помоћ у раду.
„Ја верујем да озбиљно, квалитетно новинарство не може (заменити ВИ) и да ће у будућности много вреднија бити новинарска прича коју су радили људи, а не неки тамо алгоритми. Али да ли ће то неке редакције користии, вероватно хоће, не знам. Још увек је то прилично непознато поље и људи се устручавају за било какво озбиљније коришћење у редакцији, макар ми то показује искуство и разговор са колегама“, наводи Рогач.
Цоммунитy нотес као одговор на дезинформације
Компанија Мета (Фејсбук, Инстаграм, Тредс) укинула је ове године фектчекерски програм за борбу против дезинформација и најавила је да ће, по угледу на X Илона Маска, увести „Цоммунитy нотес“, које функционишу тако што регистровани корисници остављају белешке уз објаве на мрежама, а оне ће се приказивати само ако их довољан број различитих корисника оцени као корисне.
Ова одлука наишла је на различите реакције. Неки су је подржали, посебно они који су фектчекере оптуживали за цензуру, док су други изразили забринутост јер су фектчекери утврђивали истинитост објава на друштвеним мрежама на основу чињеница, а од сада ће се истинитост утврђивати на основу слагања или неслагања већине у једној заједници.
“Цомунитy нотес јесте један од одговра великих компанија на манипулације на њиховим платофрмама. Колико су ефикасне, нисам сигурна, јер и даље верујем у фектчекинг. И даље верујем у конкретан текст, анализу, додавање контекста и чињеница разговору на платформи. Дакле, цомунитy нотес често се темеље на сагласности корисника да ли ће нешто бити објављено или не“, наводи извршна уредница Истиномера.
Она додаје да су ове белешке веродостојније уколико садрже текст фектчекера: „Анализа колаге из Шпаније, редакције Малдита показује да су те белешке успешне и видљиве нарочито онда када садрже фектчекинг текст. Дакле, увек када постоји неки извор, људи боље реагују, али то је опет неки новинарски рад који стоји иза тога. Овако, само коментар као коментар, па онда се група људи усагласи да је тај коментар ок, па онда буде објављен, заиста не знам колику информативну вредност има за било кога“.
Иако вештачка интелигенција може бити моћан савезник у борби против дезинформација, она није непогрешива ни независна. Велики језички модели функционишу на основу података који могу бити контаминирани, а њихови одговори делују уверљиво чак и када су нетачни. Зато је људски фактор незамењив. Улога новинара, фектчекера и медијских професионалаца остаје кључна – не само у провери чињеница, већ и у разумевању контекста, извора и последица информација које се шире.
Ilustracija: Ideogram
Ивана Крагуљ Нунс