Ново предупредување од научници укажува дека координирани мрежи од AI-персони би можеле незабележливо да влијаат врз јавното мислење и изборните процеси. Наместо класични ботови што лесно се препознаваат, станува збор за системи што звучат убедливо човечки, комуницираат природно и брзо се приспособуваат на реакциите на публиката.
Според труд објавен во списанието Science, големи јазични модели и мулти-агентски системи овозможуваат еден оператор да управува со огромен број дигитални „гласови“. Овие профили можат да користат локален јазик, тон и контекст, да влегуваат во заедници и да градат впечаток дека се реални учесници во јавната дебата.
Клучниот ризик е во координацијата и скалата. Наместо спорадични објави, AI-мрежите можат паралелно да тестираат огромен број пораки и веднаш да ги засилат оние што најсилно убедуваат. Така се создава привиден општествен консензус кој всушност е технички конструиран, а не органски формиран.
Истражувачите посочуваат дека рани знаци веќе постојат: deepfake-содржини и мрежи за лажни вести кои влијаеле врз изборни разговори во повеќе земји, вклучително САД, Тајван, Индонезија и Индија. Дополнително, се следат и координирани пропагандни мрежи што објавуваат масовни количини содржина, потенцијално за да влијаат врз податоците со кои ќе се тренираат идни AI-системи.
Експертите предупредуваат дека последиците не се само изборни резултати, туку и долгорочна ерозија на довербата во онлајн-информациите. Ако граѓаните сè потешко разликуваат автентични од синтетички гласови, може да ослаби влијанието на локалните и граѓанските иницијативи, а да се засилат веќе доминантните јавни фигури.
Следните изборни циклуси, според авторите, би можеле да бидат критичен тест. Главниот предизвик за институциите, платформите и медиумите ќе биде навремено откривање на ваквите влијателни кампањи и развој на механизми што ја штитат јавната дебата пред манипулацијата да стане масовна и тешко контролирана.
































