AI i izbori 2024.: vidjeti i ne vjerovati

Godina 2024. dolazi s povijesnim rekordom, dovodeći 4 milijarde građana na birališta da izaberu svoje vođe i predstavnike. Izbori za različite položaje održat će se u više od 70 zemalja, au 23 od njih (uključujući Sjedinjene Američke Države i Rusiju) održat će se predsjednički izbori. Rumunjska nije iznimka, jer se na ovom popisu nalazi sa sve četiri vrste izbora: lokalnim, parlamentarnim, europskim parlamentarnim i predsjedničkim.

Angelica Alecu-CiocîrlanFoto: STOICA & Associates

Pokušaji manipulacije biračkim tijelom različitim sredstvima propagande nisu novost, već su gotovo intrinzično dio pravila igre. Ono što je novo i puno izazovnije za izbore 2024. je nove alate za dezinformiranje velikih razmjera potpomognute umjetnom inteligencijom. Uz pomoć novih tehnologija, pojave kao što su duboki lažnjak poprimili su alarmantne razmjere, a da dugoročni učinci nisu niti predvidljivi.

Ako smo 2021. bili impresionirani generatorom slika Dall-Ea 2022. generator tekstualnog sadržaja ChatGPTovog mjeseca, OpenAI (ista tvrtka koja je razvila Dall-E i ChatGPT) javno najavio novi projekt: Sestra, generator video sadržaja(1). Trenutno dostupan malom timu, Sora je AI model koji može stvoriti realistične ili izmišljene sekvence na temelju tekstualnih uputa (model teksta u video). S druge strane, Google i Meta (Facebook) pokazali su interes za razvoj sličnih alata.

U ovom kontekstu, zabrinutost oko utjecaja ovih novih tehničkih mogućnosti na provođenje izbora 2024. je opravdana. Ako su u prošlosti tehnike utjecaja na biračko tijelo zahtijevale značajna sredstva i nišna specijalistička znanja, danas je za kreiranje sadržaja duboko lažno, sve što trebate je internetska veza i pristup alatu za generiranje sadržaja na temelju uputa. U usporedbi sa sadašnjim i budućim rizicima, skandal s Cambridge Analyticom može se činiti samo slabim prethodnikom.

I ne govorimo samo o hipotetskim situacijama, za to već postoje konkretni primjeri. Prošli mjesec u New Hampshireu (SAD) pojavili su se izvještaji o telefonskim pozivima koje su upućivali botovi oponašajući glas sadašnjeg predsjednika Joea Bidena, pokušavajući obeshrabriti građane da sudjeluju u prvom krugu izbora(2). Isto tako, samo nekoliko dana prije parlamentarnih izbora u listopadu 2023. u Slovačkoj, snimka navodnog razgovora između novinara i Michala Šimečke (čelnika proeuropske stranke)Progresivno Slovensko i potpredsjednik Europskog parlamenta), u kojem bi potonji govorio o počinjenju izborne prijevare(3). Nekoliko dana kasnije njegova je stranka poražena, a snimka se pokazala materijalnom duboki lažnjak. Iako se ne može uspostaviti uzročna veza između ovog događaja i ishoda izbora, primjer pokazuje koliko su takve prakse opasne, pogotovo kada se koriste u zadnjih stotinjak metara izbornog nadmetanja. Kako nema vremena za službene provjere i demantije, već se proizvodi najveća šteta: sumnja. I na kraju, još jedan nedavni primjer duboki lažnjak portretira Fredericka Christa Trumpa starijeg (preminuo prije 25 godina), oca bivšeg predsjednika Donalda Trumpa(4), u videu u kojem oštro kritizira svog sina. Važno je da se u potonjem slučaju na kraju videa spominje da je generiran uz pomoć umjetne inteligencije te da je The Lincoln Project (samoproglašena prodemokratska organizacija) platio i preuzeo odgovornost za ovaj sadržaj.

Suočene s ovim sve ozbiljnijim izazovima, velike tvrtke u industriji Big Tech (uključujući Google, Meta, Microsoft, OpenAI, TikTok, X) potpisali su prije tjedan dana, na sigurnosnoj konferenciji u Münchenu, sporazum pod nazivom “Tehnički sporazum za borbu protiv prijevarne upotrebe umjetne inteligencije na izborima 2024“. Sporazum sadrži niz zajedničkih ciljeva i koraka koje treba poduzeti kako bi se spriječio i smanjio rizik od upotrebe umjetne inteligencije za obmanjivanje birača.

Budući da je radije alat za meko pravo, deklaracija o zajedničkim namjerama bez obvezujućeg učinka za strane potpisnice, ovaj je sporazum dobar početak u borbi protiv velikih manipulacija građanima, ali ne može zamijeniti čvrsti zakonodavni okvir s jasnim pravilima i konkretnim sankcijama. Što se tehnologija brže razvija, to je zakonodavnim tijelima teže pratiti. Na europskoj razini, iako su uloženi znatni napori, očekuje se da će najočekivanija uredba u tom smislu (Act AI ​​Act) dobiti konačno odobrenje u Europskom parlamentu u travnju 2024. godine, što bi značilo da bi stupila na snagu u 2026. (ako ne dođe do promjena).

Nacionalne rasprave za zabranu duboki lažnjak postoji od prošle godine, Zastupnički dom je prije tjedan dana odlučio prijedlog zakona ponovno uputiti Odboru za kulturu, umjetnost, medije i Odboru za informacijsko-komunikacijske tehnologije. Glavne kritike odnosile su se na nepreciznost korištene terminologije, ali i predloženog sustava kažnjavanja(5). Točnije, rasprave imaju za cilj da se u nacrt unese zatvorska kazna od 6 mjeseci do 2 godine ili da se zadrže samo novčane kazne. Iako često loš zakon može prouzročiti više štete nego njegov nedostatak, u sadašnjem kontekstu zakonodavčeva pasivnost ili sporost u osmišljavanju koherentnog regulatornog okvira za korištenje umjetne inteligencije mogla bi otvoriti put prijevarama, čija će suptilnost otežati dokazivanje i svejedno kvantificirati.

Stoga je za sada jedino oružje koje nam preostaje na raspolaganju protiv tehnika dezinformiranja kritičko razmišljanje, analiza i pomna procjena informacija kojima obiluju svi komunikacijski kanali. Barem za sada, detalji poput nesavršenog vremena između pokreta usana likova i audio sadržaja koji se reproducira, nedostatak infleksija glasa ili neprirodnih pokreta ruku pokazatelji su generiranja video i/ili audio sadržaja uz pomoć umjetne inteligencije.

U budućnosti je vrlo vjerojatno da će se te nesavršenosti ispraviti i da će sadržaj generiran umjetnom inteligencijom postajati sve istinitiji, u kojem slučaju će morati biti obuka sposobnosti razlikovanja istine od fikcije (ako već nije ) o redoslijedu prioriteta u obrazovnom sustavu.

Članak koji potpisuje Angelica Alecu-Ciocîrlan, suradnica (aalecu@stoica-asociatii.ro), STOICA & Associates.

(1)

(2)

(3)

(4)

(5)

Rating
( No ratings yet )
Loading...
VRT