Insajderska pitanja i odgovori: Izvršitelj povjerenja i sigurnosti govori o umjetnoj inteligenciji i moderiranju sadržaja

Alex Popken bila je dugogodišnja izvršna direktorica za povjerenje i sigurnost u Twitteru koja se usredotočila na moderiranje sadržaja prije nego što je otišla 2023. Bila je prva tamošnja zaposlenica posvećena moderiranju Twitterovog oglašivačkog poslovanja kada je započela 2013.

Sada je potpredsjednica povjerenja i sigurnosti u WebPurifyju, pružatelju usluga moderiranja sadržaja koji surađuje s tvrtkama kako bi osigurao da sadržaj koji ljudi objavljuju na svojim stranicama slijedi pravila.

Platforme društvenih medija nisu jedine koje trebaju nadzor. Svaka tvrtka okrenuta potrošačima – od trgovaca na malo do aplikacija za pronalaženje partnera i web stranica s vijestima – treba nekoga tko će ukloniti neželjeni sadržaj, bilo da se radi o govoru mržnje, uznemiravanju ili bilo čemu nezakonitom. Tvrtke sve više koriste umjetnu inteligenciju u svojim nastojanjima, ali Popken napominje da su ljudi i dalje bitni za proces.

Popken je nedavno razgovarao s Associated Pressom. Razgovor je uređen radi jasnoće i dužine.

PITANJE: Kako ste vidjeli promjenu moderiranja sadržaja u tom desetljeću dok ste bili na Twitteru?

ODGOVOR: Kad sam se pridružio Twitteru, moderiranje sadržaja bilo je u početnim fazama. Mislim da su čak i povjerenje i sigurnost bili koncept koji su ljudi tek počeli shvaćati i s njim se uhvatiti ukoštac. Potreba za moderiranjem sadržaja eskalirala je kako smo mi, kako su platforme vidjele da ih se koristi oružjem na nove načine. Mogu se prisjetiti nekih ključnih prekretnica svog mandata na Twitteru. Na primjer, rusko uplitanje u američke predsjedničke izbore 2016., gdje smo prvi put shvatili, shvatili na smislen način, da bez moderiranja sadržaja možemo imati loše aktere koji potkopavaju demokraciju. Potreba za ulaganjem u ovo područje postala je sve važnija.

P: Mnoge tvrtke, veće kompanije društvenih medija oslanjaju se na AI za moderiranje sadržaja. Mislite li da je umjetna inteligencija već na mjestu gdje se na nju možete osloniti?

O: Učinkovito moderiranje sadržaja kombinacija je ljudi i strojeva. AI, koja se godinama koristi umjereno, rješava razmjere. I tako imate modele strojnog učenja koji su uvježbani na različitim pravilima i mogu otkriti sadržaj. Ali u konačnici, recimo da imate model strojnog učenja koji otkriva riječ ‘nacist’. Postoji mnogo postova koji bi mogli kritizirati naciste ili nuditi obrazovne materijale o nacistima protiv bjelačke nadmoći. I tako ne može riješiti nijanse i kontekst. I tu zapravo dolazi ljudski sloj.

Mislim da počinjemo uočavati stvarno važna poboljšanja koja će ljudima olakšati posao. I mislim da je generativna AI izvrstan primjer toga, gdje, za razliku od tradicionalne. AI modele, može razumjeti kontekst i nijanse mnogo bolje nego njegov prethodnik. Ali čak i dalje, sada imamo potpuno nove slučajeve upotrebe za naše ljudske moderatore oko moderiranja generativnih AI izlaza. Stoga će potreba za ljudskom umjerenošću ostati u doglednoj budućnosti, po mom mišljenju.

P: Možete li govoriti nešto o tvrtkama koje nisu društvene mreže s kojima surađujete i kakvu moderaciju sadržaja koriste?

O: Mislim, sve od prilagodbe maloprodajnih proizvoda, znate, zamislite da dopuštate ljudima da prilagode majice, zar ne? Očito, želite izbjeći slučajeve upotrebe u kojima ljudi to zlorabe i stavljaju štetne stvari pune mržnje na majicu.

Zapravo, sve što ima sadržaj koji generiraju korisnici, sve do online upoznavanja — tu tražite stvari poput catfishinga i prijevara i osiguravanja da su ljudi onakvi kakvima se predstavljaju i sprječavanja ljudi da učitaju neprikladne fotografije, na primjer. Proširuje se na više industrija.

P: Što je s temama koje moderirate, mijenja li se to?

O: Moderiranje sadržaja je krajolik koji se stalno razvija. I na to utječe ono što se događa u svijetu. Pod utjecajem je novih tehnologija koje se razvijaju. Na to utječu loši akteri koji će pokušati doći na te platforme na nove i inovativne načine. Kao tim za moderiranje sadržaja, pokušavate biti korak ispred i predvidjeti nove rizike.

Mislim da postoji malo katastrofalnog razmišljanja u ovoj ulozi gdje razmišljate o tome koji su najgori mogući scenariji koji se ovdje mogu dogoditi. I svakako se razvijaju. Mislim da su dezinformacije izvrstan primjer gdje postoji toliko mnogo aspekata dezinformacija i da ih je tako teško moderirati. Kao da proključa ocean. Mislim, ne možete provjeriti svaku stvar koju netko kaže, zar ne? Stoga se platforme obično moraju usredotočiti na dezinformacije kako ne bi uzrokovale najveću štetu stvarnom svijetu. I to se također uvijek razvija.

P: Što se tiče generativne umjetne inteligencije, postoji neko razmišljanje o sudnjem danu da će uništiti internet, da će na njemu biti samo, znate, lažna umjetna inteligencija. Osjećate li da bi se to moglo dogoditi?

O: Zabrinut sam u vezi s dezinformacijama koje generira umjetna inteligencija, posebno tijekom iznimno važne izborne sezone na globalnoj razini. Znate, aktivno vidimo sve više deepfakeova i štetnih sintetičkih i manipuliranih medija na internetu, što je zabrinjavajuće jer mislim da prosječnoj osobi vjerojatno pada teško. razlučivanje točnog nasuprot ne.

Mislim da je srednjoročno do dugoročno, ako me se može pravilno regulirati i ako oko njega postoje odgovarajuće zaštitne ograde, također mislim da to može stvoriti priliku za naše povjerenje i praktičare sigurnosti. Ja znam. Zamislite svijet u kojem je AI važan alat u pojasu alata za moderiranje sadržaja, za stvari poput obavještavanja o prijetnjama. Znate, mislim da će to biti izuzetno koristan alat, ali će također biti zloupotrijebljen. I to već vidimo.

Rating
( No ratings yet )
Loading...
VRT