Umoran od AI tropova sudnjeg dana, izvršni direktor Coherea kaže da je njegov cilj tehnologija koja je ‘aditiv za čovječanstvo’

Aidan Gomez može preuzeti neke zasluge za ‘T’ na kraju ChatGPT-a. Bio je dio skupine Googleovih inženjera koji su prvi predstavili novi model umjetne inteligencije nazvan transformator.

To je pomoglo u postavljanju temelja za današnji generativni procvat umjetne inteligencije na kojem su se temeljili ChatGPT-maker OpenAI i drugi. Gomez, jedan od osam koautora Googleovog rada iz 2017., u to je vrijeme bio 20-godišnji pripravnik.

Sada je glavni izvršni direktor i suosnivač Coherea, startupa sa sjedištem u Torontu koji se natječe s drugim vodećim AI tvrtkama u opskrbi velikih jezičnih modela i chatbota koje pokreću velikim tvrtkama i organizacijama.

Gomez je govorio o budućnosti generativne umjetne inteligencije za The Associated Press. Intervju je uređen radi duljine i jasnoće.

P: Što je transformator?

O: Transformator je arhitektura neuronske mreže — struktura izračuna koja se odvija unutar modela. Razlog zašto su transformatori posebni u odnosu na svoje vršnjake — druge konkurentske arhitekture, druge načine strukturiranja neuronskih mreža — u biti je taj što se jako dobro skaliraju. Mogu se trenirati ne samo na tisućama, već i na desecima tisuća žetona. Mogu se izuzetno brzo dresirati. Koriste mnogo različitih operacija za koje su ti GPU-ovi (grafički čipovi) prilagođeni. U usporedbi s onim što je postojalo prije transformatora, oni tu obradu obavljaju brže i učinkovitije.

P: Koliko su oni važni za ono što radite u Cohereu?

O: Jako važno. Koristimo transformatorsku arhitekturu kao i svi drugi u izgradnji velikih jezičnih modela. Za Cohere veliki fokus je skalabilnost i spremnost za proizvodnju za poduzeća. Neki drugi modeli s kojima se natječemo su ogromni i super neučinkoviti. To zapravo ne možete staviti u proizvodnju, jer čim se suočite sa stvarnim korisnicima, troškovi eksplodiraju i ekonomija se slomi.

P: Koji je konkretan primjer kako kupac koristi model Cohere?

O: Imam omiljeni primjer u području zdravstvene skrbi. Proizlazi iz iznenađujuće činjenice da 40% radnog dana liječnika provede pišući bilješke za pacijente. Pa što ako bismo liječnicima mogli priložiti mali pasivni uređaj za slušanje koji bi ih pratio tijekom dana, između posjeta pacijentima, slušajući razgovor i unaprijed popunjavajući te bilješke, tako da umjesto pisanja ispočetka, postoji prvi nacrt tamo. Mogu ga čitati i samo uređivati. Odjednom, kapacitet liječnika raste u velikom omjeru.

P: Kako rješavate zabrinutosti kupaca o tome da su jezični modeli umjetne inteligencije skloni ‘halucinacijama’ (pogreškama) i pristranostima?

O: Kupci su uvijek zabrinuti zbog halucinacija i pristranosti. To dovodi do lošeg iskustva s proizvodom. Dakle, to je nešto na što smo jako fokusirani. Za halucinacije, glavni fokus je na RAG-u, koji je generiranje prošireno dohvaćanjem. Upravo smo izdali novi model pod nazivom Command R koji je izričito usmjeren na RAG. Omogućuje vam povezivanje modela s privatnim izvorima pouzdanog znanja. To mogu biti interni dokumenti vaše organizacije ili e-poruke određenog zaposlenika. Modelu dajete pristup informacijama koje inače nije vidio na webu dok je učio. Ono što je važno je da vam također omogućuje da provjerite model, jer sada umjesto samo tekst u, tekst van, model se zapravo poziva na dokumente. Može citirati odakle je dobio tu informaciju. Možete provjeriti njegov rad i steći puno više povjerenja radeći s alatom. Masivno smanjuje halucinacije.

P: Koje su najveće javne zablude o generativnoj umjetnoj inteligenciji?

O: Strah koji zastupaju određeni pojedinci i organizacije da je ova tehnologija terminator, egzistencijalni rizik. To su priče koje si čovječanstvo priča već desetljećima. Tehnologija dolazi i preuzima nas i istiskuje nas, čineći nas podređenima. Oni su vrlo duboko ugrađeni u kulturno moždano deblo javnosti. To je vrlo istaknuta pripovijest. Lakše je zaokupiti maštu i strah ljudi kad im to kažete. Stoga tome pridajemo puno pažnje jer je tako zadivljujuće kao priča. Ali stvarnost je da mislim da će ova tehnologija biti vrlo dobra. Puno argumenata za to kako bi moglo poći po zlu, mi koji razvijamo tehnologiju vrlo smo svjesni i radimo na ublažavanju tih rizika. Svi želimo da ovo dobro prođe. Svi želimo da tehnologija bude dodatak čovječanstvu, a ne prijetnja.

P: Ne samo OpenAI, već i brojne velike tehnološke tvrtke sada izričito govore da pokušavaju izgraditi opću umjetnu inteligenciju (izraz za općenito bolju od ljudske AI). Je li AGI dio vaše misije?

O: Ne, ne vidim to kao dio svoje misije. Za mene AGI nije krajnji cilj. Krajnji cilj je dubok pozitivan utjecaj ove tehnologije na svijet. To je vrlo opća tehnologija. To je rasuđivanje, to je inteligencija. Dakle, primjenjuje se posvuda. I želimo biti sigurni da je to najučinkovitiji oblik tehnologije koji može biti, što je prije moguće. To nije neka pseudoreligijska potraga za AGI-om, kojoj zapravo ne znamo ni definiciju.

P: Što slijedi?

O: Mislim da bi svi trebali paziti na korištenje alata i više agentičko ponašanje. Modeli koje možete prvi put predstaviti s alatom koji ste izradili. Možda je to softverski program ili API (programsko sučelje aplikacije). I možete reći, ‘Hej modele, upravo sam napravio ovo. Evo što radi. Evo kako s njim komunicirate. Ovo je dio vašeg alata stvari koje možete učiniti.’ Mislim da će to opće načelo mogućnosti dati modelu alat kakav nikad prije nije viđen i koji ga može učinkovito usvojiti biti vrlo moćan. Da biste napravili puno stvari, potreban vam je pristup vanjskim alatima. Trenutačni status quo je da vam modeli mogu samo pisati (tekstualne) znakove. Ako im date pristup alatima, oni zapravo mogu poduzeti radnje u stvarnom svijetu u vaše ime.

Rating
( No ratings yet )
Loading...
VRT