UDRUŽILA SE 4 NAJVEĆA IT GIGANTA: Bore se da uspostave kontrolu nad sve moćnijom veštačkom inteligencijom! OVO SU ZAMKE I ZAMERKE!

Shutterstock

Četiri najnaprednije svetske kompanije iz oblasti veštačke inteligencije (AI) oformile su grupu koja je usmerena na istraživanje sve moćnije AI i uspostavljanje sistema najboljih praksi za njenu kontrolu, dok sve više raste nervoza javnosti i oprez regulatora zbog jačanja uticaja nove tehnologije.

Prošle srede, kompanije "Antropik" (Anthropic), "Gugl" (Google), "Majkrosoft" (Microsoft) i "Open AI" pokrenule su organizaciju Frontir model forum (Frontier Model Forum), čiji je cilj da "obezbedi siguran i odgovoran razvoj graničnih modela AI".

Shutterstock 
foto: Shutterstock

U poslednjih nekoliko meseci, američke kompanije su predstavljale javnosti sve moćnije alate zasnovane na veštačkoj inteligenciji, koji su sposobni da proizvode originalne sadržaje u slikovnom, tekstualnom ili video formatu na osnovu podataka iz banke postojećih materijala.

To je izazvalo zabrinutost u vezi s pitanjima kršenja autorskih prava i privatnosti podataka, kao i bojazan da će AI jednog dana zameniti ljudska bića u velikom broju poslova.

- Kompanije koje razvijaju tehnologiju zasnovanu na veštačkoj inteligenciji imaju odgovornost da se pobrinu da ona bude bezbedna, sigurna i da ostane pod kontrolom ljudi - izjavio je Bred Smit (Brad Smith), potpredsedavajući i predsednik "Majkrosofta" i dodao:

- Ova inicijativa je važan korak ka udruživanju tehnološkog sektora sa ciljem da se obezbedi dalji odgovoran razvoj AI i rešavanje postojećih izazova, kako bi ona bila od koristi za celo čovečanstvo.

Članstvo u forumu je ograničeno na tek nekoliko kompanija koje "grade modele mašinskog učenja velikog obima, koji prevazilaze kapacitete trenutno prisutne kod većine postojećih naprednih modela", navode njegovi osnivači.

Iz toga se može zaključiti da će se njegov rad fokusirati na potencijalne rizike koji proizlaze iz razvoja znatno moćnije veštačke inteligencije, a ne na rešavanje pitanja u vezi sa autorskim pravima, zaštitom podataka i privatnosti, koja su u ovom trenutku važna za regulatore.

Savezna trgovinska komisija SAD je pokrenula istragu o "Open AI", sa ciljem da utvrdi da li je ta kompanija primenjivala "nepravedne ili obmanjujuće" prakse u vezi sa zaštitom privatnosti i bezbednosti podataka, ili je nanosila štetu pojedincima tako što je kreirala lažne informacije.

Američki predsednik Džo Bajden je napomenuo da će pratiti rezultate te istrage i da će nakon njih uslediti izvršni postupci sa ciljem promocije "odgovornih inovacija".

S druge strane, rukovodioci kompanija iz oblasti AI daju umirujuće izjave, naglašavajući da su svesni opasnosti i posvećeni njihovom ublažavanju. Prošle nedelje u Beloj kući, direktori sve četiri kompanije koje su pokrenule novi forum javno su se obavezali na "siguran, bezbedan i transparentan razvoj tehnologije na bazi AI".

Emili Bender (Emily Bender), profesorka računarske lingvistike na Univerzitetu u Vašingtonu, koja intenzivno istražuje velike jezičke modele, kaže da uveravanja koja dolaze od ovih kompanija predstavljaju "pokušaj da se izbegne regulativa; da se nametne sposobnost samoregulacije, u vezi sa čim sam veoma skeptična".

Stavljanje fokusa na strahove da će "mašine oživeti i preuzeti sve" samo je skretanje pažnje sa "stvarnih problema koje imamo u vezi s krađom podataka, nadzorom i guranjem svih nas u ekonomiju honorarnih poslova", kaže ona.

- Regulativa mora da dođe spolja. Mora je sprovesti vlada, kao predstavnik naroda, kako bi se ograničile moći ovih korporacija - dodala je.

Frontir model forum ima za cilj promociju istraživanja u oblasti bezbednosti i obezbeđivanje kanala komunikacije između industrije i tvoraca politike.

Slične grupe su formirane i ranije. Partnerstvo za AI (The Partnership on AI), među čijim su osnivačima takođe bili "Gugl" i "Majkrosoft", pokrenuto je 2016. godine, članovi su dolazili iz redova građanskog društva, akademije i industrije, a njegova misija je bila promocija odgovornog korišćenja veštačke inteligencije.

Kurir.rs/FT.com/George Hammond