Tekst objavljen: 28.07.2023 13:55        


Četiri najuticajnije kompanije u oblasti veštačke inteligencije formirale su grupu koja će na nivou čitave industrije nadgledati siguran razvoj najnaprednijih modela. Pravila bezbednog i odgovornog razvoja graničnih modela veštačke inteligencije, u početku, diktiraće Google, Microsoft, Open AI i Antropik.

Tehnološki giganti formirali grupu za regulaciju razvoja veštačke inteligencije


Organizaciju Frontier Model Forum formirali su kompanija Open AI koja stoji iza čet-bota ChatGPT, zatim Antropik, Microsoft i Google, vlasnik kompanije Deep Mind sa sedištem u Velikoj Britaniji.

Predstavnici ove grupe kažu da će fokus biti na "bezbednom i odgovornom" razvoju graničnih modela veštačke inteligencije, misleći pritom na tehnologiju zasnovanu na veštačkoj inteligenciji koja je čak naprednija od alata koji su trenutno dostupni.

- Kompanije koje razvijaju tehnologiju zasnovanu na veštačkoj inteligenciji odgovorne su za stvaranje bezbednog proizvoda koji mora ostati pod kontrolom čoveka - rekao je Bred Smit, predsednik Microsoft-a.

Prema njegovim rečima, ova inicijativa je ključni korak za zbližavanje tehnološkog sektora na polju odgovornog unapređenja veštačke inteligencije i pri suočavanju sa izazovima tako da celo čovečanstvo od tog napretka ima koristi, a ne štetu.

Članovi foruma navode da su njihovi glavni ciljevi promovisanje istraživanja bezbednosti veštačke inteligencije, kao što je razvoj standarda za procenu modela; podsticanje odgovorne primene naprednih modela zasnovanih na veštačkoj inteligenciji; razmatranje bezbednosnih rizika i poverenja u veštačku inteligenciju sa političarima i stručnjacima; podrška razvoja pozitivnih upotreba veštačke inteligencije kao što je borba protiv klimatske krize i rano otkrivanje raka.

Dodali su da je članstvo u grupi otvoreno za organizacije koje razvijaju granične modele, koji su definisani kao "veliki modeli mašinskog učenja koji prevazilaze mogućnosti koje su trenutno prisutne u najnaprednijim postojećim modelima, i mogu da obavljaju širok spektar zadataka".

 

PITAJ BESPLATNI KAMATICA SAVETNIK KOJI JE KREDIT NAJBOLJI ZA TEBE


Najava o osnivanju ove grupe stiže u trenutku kada sa se ubrzava regulisanje tehnologije.

U petak su tehnološke kompanije – uključujući članice grupe Frontier Model Forum – pristale na nove zaštitne mere u vezi sa veštačkom inteligencijom posle sastanka sa Džozefom Bajdenom u Beloj kući.

Obaveze usvojene na sastanku uključuju označavanje sadržaja koji proizvode alati zasnovani na veštačkoj inteligenciji, kako bi se olakšalo uočavanje obmanjujućih materijala (poput takozvanih deepfakes) i omogućavanje nezavisnim stručnjacima da testiraju modele koji koriste VI.

Saopštenje Bele kuće naišlo je na skepticizam od strane nekih aktivista koji ocenjuju da je tehnološka industrija poznata po nepoštovanja pravila o samoregulaciji.

Prošlonedeljnu najavu Mete da će objaviti model veštačke inteligencije jedan stručnjak je opisao kao "davanje ljudima šablona za pravljenje nuklearne bombe".

Grupa Frontier Model Forum ističe da su "važan doprinos" bezbednosti dala tela poput vlade Ujedinjenog Kraljevstva, koja je sazvala globalni samit o bezbednosti u oblasti veštačke inteligencije, i EU, koja uvodi zakon o veštačkoj inteligenciji koji predstavlja najozbiljniji zakonodavni pokušaj da se reguliše tehnologija zasnovana na mašinskom učenju.

Ostavi komentar


Pročitao/la sam i prihvatam uslove korišćenja




Povezane teme:
regulacija veštačke inteligencije Antropik veštačka inteligencija razvoj veštačke inteligencije google Microsoft Open AI

Kalkulator dozvoljenog minusa
Dozvoljeni minus
Nedozvoljeni minus
dana