"Model na raspolaganje javnosti za nekomercijalnu upotrebu"
Meta Platforms, Facebookova matična kuća, objavila je u utorak model umjetne inteligencije sposoban za prevode i transkripciju govora na više desetina jezika, što je potencijalni temelj za alate koji omogućuju komunikaciju u stvarnom vremenu premošćujući jezičke podjele.
Takve podjele predstavljaju jaz među jezicima s obzirom na njihovu funkcionalnu održivost i zastupljenost na internetu.
Firma je u objavi na svome blogu objavila da njen model SeamlessM4T podržava prevode teksta i govora na gotovo stotinu jezika, kao i potpuni prevod govora u govor za 35 jezika, kombinujući pritom tehnologiju koja je prije bila dostupna samo u zasebnim modelima.
Šef Mete Mark Zuckerberg je istakao da ima viziju alata koji olakšavaju interakcije među korisnicima iz cijelog svijeta u metaverzumu.
U objavi na blogu se navodi i to da Meta stavlja svoj model na raspolaganje javnosti za nekomercijalnu upotrebu.
Najveća firma za društvene medije je ove godine objavila mnoštvo uglavnom besplatnih AI modela.
Među njima je i veliki jezički model nazvan LLaMA (Large Language Model Meta AI), koji istraživačima umjetne inteligencije pomaže da unaprijede svoj rad na ovome polju.
Prema riječima Zuckerberga, otvoreni ekosistem umjetne inteligencije ide u korist Mete, s obzirom na to da firma dobija više učinkovitim crowd-sourcingom za stvaranje alata namijenjenih korisnicima za svoje društvene platforme, nego naplaćivanjem pristupa modelima.
Istovremeno, Meta se suočava sa sličnim pravnim pitanjima kao i ostatak industrije kada su posrijedi podaci o obuci koji su uneseni za izradu modela.
Američka komičarka Sarah Silverman i još dvoje autora su julu su protiv Mete i OpenAI-ja podnijeli tužbe za kršenje autorskih prava, optuživši ih da su neovlašteno koristili njihov sadržaj za jezičku obuku umjetne inteligencije.
Taj sadržaj je bio zaštićen autorskim pravima, a Meta i OpenAI su ga koristili za obuku robota za chat.
Kada je riječ o modelu SeamlessM4T, istraživači Mete u svome radu tvrde da su podatke o audio-obuci prikupili sa četiri miliona sati „sirovog zvuka koji dolazi iz javno dostupnog repozitorija indeksovanih internetskih podataka“, ali nisu naveli o kojem se repozitoriju radi.
Portparol Mete nije odgovorio na pitanja o porijeklu audio podataka.
U njihovom istraživačkom radu se navodi i da tekstualni podaci potiču iz skupova podataka koji su kreirani prošle godine, a sadržaje su izvukli sa Wikipedije i sličnih portala.