Meta loodud LLaMA tehisintellekt on läbimas optimeerimist ja selle parameetrite arv, mille järgi keelemudel töötab ja vastuseid loob, on suurusjärgu võrra kompaktsem, kui OpenAI keelemudel GPT-3, millel tuntud ChatGPT vestlusroboti teenus jookseb. See aga tähendab, et varsti pole enam vaja serverikeskuse võimsust, et küsimustele vastata.
Kõik Meta tehisintellekti mudelid lubatakse anda teadusringkondadele ja kõigile huvilistele vabaks kasutamiseks, kirjutab Meta.
LLaMA (Large Language Model Meta AI) on Facebooki firma Meta loodud suur keelemudel või õigemini mitu keelemudelit, millega tehisintellekt saab anda inimkõnes vastuseid vabas vormis esitatud küsimustele. See kasutab 7-65 miljardit parameetrit, samal ajal kui GPT-3 keerukuseks on 175 miljardit parameetrit.
Nii nagu ChatGPT, on ka LLaMA treenitud suure mahu internetis leiduvate andmete põhjal, kuid kasutatud on vaid avalikult kättesaadavat vabakasutuse litsentsiga sisu: Common Crawl, Wikipedia, C4 Dataset jne. See aga tähendab, et ettevõte võib mudeli koos avatud lähtekoodi ja treeninguandmetega kõigile vabakasutuseks anda. Seni on kõik tehisintellektide võidujooksus osalejad hoidnud oma masina tehnoloogilised detailid ja andmed kiivalt saladuses.
LLaMA eeliseks on võimalus panna see jooksma ühel graafikakaardil, mis tähendab, et taoline tehisintellekt mahuks ühte masinasse - sülearvutisse või näiteks nutitelefoni, kirjutab Ars Technica. Samas ei tähenda see, et iseõppivad keelemudelid oleksid juba valmis meie igapäevastesse seadmetesse kolima. Selleks võib veel kuluda aasta kuni kaks, arvab vabakutseline arendaja ja arvutiteadlane Simon Willison, kes on Meta avaldatud avatud lähtekoodi uurinud.