Din pacate nu mai pot participa in programul de evaluare GPT-3, pentru ca s-a terminat perioada de proba si produsul este disponibil acum numai cu plata, asa ca m-am multumit cu alternative.
Cautand alternative am gasit un articol promitator, dar nu am gasit nicio implementare practica, probabil timoschick/pet este raspunsul si nu stiu eu sa-l folosesc.
Dar cautand si mai mult am gasit o aplicatie pe care am reusit sa o pornesc si care testeaza simultan sase modele de inteligenta artificiala (pretrained models): next_word_prediction si imaginea demonstrativa este aici.
La pornirea aplicatiei se aduc din Internet modelele celor sase algoritmi AI folositi, aproximativ 3.5 giga de date.
Cele sase AI testate sunt: BERT, XLNET, XLM-Roberta, BART, ELECTRA si ROBERTA.
BERT = Bidirectional Encoder Representations from Transformers
ROBERTA = A Robustly Optimized BERT Pretraining Approach
Dupa cateva teste banale de predictie in Engleza am fost impresionat de rezultatele in Romana:
Nu trebuie sa exagerez cu laudele, modelele au fost instruite cu informatii din Internet si aplicatia incearca sa inlocuiasca <mask> cu cuvantul care are cea mai mare probabilitate sa se afle acolo, dar chiar si asa, AI ma uimeste.
Pentru ca sunt sase modele AI incarcate si utilizate simultan in memorie, aplicatia a umplut repede 8 giga de RAM dar, cu putina atentie, predictiile s-au facut in 2-3 secunde.
In imaginea demonstrativa functioneaza autocompletarea in timp real (sub o jumatate de secunda) dar la mine numai a doua posibilitate (predictie dupa apasarea pe buton) a fuinctionat si asta dupa 2-3 secunde.