Categorie: AI.
Cand am auzit prima data de GPT-3, m-am grabit sa scriu pe blog, apoi am realizat ca perioada de proba s-a incheiat si ca am ratat ocazia sa testez GPT-3.
Dar anul trecut, la finalul lui decembrie (cadou in ajun de Craciun), am primit confirmarea ca sunt acceptat in programul de evaluare gratuita a sistemului de inteligenta artificiala GTP-3 (GPT = generative pre-training) si acum trebuie sa profit si sa studiez sistemul pana imi expira perioada de evaluare (20 martie 2021).
Am gasit un film de aproape patru ore in care sunt multe pareri pro si contra:
Ce mi-am notat din vizionarea filmului:
1:50 – Se sugereaza ideea ca GPT3 merge in directia in care nu trebuie sa mearga AI, ca nu asa trebuie sa antrenezi un AI, ca setul de antrenament e bazat pe date generate de oameni intr-un context anume si ca gpt3 face doar o corelatie intre date, dar eu consider ca e perfect asa cum e acum pentru teste si, cand tehnologia va fi suficient de matura, AI sa invete de la zero ca un copil educat in cativa ani de dialoguri relevante, nu cu texte din Internet.
4:10 – Recunoasterea sabloanelor nu este suficient (algoritmi de retele neuronale de OCR), ca memorarea corelatiilor (algoritm transformers) nu e suficient si ca nu ajuta cand intalnesti ceva necunoscut, ceva ce nu ai memorat, dar eu consider ca exact asa trebuie sa functioneze AI: sa retina asocierea imagine-eticheta sau intrebare-raspuns (in parametri din reteaua neuronala), pentru ca asa invata si omul, din experienta, si mai tarziu cand omul vede o imagine necunoscuta, creierul o aproximeaza cu ceva ce stie din experienta.
4:50 – In limbajul natural nu spui tot ce ai de spus si AI nu invata bine din analiza textelor din Internet, dar eu consider ca nu e asa, in Internet cand spui ceva (in scris) o spui clar sa nu fie confuzie (daca e articol stiintific sau wikipedia) si poate nu prea clar (daca e postare pe twiter, facebook sau blog sau altceva), dar chiar si asa, e mare lucru daca AI invata si se maturizeaza tehnologia AI si, mai tarziu, revizuim si adaptam algoritmul de invatare si antrenam AI cu un set nou de date.
5:21 – Nu am multa experienta in AI, dar am inteles in timp ca AI invata din statistici, din exemplele filtrate si simplificate de diversi algoritmi si rezultatul este stocat intr-o structura de date si m-am gandit ca tot asa stocheaza si oamenii informatia in reteaua de neuroni. GPT3 foloseste transformers si este o retea neuronala in care se memoreaza secvente de cuvinte (reprezentate ca un vector de numere) si pentru asta are nevoie de memorie, intelegere context si ajustare atentie (pondere cuvinte).
5:51 – Daca GPT3 nu are rezultate bune, oricand se poate imbunatati algoritmul de transformare si totul trebuie reluat de la zero, dar exact acesta e motivul pentru care datele de intrare sunt aduse din Internet, ca sa se accelereze procesul de invatare si evaluare AI. Dar daca sunt doar informatii noi sau o actualizare a informatiilor deja cunoscute, cred ca e suficient ca noile date sa fie introduse in GPT3 si modelul AI sa fie salvat sub alt nume.
6:10 – Sunt comentarii negative privind stilul intrebare-raspuns pentru ca inca nu s-a vazut adevaratul potential al lui GPT3.
14:10 – In intelegerea limbajului nu trebuie sa fie parametri statistici, in recunosterea sabloanelor e ok sa folosesti statistica, dar la semantica frazei nu.
24:46 – Opinia prezentatorului: GPT3 nu este gata pentru afaceri, GPT3 nu intelege limbajul, GPT3 nu creaza ghidat de context, GPT3 este bun sa genereze articole de fictiune. Sunt de acord cu prezentatorul, am testat GPT3 si am gasit cateva puncte slabe in care demonstreaza clar ca poate NLP (natural language processing) dar nu stie NLU (natural language understanding).
52:04 – GPT3 nu intelege limbajul, doar face o potrivire de sabloane
1:54:41 – Observ niste idei interesante despre creierul uman si AI si cum sa fie imbunatatit algoritmul AI. Cred ca ar fi interesant sa combini cateva instante AI antrenate in diferite stiluri (cerebral, vulcanian, emotional, economist, tolerant, perfectionist, ...) si sa le pui in situatia sa voteze alegerea raspunsului.
1:59:13 – Observatie importanta: modelele transformers (BERT, BART, ROBERTA, GPT3) sunt mai bune (sau mai populare acum) decat LSTM sau RNN pentru ca merg mai bine pe placile grafice (GPU).
2:02:07 – Retelele neuronale ar trebui sa fie redenumite in "programe de cautare matriceala".
2:32:16 – Recunoasterea de sabloane nu inseamna ca intelegi ce recunosti, doar ca poti clasifica informatia intr-o categorie anume, iar GPT3 nu intelege ce recunoaste.
2:34:43 – Eu: Recunoasterea de sabloane provine 100% din setul de date de antrenament, dar rationamentul e mult mai mult de atat (informatie obtinuta deductiv si inductiv care modifica fiziologia creierului (neuroplasticitate) si actualizeaza informatia ca experienta personala).
2:37:14 – Oricat de puternic ar fi modelul AI, daca proceseaza numai informatii ca recunoastere de sabloane, nu va intrece un copil de 4 ani care are rationament. Eu adaug: daca implementezi un mecanism de feedback cu rol punitiv pentru AI se pot intampla doua minuni: AI capata compasiune (intelege durearea pentru ca o experimenteaza pe propria piele si nu va face rau omenirii) si capata constiinta (pentru ca ii este rusine de predictiile false si se straduieste sa se perfectioneze).
2:52:32 – Eu: E normal ca textul generat de GPT3 sa fie unic (sa nu fie gasit pe Internet la o cautare exacta si luat cu copy/paste) pentru ca GPT3 intelege contextul (limitat la recunoasterea de sabloane) si completeaza (cuvantul cu probabilitatea cea mai mare) cu informatii relevante gasite (invatate) din Internet.
3:08:42 – FSM (finite state machine) sunt recunoasterea de sabloane si Turing Machines sunt capabile de rationament.
Pentru fiecare set finit de date se pot rezolva toate problemele cu o FSM, dar o masina Turing poate face infinit mai multe.3:12:31 – Esenta rationamentului este calcul fara limite, iar recunoasterea de sabloane este un calcul restrictionat.
In final prezentatorii alternau intre laude si dezamagiri, dar nu tratau testele cu consecventa si sunt sigur de asta ca am testat si eu alte sisteme AI.
Concluzie: GPT-3 este puternic si surprinzator, deja am cateva teste salvate in care am consumat 1,192 unitati din 300,000 alocate gratuit.