Știm că inteligența artificială (AI) nu poate gândi la fel ca o persoană, dar o nouă cercetare a dezvăluit modul în care această diferență ar putea afecta procesul decizional al AI.
În plus, ar putea duce la ramificații în lumea reală pentru care oamenii ar putea fi nepregătiți.
Studiul, publicat în revista Transactions on Machine Learning Research, a examinat cât de bine modelele lingvistice mari (LLM) pot forma analogii.
Ei au constatat că, atât în analogiile simple cu șiruri de litere, cât și în problemele matricei digitale – în care sarcina era de a completa o matrice prin identificarea cifrei lipsă – oamenii au performat bine, dar
În timp ce testau robustețea oamenilor și a modelelor AI în probleme de analogie bazate pe povești, studiul a constatat că modelele erau susceptibile la efectele ordinii răspunsurilor – diferențe în răspunsuri datorate ordinii tratamentelor într-un experiment – și, de asemenea, este posibil să fi fost mai predispuse la parafrazare.
În ansamblu, studiul a concluzionat că abilitățile de învățare „zero-shot”, în care un cursant observă eșantioane din clase care nu au fost prezente în timpul instruirii și face predicții cu privire la clasa din care fac parte în funcție de întrebare.
Coautorul studiului, Martha Lewis, profesor asistent de inteligență artificială neuro-simbolică la Universitatea din Amsterdam, a spus că, în timp ce noi putem face abstracție de la modele specifice la reguli mai generale, LLM-urile nu au această capacitate, scrie LiveScience.
„Sunt bune la identificarea și potrivirea tiparelor, dar nu și la generalizarea din acele tipare.”
se bazează într-o anumită măsură pe volum – cu cât sunt disponibile mai multe date de instruire, cu atât sunt identificate mai multe modele.
Dar Lewis a subliniat că potrivirea tiparelor și abstractizarea nu sunt același lucru. „Este vorba mai puțin despre ceea ce se află în date și mai mult despre modul în care datele sunt utilizate”, a adăugat ea.