Halucinațiile au fost și continuă să fie o provocare pentru modelele de Inteligență Artificială, un termen elegant folosit de industrie pentru a descrie născocirile uluitoare pe care chatboții le prezintă uneori drept realitate.
Ei bine, s-ar părea că situația se înrăutățește, relatează jurnaliștii de la Futurism care citează mai multe articole din New York Times. Pe măsură ce modelele de Inteligență Artificială devin mai puternice, acestea devin și mai predispuse la halucinații. Acesta este un adevăr incomod în contextul în care utilizatorii apelează tot mai mult la ajutor din partea instrumentelor de la OpenAI.
Mai rău de atât este că firmele din industria Inteligenței Artificiale încearcă fără prea mult succes să înțeleagă de ce chatboții generează mai multe erori ca niciodată, o problemă care scoate în evidență faptul că nici măcar creatorii de AI nu înțeleg cum funcționează propria lor tehnologie.
Astfel, situația contrazice predicțiile care arată că modelele de AI vor deveni mai puternice și mai de încredere pe măsură ce sunt extinse. Miza este mare pentru că toate aceste companii investesc zeci de miliarde de dolari în construirea infrastructurii AI.
În opinia multor experți, halucinațiile ar putea fi inerente tehnologiei, astfel că problema ar fi imposibil de rezolvat.
„În ciuda tuturor eforturilor noastre, vor continua să halucineze. Asta nu va dispărea niciodată”, a spus Amr Awadallah, director executiv al start-upului Vectara pentru NYT.
Toate aceste vești vin la scurt timp după ce s-a descoperit că noile modele o3 și o4-mini de la OpenAI, lansate în luna aprilie a.c., halucinează mai mult decât versiunile anterioare.
Modelul o4-mini de la OpenAI a halucinat în jur de 48% din timp, astfel că nu era prea grozav dacă încercai să afli adevărul despre o situație. Modelul o3 a obținut un scor de halucinare de 33%, aproape dublu față de modelele anterioare ale companiei.
În același timp, și DeepSeek suferă de aceeași soartă, ceea ce indică o problemă la scară industrială.
Experții au avertizat că, pe măsură ce modelele AI devin mai mari, avantajele fiecărui nou model față de predecesorul său ar putea să fie chiar diminuate. Companiile rămân rapid fără date de instruire, iar astfel apelează la date sintetice (generate de AI) pentru a-și antrena modelele. Asta, fără îndoială, ar putea avea consecințe dezastruoase.
Pe scurt, în ciuda celor mai bune eforturi, halucinează mai mult ca niciodată, iar companiile de tehnologie habar n-au încotro să o apuce.