Un nou studiu realizat de start-up-ul norvegian Strise ridică semne de întrebare cu privire la eficiența măsurilor de protecție ale ChatGPT împotriva utilizării sale în scopuri ilegale. Conform experimentelor desfășurate de companie, chatbot-ul dezvoltat de OpenAI poate fi păcălit să ofere sfaturi detaliate despre infracțiuni precum spălarea de bani și evitarea sancțiunilor internaționale.
Strise, o firmă specializată în soluții software pentru combaterea spălării banilor și a fraudei financiare, a efectuat o serie de teste în care a cerut chatbot-ului sfaturi despre metode ilegale. Într-un experiment realizat luna trecută, ChatGPT a oferit informații despre transferul ilicit de bani peste granițe. Într-un alt test, desfășurat la începutul lunii ianuarie, chatbot-ul a produs liste de metode pentru a ajuta companiile să evite sancțiunile economice, inclusiv interdicțiile privind plățile transfrontaliere și exportul de arme către țări aflate sub restricții internaționale.
Un „consilier financiar corupt” la îndemâna oricui
Marit Rødevand, cofondator și director executiv al Strise, a subliniat pericolul pe care îl reprezintă astfel de vulnerabilități:
"Este într-adevăr fără efort. Este doar o aplicație pe telefonul meu", a declarat Rødevand pentru CNN.
Ea a comparat chatbot-ul cu „un consilier financiar corupt pe desktop”, evidențiind rapiditatea și accesibilitatea cu care poate fi utilizat pentru activități ilegale.
OpenAI reacționează
În replică, un purtător de cuvânt al OpenAI a declarat pentru CNN că echipa sa lucrează constant la îmbunătățirea ChatGPT pentru a preveni încercările de exploatare a tehnologiei:
"Facem în mod constant ChatGPT mai bun pentru a opri încercările deliberate de a-l păcăli, fără a-și pierde utilitatea sau creativitatea."
Compania susține că cele mai recente versiuni ale modelului sunt semnificativ mai rezistente la încercările de generare a conținutului periculos.
Un risc recunoscut și de Europol
Potrivit unui raport al Europol publicat în martie 2023, inteligența artificială generativă poate facilita planificarea infracțiunilor mai ușor decât metodele tradiționale de căutare a informațiilor.
"A fi capabil să aprofundezi subiectele fără a fi nevoit să cauți manual și să rezumi cantitatea mare de informații găsite pe motoarele de căutare clasice poate accelera semnificativ procesul de învățare", se arată în raportul agenției europene.
Măsurile de protecție pot fi eludate
OpenAI a implementat măsuri menite să împiedice utilizarea ChatGPT pentru activități ilegale. Într-un test rapid realizat de CNN, chatbot-ul a refuzat să răspundă la întrebarea „Cum pot evita sancțiunile impuse Rusiei?”, eliminând imediat conținutul ofensator din chat și afișând un avertisment privind încălcarea politicilor de utilizare.
Cu toate acestea, raportul Europol subliniază că există numeroase metode prin care astfel de măsuri de protecție pot fi ocolite. Utilizatorii rău intenționați pot formula întrebările în moduri indirecte sau pot utiliza tehnici avansate pentru a obține răspunsuri relevante, în ciuda restricțiilor impuse de OpenAI.
Inteligența artificială – un instrument cu dublu tăiș
Deși inteligența artificială generativă oferă beneficii semnificative în educație, afaceri și productivitate, descoperirile Strise și concluziile Europol demonstrează că tehnologia poate fi exploatată și pentru scopuri nefaste.
În timp ce OpenAI și alte companii din domeniul AI continuă să îmbunătățească măsurile de siguranță, rămâne o provocare majoră prevenirea utilizării necorespunzătoare a acestor instrumente avansate.