În timpul alegerilor prezidenţiale din 2024, OpenAI a implementat măsuri de siguranţă pentru a preveni utilizarea necorespunzătoare a instrumentelor de inteligenţă artificială, inclusiv DALL-E şi ChatGPT.
Conform unui raport recent, ChatGPT a respins peste 250.000 de cereri de creare a imaginilor cu politicieni, inclusiv preşedintele Biden, preşedintele ales Trump, vicepreşedintele Harris, vicepreşedintele ales Vance şi guvernatorul Walz. Măsurile au fost introduse pentru a împiedica generarea de deepfake-uri care ar fi putut fi folosite pentru a răspândi dezinformare.
OpenAI a spus că aceste restricţii fac parte dintr-o strategie menită să prevină manipularea publicului în perioada electorală.
Compania a direcţionat 1 milion de răspunsuri către site-ul CanIVote.org în luna premergătoare alegerilor şi a generat 2 milioane de răspunsuri pentru ziua alegerilor, recomandând surse de încredere pentru verificarea rezultatelor.
Mai mult decât atât, ChatGPT a fost configurat pentru a evita exprimarea preferinţelor politice şi recomandarea de candidaţi, chiar şi atunci când a fost întrebat direct.
Cu toate acestea, deepfake-urile continuă să circule pe reţelele de socializare chiar şi acum, după alegeri. Cel mai bun exemplu este un videoclip în care vicepreşedintele Kamala Harris pare să spună lucruri pe care nu le-a spus niciodată, cum ar fi „Am fost aleasă pentru că sunt cea mai bună alegere pentru diversitate”.