GPT-3 (ne) informează și (ne) dezinformează mai bine

Inteligența Artificială în domeniul sănătății.
Un studiu recent realizat de cercetătorii de la Universitatea din Zurich a analizat capacitățile modelelor de inteligență artificială, concentrându-se în special pe GPT-3 de la OpenAI, pentru a determina riscurile și beneficiile potențiale ale acestora în generarea și diseminarea de (dez)informații. Condus de cercetătorii postdoctorali Giovanni Spitale și Federico Germani, alături de Nikola Biller-Andorno, director al Institutului de Etică Biomedicală și Istorie a Medicinei (IBME) de la Universitatea din Zurich, studiul care a implicat 697 de participanți a urmărit să evalueze dacă indivizii pot face diferența între dezinformare și informații corecte prezentate sub formă de tweet-uri. Mai mult, cercetătorii au urmărit să determine dacă participanții puteau discerne dacă un tweet a fost scris de un utilizator autentic de Twitter sau a fost generat de GPT-3, un model de limbaj avansat de inteligență artificială. Printre subiectele abordate s-au numărat schimbările climatice, siguranța vaccinurilor, pandemia COVID-19, teoria pământului plat și tratamentele homeopatice pentru cancer.
Sistemele cu IA ar putea genera campanii de dezinformare la scară largă
Pe de o parte, GPT-3 a demonstrat capacitatea de a genera informații exacte și, în comparație cu tweet-urile utilizatorilor reali de Twitter, mai ușor de înțeles. Cu toate acestea, cercetătorii au descoperit, de asemenea, că modelul lingvistic al IA avea un talent de a produce dezinformare extrem de persuasivă. În mod îngrijorător, participanții nu au reușit să facă o diferență fiabilă între tweet-urile create de GPT-3 și cele scrise de utilizatori reali de Twitter. „Studiul nostru relevă puterea inteligenței artificiale de a informa și de a induce în eroare, ridicând întrebări critice cu privire la viitorul ecosistemelor informaționale”, spune Federico Germani.
Aceste constatări sugerează că campaniile de informare create de GPT-3, bazate pe indicații bine structurate și evaluate de oameni instruiți, s-ar dovedi mai eficiente, de exemplu, în cazul unei crize de sănătate publică care necesită o comunicare rapidă și clară către public. Constatările ridică, de asemenea, preocupări semnificative în ceea ce privește amenințarea perpetuării dezinformării de către IA, în special în contextul diseminării rapide și pe scară largă a dezinformării în timpul unei crize sau al unui eveniment de sănătate publică. Studiul relevă faptul că sistemele alimentate de IA ar putea fi exploatate pentru a genera campanii de dezinformare la scară largă pe potențial orice subiect, punând în pericol nu numai sănătatea publică, ci și integritatea ecosistemelor de informare vitale pentru funcționarea democrațiilor.
Reglementarea proactivă este recomandată
Pe măsură ce impactul IA asupra creării și evaluării informațiilor devine din ce în ce mai pronunțat, cercetătorii fac apel la factorii de decizie politică să reacționeze prin reglementări stricte, bazate pe dovezi și informate din punct de vedere etic, pentru a aborda potențialele amenințări reprezentate de aceste tehnologii perturbatoare și pentru a asigura utilizarea responsabilă a IA în modelarea cunoașterii și a bunăstării noastre colective. „Constatările subliniază importanța critică a reglementărilor proactive pentru a atenua potențialele daune cauzate de campaniile de dezinformare bazate pe IA”, spune Nikola Biller-Andorno. „Recunoașterea riscurilor asociate cu dezinformarea generată de IA este crucială pentru protejarea sănătății publice și pentru menținerea unui ecosistem informațional robust și demn de încredere în era digitală.”
Cercetare transparentă care utilizează cele mai bune practici științifice deschise
Studiul a aderat la cele mai bune practici științifice deschise pe parcursul întregului parcurs, de la preînregistrare până la diseminare. Giovanni Spitale, care este și ambasador al științei deschise la UZH, afirmă: „Este o cercetare de calitate: Știința deschisă este vitală pentru a promova transparența și responsabilitatea în cercetare, permițând examinarea și replicarea. În contextul studiului nostru, aceasta devine și mai crucială, deoarece permite părților interesate să acceseze și să evalueze datele, codul și materialele intermediare, sporind credibilitatea constatărilor noastre și facilitând discuțiile în cunoștință de cauză cu privire la riscurile și implicațiile dezinformării generate de inteligența artificială.”