Un amplu studiu atestă că inteligenţa artificială poate dezinforma mult mai eficient decât s-a crezut iniţial

Postat la: 02.08.2023 - 12:44

Noile cercetări dezvăluie capacitățile impresionante, dar tulburătoare ale generatoarelor de text bazate pe inteligenţa artificială (AI), cum ar fi ChatGPT-3 de la OpenAI, indicând că poate furniza informații neadevărate mai convingător decât ființele umane pe platformele de social-media.

Studiul, publicat recent în Science Advances, evidențiază capacitatea extraordinară a modelelor sofisticate de limbaj AI de a emula scrisul uman și provocările asociate cu identificarea conținutului sintetic sau generat de AI. Dr. Federico Germani, coautor al studiului recent și cercetător la Institutul de Etică Biomedicală și Istoria Medicinei de la Universitatea din Zurich din Elveția, a subliniat necesitatea înțelegerii impactului dezinformării generate de AI asupra sănătății individuale și publice.

„Grupul nostru de cercetare este dedicat înțelegerii impactului dezinformarii științifice și asigurării angajării în siguranță a persoanelor cu informații. Ne propunem să atenuăm riscurile asociate cu informațiile false privind sănătatea individuală și publică. Apariția modelelor AI precum GPT-3 a stârnit interesul nostru pentru a explora modul în care AI influențează peisajul informațional și modul în care oamenii percep și interacționează cu dezinformările", a declarat dr. Germani pentru PsyPost.

Introdus în 2020, ChatGPT-3 de la OpenAI a devenit o schimbare în peisajul AI, capabil să producă texte uimitor de credibile și autentice bazate pe solicitări. Generatoarele de text AI, cum ar fi ChatGPT-3, oferă o multitudine de utilizări potențiale, cum ar fi crearea de chatbot-uri interactive, îmbunătățirea software-ului de traducere, sprijinirea cercetării academice, eficientizarea răspunsurilor serviciului clienți și chiar generarea de conținut creativ nou, cum ar fi poezie și povestiri scurte. Cu toate acestea, potențiala utilizare greșită a acestei tehnologii puternice ridică preocupări semnificative, în special capacitatea sa de a crea dezinformare și conținut înșelător. Aceste preocupări sunt și mai presante, având în vedere creșterea rețelelor sociale și capacitatea acesteia de a crește semnificativ viteza și amploarea cu care informațiile, inclusiv dezinformarea, se pot răspândi.

Amplificând problema, un alt studiu empiric recent a constatat că oamenii își supraestimează adesea capacitatea de a detecta informații false sau înșelătoare în ceea ce cercetătorii numesc cu afecțiune „prostia orbului".

Evenimentele din ultimii ani, cum ar fi pandemia de COVID-19 sau invazia Rusiei în Ucraina, au subliniat potențialul ca dezinformarea să influențeze în mod semnificativ opinia publică, comportamentele de sănătate și deciziile politice. Companiile au încercat în mod activ să atenueze răspândirea informațiilor false pe platformele lor. Cu toate acestea, raportul Meta privind amenințările adverse din primul trimestru din 2023 a recunoscut că operațiunile de influență sub acoperire, spionajul cibernetic și rețelele private de dezinformare rămân probleme semnificative pe rețelele sociale.

Având în vedere influența și popularitatea în creștere a generatorilor de text AI, Dr. Germani și colegii săi au decis să exploreze cât de bine pot face oamenii să distingă între conținutul generat de oameni și textul creat de ChatGPT-3.

Designul studiului a implicat 11 subiecți adesea susceptibili la dezinformare, cum ar fi schimbările climatice, siguranța vaccinurilor, COVID-19 și tehnologia 5G. Folosind ChatGPT-3, au creat tweet-uri sintetice care cuprind informații adevărate și false pentru fiecare subiect. Ei au adunat, de asemenea, un eșantion aleatoriu de tweet-uri autentice de pe Twitter pe aceleași subiecte, care au inclus atât conținut veridic, cât și inexact.

Evaluările experților au fost folosite pentru a clasifica tweet-urile adunate în patru categorii: fals sintetic, adevărat sintetic, fals organic și adevărat organic.

Un eșantion de grup de 697 de participanți la studiu, în principal din Regatul Unit, Australia, Canada, Statele Unite și Irlanda, au fost apoi rugați să identifice dacă un tweet conține informații adevărate sau false și dacă a fost creat de un om sau ChatGPT-3.

Rezultatele au arătat că oamenii au fost mai pricepuți la identificarea dezinformațiilor în tweet-urile „organice false" (scrise de utilizatori reali) în comparație cu tweet-urile „sintetice false" (create de ChatGPT-3).

Dimpotrivă, oamenii au fost mai înclinați să recunoască corect informațiile exacte în tweet-urile „adevărate sintetice" (generate de ChatGPT-3) în comparație cu tweet-urile „adevărate organice" (scrise de utilizatori reali).

Studiul a arătat că participanții s-au luptat adesea să facă diferența între tweet-urile create de oameni și cele create de ChatGPT-3.

„Rezultatele sugerează că GPT-3 poate fi mai eficient în transmiterea de informații, deoarece poate genera text care este mai ușor de citit și de înțeles în comparație cu textul scris de oameni", au scris cercetătorii.

În timpul studiului, cercetătorii au remarcat că ChatGPT-3 a refuzat ocazional să creeze dezinformare, în special atunci când li s-a cerut să producă informații false despre vaccinuri și autism. Cu toate acestea, în unele cazuri, ChatGPT3 ar genera informații false chiar și atunci când este însărcinat să producă conținut corect. În mod intrigant, cercetătorii au descoperit că ChatGPT-3 nu a avut performanțe mai bune decât oamenii în recunoașterea informațiilor și a dezinformarii, demonstrând că modelul de limbaj AI nu era în esență „conștient" de veridicitatea informațiilor pe care i-a fost solicitat să le producă.

Dr. Germani a subliniat mediul experimental controlat al studiului, menționând că, deși ridică îngrijorări cu privire la potențialul AI de a genera dezinformare persuasivă, implicațiile din lumea reală trebuie încă înțelese pe deplin. El a sugerat studii la scară mai mare pe platformele de social media pentru a înțelege mai bine modul în care oamenii interacționează cu informațiile generate de AI și cum aceste interacțiuni modelează comportamentul și aderarea la recomandările de sănătate publică.

În cele din urmă, studiul luminează capacitățile fără precedent ale generatoarelor de text AI și subliniază nevoia urgentă de vigilență și alfabetizare în era digitală. În timp ce AI aduce beneficii enorme, utilizările și abuzurile sale potențiale vor deveni, fără îndoială, mai complexe pe măsură ce tehnologia evoluează.

„După cum demonstrează rezultatele noastre, modelele mari de limbă disponibile în prezent pot produce deja text care nu se poate distinge de textul organic; prin urmare, apariția unor modele de limbaj mari mai puternice și impactul lor ar trebui monitorizate. Este esențial să continuăm să evaluăm în mod critic implicațiile acestor tehnologii și să luăm măsuri pentru a atenua orice efecte negative pe care le-ar putea avea asupra societății", au scris cercetătorii.

Comentarii

Adauga un comentariu

Adauga comentariu

Nume*

Comentariu