Studii cu adevărat șocante: AI induce în eroare alegătorii și modifică rezultatele voturilor

Postat la: 22.12.2025 - 08:46

Două studii importante publicate de Science și Nature au descoperit că o proporție șocantă de alegători au fost convinși de chatbot-urile AI, schimbându-și opiniile cu 15 puncte procentuale în unele alegeri. Peste 15 modele AI au fost testate pe 80.000 de participanți din Marea Britanie, SUA, Canada și Polonia, iar chatbot-urile s-au dovedit a fi cu 50% mai convingătoare decât reclamele tradiționale de campanie.

Problema aici nu este doar că AI schimbă opinia publică. O cincime din afirmațiile transmise utilizatorilor au fost evaluate ca fiind în mare parte inexacte. Așadar, luând în considerare dezinformarea modelelor automate, puterea lor de convingere și faptul că 44% dintre adulții din SUA utilizează deja în mod regulat instrumente precum ChatGPT, trebuie să ne gândim la câteva aspecte cheie: cum va influența acest lucru alegerile viitoare, cum putem controla dezinformarea deliberată și ce se va întâmpla dacă persoane fără scrupule vor găsi o modalitate de a exploata aceste sisteme?

Cât de eficientă este persuasiunea politică prin IA?

Schimbarea preferințelor alegătorilor cu două până la cincisprezece puncte procentuale este un efect atât de mare încât ar putea răsturna aproape orice alegeri moderne. Aceste modele nu se bazează pe manipularea emoțională. În schimb, ele bombardează utilizatorii cu fluxuri de informații pline de încredere - unele exacte, dar multe dintre ele inexacte. De fapt, cele mai persuasive sisteme erau și cele mai puțin veridice.

În SUA, când susținătorii lui Trump au interacționat cu un chatbot pro-Harris, sprijinul lor s-a schimbat cu 3,9 puncte procentuale în favoarea lui Harris. Susținătorii lui Harris expuși unui model pro-Trump s-au îndepărtat cu 2,3 puncte în direcția opusă. Aceste oscilații sunt extraordinare ca amploare, având în vedere că majoritatea reclamelor și campaniilor politice obțin o schimbare cu mult mai mică de un punct - adesea statistic indistinctă de zero. Schimbarea de 3,9 puncte în favoarea lui Harris este de patru ori mai mare decât efectul măsurat al tuturor reclamelor politice din timpul alegerilor din 2016 și 2020.

Convingător și inexact: o combinație alarmantă

În Marea Britanie, 19 modele lingvistice mari (LLM) au fost utilizate pentru aproape 77.000 de participanți pe peste 700 de teme politice. Studiul a constatat că cea mai eficientă modalitate de a spori puterea de convingere a modelelor era să le instruiască să includă fapte și dovezi în argumentele lor, oferindu-le instruire suplimentară folosind exemple de conversații persuasive. Cel mai persuasiv model a determinat participanții care inițial nu erau de acord cu o declarație politică să-și schimbe opinia cu 26,1 puncte în favoarea acesteia.

Cu toate acestea, cea mai îngrijorătoare constatare nu este doar puterea de convingere. Pe măsură ce modelele au devenit mai influente asupra opiniei utilizatorilor, acestea au furnizat din ce în ce mai multe informații înșelătoare sau pur și simplu false. Acest lucru ridică îngrijorări cu privire la consecințele potențiale pentru democrație: campaniile politice care utilizează chatbot-uri cu IA ar putea modela opinia publică cu informații total inexacte, compromițând capacitatea alegătorilor de a face judecăți politice independente.

Wynton Hall, directorul de social media al Breitbart, a concluzionat: „Știm de mult timp că LLM-urile nu sunt neutre și manifestă în mod copleșitor o tendință politică de stânga. Ceea ce confirmă acest studiu este că chatbot-urile AI sunt, de asemenea, extrem de pricepute ca mașini de persuasiune politică și sunt dispuse să halucineze informații eronate dacă asta este necesar pentru a influența mințile umane. Când combini părtinirea, halucinațiile AI și puterea de persuasiune în stil ciceronian, este clar un semnal de alarmă pentru conservatori în perspectiva alegerilor de la jumătatea mandatului și a alegerilor prezidențiale".

Cum chatbot-urile schimbă atât de ușor opiniile

Spre deosebire de comunicările unidirecționale, cum ar fi reclamele, tweet-urile, fluturașii și discursurile de campanie, chatbot-urile operează în spațiul cognitiv al unei persoane. Ei pot răspunde instantaneu la întrebări, pot contesta ipoteze, pot elimina ambiguitatea și, poate cel mai important, pot genera raționamente personalizate la cerere. S-a constatat că formatul conversațional al LLM-urilor precum ChatGPT este cu 41%-52% mai persuasiv decât mesajele statice ale IA. Funcționează similar cu agenții de campanie care bat din ușă în ușă, cu excepția faptului că are o memorie perfectă, răbdare infinită, o rezervă nelimitată de argumente și capacitatea de a vorbi cu milioane de oameni în același timp.

O concluzie interesantă a studiilor a fost că cele mai eficiente modele de IA nu se bazează pe manipularea emoțională, ci pur și simplu urmăresc să supraîncarce utilizatorii cu informații. Chatbot-urile produc cantități uriașe de detalii factuale - sau aparent factuale -, asamblând instantaneu argumente politice detaliate pe care majoritatea oamenilor nu le pot contesta în timp real. Cu cât furnizau mai multe informații, cu atât erau mai eficiente în schimbarea opiniilor. Volumul, mai degrabă decât sentimentul, este adevărata armă.

Efectul respectării faptelor a fost demonstrat în mod frapant în partea poloneză a studiului. Când cercetătorii au eliminat faptele din argumentele chatbot-urilor și s-au bazat în schimb pe apeluri emoționale, povestiri și personalități, puterea lor de persuasiune a scăzut cu 78%. Această constatare sugerează că oamenii sunt mai vulnerabili la densitatea informațiilor decât la manipularea psihologică.

Comentarii

Adauga un comentariu

Adauga comentariu

Nume*

Comentariu