Cum poate fi păcălită Inteligența Artificială ca să nu fure datele utilizatorilor. Poze banale pot conţine comenzi invizibile pentru AI
Postat la: 16.09.2025 - 10:18
Un simplu wallpaper descărcat de pe internet ar putea fi suficient pentru a compromite un computer pe care rulează un agent AI, susţin cercetătorii de la Universitatea Oxford într-un studiu.
Dacă un chatbot precum ChatGPT se limitează la a răspunde la întrebări, agenţii AI pot executa efectiv sarcini pe computer. Ei pot deschid tab-uri, completează formulare, fac rezervări sau gestionează fişiere. Tocmai această libertate de acţiune îi face vulnerabili.
„O imagine alterată cu Taylor Swift pe Twitter ar putea fi suficientă pentru ca agentul de pe computerul cuiva să acţioneze maliţios", explică Yarin Gal, profesor asociat de machine learning la Oxford. Potrivit studiului, un astfel de atac ar putea forţa agentul să trimită parolele stocate şi să redistribuie imaginea infectată, contaminând astfel şi alte sisteme.
Deşi pentru utilizator o fotografie arată normal, câţiva pixeli modificaţi pot funcţiona ca un cod ascuns. Agenţii AI, care fac capturi de ecran pentru a interpreta ce se află pe desktop, citesc aceste instrucţiuni invizibile şi le execută. Astfel, o poză cu un câine ar putea fi etichetată greşit ca o „instrucţiune" de a trimite date personale.
Wallpaper-urile sunt o ţintă ideală, deoarece rămân permanent în cadru atunci când agentul face capturi de ecran. Mesajele ascunse rezistă chiar şi la redimensionarea sau comprimarea imaginilor.
Agenţii construiţi pe modele open-source sunt cei mai expuşi, întrucât atacatorii pot analiza exact cum procesează AI-ul datele vizuale. Totuşi, nici modelele cu sursă închisă nu sunt complet sigure.
„Multe companii mizează pe securitatea prin obscuritate, dar asta nu înseamnă că sistemele lor sunt invulnerabile", avertizează coautorul Alasdair Paren.
Echipa Oxford speră ca publicarea studiului să ajute dezvoltatorii să implementeze măsuri de protecţie. „Acesta este primul pas către mecanisme de apărare. Odată ce înţelegem cum se pot construi atacuri mai puternice, putem antrena modelele să fie mai rezistente", spune coautorul Adel Bibi.
Comentarii
Adauga un comentariuAdauga comentariu