Mythos AI ajunge la Casa Albă după ce Anthropic se teme să-l lanseze public pentru că este "prea puternic - risc de securitate națională"
Postat la: 29.04.2026 - 08:37
Casa Albă elaborează orientări care ar permite agenţiilor să ocolească clasificarea riscurilor de către Anthropic şi să adopte noi modele, inclusiv cel mai puternic model al său de până acum, Mythos, potrivit unor surse familiarizate cu acest subiect, transmite Axios. În ceea ce privește AI-ul Mythos există mari controverse, el fiind considerat atât de puternic încât compania se teme să-l lanseze către publicul larg.
Recent, cei de la Anthropic susțin că au dezvoltat un program de AI numit "Mythos", care a devenit atât de puternic și de independent încât le este frică să-l lanseze către publicul larg. Pentru astfel de programe, cei de la Anthropic au intrat pe lista neagră a Pentagonului și sunt considerați "risc de securitate națională".
Anthropic a anunțat că a suspendat lansarea la scară largă a celui mai nou model de IA al său, Mythos, din cauza îngrijorărilor că acesta este prea eficient în identificarea „vulnerabilităților cu grad ridicat de gravitate" în principalele sisteme de operare și browsere web, informează Bussines Insider.
„Creșterea semnificativă a capacităților versiunii de previzualizare Claude Mythos ne-a determinat să decidem să nu o punem la dispoziția publicului larg", a scris Anthropic în fișa de sistem a versiunii de previzualizare. „În schimb, îl folosim ca parte a unui program defensiv de securitate cibernetică cu un număr limitat de parteneri."
Administraţia Trump pare să-şi schimbe complet poziţia faţă de compania despre care susţinea anterior că reprezintă un risc de securitate atât de grav încât trebuia eliminată din cadrul guvernului federal.
Un proiect de măsură executivă care se află în prezent în lucru ar putea, printre alte măsuri legate de utilizarea IA de către guvern, să ofere administraţiei o modalitate de a reduce intensitatea conflictului cu Anthropic, au declarat două surse familiarizate cu situaţia.
O sursă a descris eforturile Casei Albe ca o modalitate de a "salva aparenţele şi de a-i readuce înapoi". La începutul acestei luni, şefa de cabinet a Casei Albe, Susie Wiles, şi secretarul Trezoreriei, Scott Bessent, s-au întâlnit cu CEO-ul Anthropic, Dario Amodei, pentru ceea ce ambele părţi au numit o întâlnire introductivă productivă privind modul în care compania şi guvernul pot colabora.
Casa Albă convoacă săptămâna aceasta companii din diverse sectoare pentru a le informa cu privire la potenţialele măsuri executive şi la cele mai bune practici pentru implementarea Mythos. Aceste întâlniri includ "lecturi la masă" ale unor posibile orientări care ar putea anula directiva Oficiului de Management şi Buget privind neutilizarea Anthropic în cadrul guvernului.
"Casa Albă continuă să colaboreze în mod proactiv cu instituţiile guvernamentale şi cu sectorul privat pentru a proteja ţara noastră şi poporul american, inclusiv prin colaborarea cu laboratoarele de vârf din domeniul inteligenţei artificiale", a declarat Casa Albă.
"Efortul colectiv al tuturor părţilor implicate va aduce, în cele din urmă, beneficii economiei şi ţării noastre. Cu toate acestea, orice anunţ privind politicile va veni direct de la preşedinte, iar orice altceva nu este decât speculaţie", a adăugat Casa Albă.
Pentagonul şi Casa Albă au fost cândva de acord să pună pe lista neagră o companie pe care amândouă o denunţau ca fiind "woke". Apoi a apărut Mythos, care a demonstrat o capacitate înfricoşătoare de a automatiza atacurile cibernetice, dar care ar putea fi, de asemenea, un instrument puternic pentru apărători.
Agenţiile din cadrul guvernului federal cer cu insistenţă acces la Mythos, în acelaşi timp în care Pentagonul se luptă cu Anthropic în instanţă.
Agenţiile guvernamentale, inclusiv Pentagonul, pot încă utiliza modelele Anthropic în timp ce se desfăşoară lupta juridică, iar Agenţia Naţională de Securitate foloseşte chiar Mythos, dar disputa a complicat mult cooperarea dintre Anthropic şi guvern.
Mai multe surse au declarat pentru Axios că, în timp ce actorii-cheie de la Pentagon sunt încrâncenaţi pe această problemă, alte părţi interesate consideră că lupta a fost contraproductivă şi sunt gata să găsească o cale de ieşire.
Nu este clar dacă măsurile luate în considerare ar rezolva disputa cu Pentagonul sau ar facilita pur şi simplu colaborarea altor agenţii guvernamentale cu Anthropic.
Dar, chiar dacă Pentagonul va ridica desemnarea de risc pentru lanţul de aprovizionare, ceea ce unii din cadrul Pentagonului şi al Anthropic cred că se va întâmpla la un moment dat, disputa principală rămâne.
Anthropic a refuzat să semneze un acord care să permită Pentagonului să utilizeze modelul său Claude în "toate scopurile legale", insistând asupra interzicerii utilizării acestuia pentru supravegherea internă în masă sau pentru dezvoltarea de arme complet autonome.
În prezent, Pentagonul poate încă utiliza modelul Claude, care este integrat în sisteme extrem de sensibile, dar acesta funcţionează în baza unor condiţii de utilizare mai vechi, pe care ambele părţi le consideră excesiv de restrictive, a declarat o sursă familiarizată cu situaţia. De asemenea, Pentagonul nu primeşte cele mai recente actualizări ale modelului.
Sursa a afirmat că este posibil ca părţile să ajungă din nou în negocieri controversate. Atât OpenAI, cât şi Google au semnat acorduri pentru a permite Pentagonului să utilizeze modelele lor în conformitate cu standardul "în toate scopurile legale" în contexte clasificate, deşi ambele susţin că aceste acorduri respectă aceleaşi două linii roşii trasate de Anthropic.

Comentarii
Adauga un comentariuAdauga comentariu