Cercetător de top în domeniul inteligenței artificiale: "Avem o fărâmă de șansă ca omenirea să supraviețuiască peste doi ani!"

Postat la: 23.02.2024 - 09:03

Potrivit celebrului cercetător în domeniul inteligenței artificiale, Eliezer Yudkowsky, există o avertismentul alarmant conform căruia inteligența artificială ar putea provoca distrugerea omenirii într-un interval de doar doi ani.

Acest expert, recunoscut pentru perspectiva sa pesimistă asupra evoluției tehnologiei, a lansat o nouă predicție cu privire la viitorul omenirii, atrăgând atenția asupra posibilelor riscuri majore asociate cu dezvoltarea necontrolată a inteligenței artificiale și a potențialelor consecințe nefaste pe care aceasta le poate avea asupra societății umane într-un timp relativ scurt.

„Dacă m-ați pune la zid", a declarat el pentru The Guardian într-un nou interviu tulburător, „și m-ați forța să pun probabilități pe lucruri, am sentimentul că actuala noastră cronologie rămasă seamănă mai degrabă cu cinci ani decât cu 50 de ani. Ar putea fi doi ani, ar putea fi 10".

Dacă vă întrebați ce înseamnă „linia de timp rămasă" în acest context, Tom Lamont, de la The Guardian, a interpretat-o ca fiind „sfârșitul mecanic al tuturor lucrurilor", o „apocalipsă de tip Terminator" sau un „iad din Matrix".

„Dificultatea este că oamenii nu își dau seama", a declarat Yudkowsky, fondatorul Institutului de Cercetare a Inteligenței Mașinilor din California. „Avem o fărâmă de șansă ca omenirea să supraviețuiască„.

Lamont a vorbit cu multe figuri proeminente din zona AI, de la Brian Merchant la Molly Crabapple, linia de bază fiind scepticismul cu privire la ideea că, doar pentru că apare o nouă tehnologie, trebuie să o adoptăm chiar dacă nu este bună pentru oameni.

În aceste zile, o mare parte din această critică se concentrează pe inteligența artificială. De ce, susțin criticii, ar trebui să tratăm această tehnologie ca fiind inevitabilă, chiar dacă pare pregătită să elimine și să destabilizeze un număr mare de locuri de muncă? Sau, în cazul lui Yudkowsky, dacă tehnologia reprezintă probabil o amenințare existențială.

Observațiile sale au fost cele mai provocatoare din articol, ceea ce probabil nu este surprinzător, având în vedere istoricul său. Cei care urmăresc AI își amintesc, de exemplu, de anul trecut, când a cerut bombardarea centrelor de date pentru a opri ascensiunea AI.

El a reformulat această afirmație, pentru The Guardian. Susține ideea de a bombarda centrele de date, dar nu mai crede că ar trebui să fie folosite arme nucleare pentru a le viza. „Aș alege o formulare mai atentă acum", a spus expertul.

Comentarii

Adauga un comentariu

Adauga comentariu

Nume*

Comentariu