miercuri, decembrie 11, 2024
Pentru publicitate ne puteți suna la 0770552586 sau scrie la adresa contact@albapress.ro
AcasăActualitateInteligența Artificială îi sperie pe cercetători: „Dacă cineva construiește o IA prea...

Inteligența Artificială îi sperie pe cercetători: „Dacă cineva construiește o IA prea puternică, toată lumea de pe Pământ va muri”

Date:

Știri relevante

spot_imgspot_img

Revista „Time” a publicat scrisoarea-apel a unui specialist important din domeniul inteligenței artificiale avansate, Eliezer Yudkowsky, care consideră că o IA prea puternică poate duce la extincția umanității.

Și alți specialiști susțin că, prin ChatGPT și IA, nu suntem în fața unui subiect pur tehnologic, că nu trebuie să lăsăm dezbaterea pe mâna companiilor sau guvernelor. E vorba despre supraviețuirea noastră ca specie, cred acești oameni.

Citește și: Un consilier PSD a apărut gol, sub duș, la una dintre ședințele de Consiliu Local a Sectorului 1. Și-a dat demisia

În aceeași zi în care Elon Musk și un grup de experți au cerut o pauză de șase luni în dezvoltarea inteligenței artificiale avansate, Eliezer Yudkowsky, fondator al Machine Intelligence Research Institute, un institut axat pe identificarea potențialelor riscuri legate de inteligența artificială, a trimis revistei americane Time o scrisoare deschisă în care cere oprirea pe termen nedeterminat a dezvoltării acesteia.

Eliezer Yudkowsky susține că pauza de șase luni de la antrenarea sistemelor de inteligență artificială (IA) generativă, cum ar fi ChatGPT, propusă de Elon Musk și grupul de experți, deși binevenită, nu e suficientă.

Riscul menționat de cercetător este chiar extincția speciei umane. „Mulți cercetători implicați în aceste probleme, printre care mă număr și eu, se așteaptă ca rezultatul cel mai probabil al construirii unei inteligențe artificiale supraomenești, în circumstanțe cât de cât asemănătoare cu cele actuale, să fie că toată lumea de pe Pământ va muri”, scrie el. 

„Ești făcut din atomi pe care IA îi poate folosi pentru altceva”

Eliezer Yudkowsky consideră că omenirea nu este pregătită să facă față astăzi unei asemenea provocări. „Ar necesita precizie și pregătire și noi perspective științifice, și, probabil, nu ar avea sisteme IA compuse din matrice uriașe de numere fracționale imperceptibile”.

Citește și: FOTO „Untold-ul” pe vremuri: Târgul de Fete de la Găina, record de audiență în 1963. A fost prezent și Gheorghe Gheorghiu Dej

„Fără această precizie și pregătire”, continuă el, „cel mai probabil rezultat este că IA nu face ceea ce vrem și nu-i va păsa de noi și nici de viața conștientă în general. Acest tip de grijă este ceva care, în principiu, ar putea fi introdus într-o IA, dar nu suntem pregătiți și nu știm în prezent cum”, avertizează cercetătorul.

„Nu va rămâne la computere”

Specialistul susține că „o inteligență artificială suficient de dezvoltată nu va rămâne mult timp limitată la computere”.  „În lumea de astăzi, se pot trimite prin e-mail șiruri de ADN către laboratoare, care vor produce proteine la cerere, permițând astfel unei inteligențe artificiale inițial limitate la internet să construiască forme de viață artificiale sau să treacă direct la producția moleculară postbiologică”, argumentează el. 

În aceste condiții, riscul distrugerii omenirii este cât se poate de real, subliniază  Yudkowsky, potrivit Time.

author avatar
Redacția AlbaPress
spot_img

Ultimele știri

spot_img
spot_imgspot_img
spot_img

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.

Sari la conținut