Oamenii de stiinta de la Cambridge au demarat un proiect al carui obiectiv este acela de a stabili daca inteligenta artificiala ar putea deveni la un moment dat periculoasa pentru omenire, dand astfel nastere Centrului pentru Studierea Riscului Existential (CSER).
Inteligenta Artificiala Generala - un risc pentru omenire? |
In opinia specialistilor de la Cambridge, atata vreme cat nu se poate demonstra contrariul, acest risc exista cu adevarat, asadar merita lansat un proiect dedicat studierii unui astfel de fenomen, in cadrul unei noi matrici de cercetare, denumita sugestiv "Centre for the Study of Existential Risk".
"La un moment dat, fie in secolul acesta fie in cel care vine, omenirea s-ar putea confrunta cu schimbari impresionante din punct de vedere al evolutiei sale, cand inteligenta se va desprinde din incatusarea formelor biologice, pentru a-si impune propriile reguli", afirma Huw Price, unul din fondatorii centrului.
AGI - un risc pentru omenire?
"Impactul Inteligentei Artificiale Generale (AGI) asupra omenirii constituie un subiect asupra caruia oamenii de stiinta ar trebui sa-si indrepte atentia, inainte de deschiderea acelei metaforice cutii a Pandorei, din care ar putea sa rasara o surpriza dezastruoasa pentru intreaga noastra specie", avertizeaza specialistul.
Jaan Tallinn, inginer informatician si fondator al retelei Skype, marturisea la randul sau, ca in momentele in care il incolteste pesimismul, se simte amenintat mai degraba cu o moarte provocata intr-un fel sau altul de o sursa de inteligenta artificiala, decat de cancer sau boli cardiace.
"Sunt fascinat de faptul ca o persoana atat de "cu capul pe umeri" in acest domeniu, trateaza chestiunea cu seriozitate si se declara gata sa faca ceva concret in acest context, a mai declarat Price.
In conditiile in care tehnologia domina astazi arii vaste ale globului, avansand la iuteala fara odihna si in mare parte fara control, probabilitatea ca aceasta gigantica retea nevazuta de inteligenta sa sfarseasca prin a-si inghiti creatorii, nu este deloc de neglijat.
"Va trebui sa investim cate ceva din resursele noastre intelectuale pentru a despica firul in patru in ceea ce priveste posibilele rezultate negative ale acestei explozii tehnologice, nu sa ne rezumam la a evalua doar efectele sale pozitive", a concluzionat Price.
Niciun comentariu:
Trimiteți un comentariu
*Va rugam utilizati un limbaj decent. Multumim.