Një prej mendjeve më brilante prapa letrës së bashkëfirmosur nga Musk dhe njëmijë ekspertëve të inteligjencës artificiale shpjegon se pse duhet ta frenojmë zhvillimin e sistemeve në gjendje të tejkalojnë testimin e Turing (dhe të shtiren njerëzorë). Kohët e fundit kam firmosur një letër të hapur në të cilën kërkohet të ngadalësohet zhvillimi sistemeve të Inteligjencës Artificiale gjigante, më të fuqishme se GPT-4 — ato që aktualisht tejkalojnë testimin e Turing dhe mund të mashtrojnë një qenie njerëzore duke e bërë të besojnë se po bisedojnë me një të ngjashëm më shumë sesa me një makinë. E kam konsideruar gjithmonë oportune ta firmos këtë letër për t’i sinjalizuar opinionit publik nevojën e reduktimit të përshpejtimit të zhvillimit të sistemeve të Inteligjencës Artificiale aktualisht në zhvillim në kurriz të parimit të masës paraprake dhe të etikës. Duhet të marrim kohë për t’i kuptuar më mirë këto sisteme dhe të zhvillojmë kuadrot e nevojshëm në nivel kombëtar dhe ndërkombëtar për ta rritur mbrojtjen e publikut. Kjo ndodh sepse ka një përshpejtim të papritur – ka mundësi një vit më parë nuk do takisha firmosur një letër të kësaj natyre – që duhet të bëjmë një hap prapa dhe që opinioni im mbi këto tema ka ndryshuar.

Nuk ka asnjë garanci se dikush në të ardhmen e afërt nuk zhvillon sisteme autonome inteligjence artificiale të rrezikshme, me qasje që shkëputen nga objektivat dhe vlerat njerëzore. Rreziqet afatshkurtëra dhe afatmesme – manipulimi i opinionit për qëllime politike, sidomos nëpërmjet dizinformimit – janë të lehëta për t’u parashikuar, në ndryshim nga ato afatgjata – sisteme të Inteligjencës Artificiale që rezultojnë të dëmshme pavarësisht objektivat e programuesve – dhe besoj se është e rëndësishme për t’i studiuar të dy. Me ardhjen e ChatGPT kemi asistuar në një ndryshim në qëndrimin e kompanive, për të cilat sfida e kokurrencës tregëtare është dhjetëfishuar. Është rreziku konkret që të nguten t’i zhvillojnë këto sisteme gjiganteske të Inteligjencës Artificiale, duke i braktisur zakonet e mira të transparencës dhe të kërkimit të hapur që kanë zhvilluar në dekadën e fundit të kërkimeve lidhur me Inteligjencën Artificiale.

Është urgjente të rregullohen këtë sisteme duke synuar në një transparencë dhe mbikëqyrje më të madhe të sistemeve të Inteligjencës Artificiale për mbrojtjen e shoqërisë. Si shumë, besoj se rreziqet dhe pasiguritë kanë arritur një nivel të tillë sa të kërkojnë një përshpejtim edhe në zhvillimin e mekanizmave tona të governance. Shoqëritë kanë nevojë për kohë që t’u përshtatemi ndryshimeve, ligjet kërkojnë kohë për t’u miratuar dhe kuadrot normativë kërkojnë kohë për t’u vënë në zbatim. Kështu që duket e rëndësishme të sensibilizohet me shpejtësi opinioni publik, të sillet çështja mbi një numër më të madh të ekraneve raduar dhe të inkurajohet një debat politik më i madh.

E them prej vitesh dhe e theksoj në këtë letër, se është e përqëndruar mbi governance për sistemet e mëdha të Inteligjencës Artificiale më të mëdha të GPT-4, jo mbi Inteligjencën Artificiale në përgjithësi: është thelbësore të investohen fonde publike në zhvillimin e sistemeve të Inteligjencës Artificiale të kushtuar përparësive sociale shpesh të anashkaluara nga sektori privat, si kërkimi për shëndetin apo për ta luftuar më mirë ndryshimin klimaterik. Zbatime të tilla të Inteligjencës Artificiale kanë më pak shanse që të mund të përdoren në mënyrë të papërshtatshme për qëllime socialisht të dëmshme, në ndryshim nga sistemet e përgjithshme si GPT-4. Duhet të stimulojmë përpjkejet e kërkuesve, sidomos në shkencat sociale dhe humanistike, pasi zgjidhjet të mos sjellin vetëm në aspekt teknik dhe kompjuterik, por edhe dhe sidomos konsiderata sociale dhe njerëzore.

Duhet të vazhdojmë të luftojmë për mirëqënien e njerëzimit dhe për zhvillimin e aplikimeve të Inteligjencës Artificiale fitimprurëse, si ato për luftimin e krizës klimaterike. Kjo do të kërkojë ndryshime në nivelin e çdo vendi dhe adoptimin e traktateve ndërkombëtare. Kemi arritur të rregullojmë armët bërthamore në shkallë globale pas Luftës së Dytë Botërore, mund të arrijmë një marrëveshje të ngjashme për Inteligjencën Artificiale. Pavarësisht kësaj që mund të rezultojë nga kjo letër, jam thelbësisht optimist për faktin se teknologjia do të jenë në gjendje të na ndihmojë të tejkalojmë sfidat e mëdha që njerëzimi duhet të përballojë. Megjithatë, për t’i përballuar, duhet të mendojmë sesi deri më tani t’i përshtasim shoqëritë tona apo deri t’i rishpikim krejtësisht.

Ja disa pyetje të shpeshta lidhur me letrën e hapur. Opinionet e shprehura në përgjigje nuk janë domosdoshërisht të ndara nga të gjithë nënshkruesit e letrës.

Pse e keni firmosur këtë letër të hapur?

Kemi tejkaluar një prag kritik: makinat mund të dialogojnë tanë me ne dhe të shtiren se janë qenie njerëzore. Kjo mund të abuzohet për qëllime politike në kurriz të demokracisë. Zhvillimi i instrumentave gjithnjë e më të fuqishme rrezikon ta rrisë përqëndrimin e pushtetit. Qoftë në duart e pak individëve, të pak kompanive apo të pak vende, kjo është një rrezik për demokracinë (që nënkupton pushtet popullit dhe, për pasojë, e kundërta e përqëndrimit të pushtetit), pë ekuilibrin – më të brishtë – të sigurisë globale dhe deri për funksionimin e tregjeve (që kanë nevojë për konkurrencë, jo për monopole).

A mos është toni i letrës tejet alarmist?

Asnjë, as ekspertët më të mëdha të Inteligjencës Artificiale, përfshi ata që i kanë zhvilluar këto modele gjigante të Inteligjencës Artificiale, mund të jetë absolutisht i sigurtë se instrumenta kaq të fuqishëm, në të tashmen apo në të ardhmen, nuk mund të përdoren në mënyra që do të ishin katastrofike për shoqërinë. Letra nuk thekson se GPT-4 do të bëhet autonome – gjë që do të ishte teknikisht e gabuar – dhe do të kërcënojë njerëzimin. Më shumë, është shumë më e rrezikshme dhe ka të ngjarë ajo që qeniet njerëzore me qëllime të këqija apo thjesht jo të vetëdijshëm për pasojat e veprimeve të tyre mund të bëjnë me këto instrumenta dhe me pasardhësit e tyre në vitet e ardhshme.

Do të jetë e mjaftueshme kjo letër për t’i bindur gjigantët e teknologjisë të ngadalësojnë?

Edhe pse shpresat janë të pakta, ja vlen të niset një diskutim që ta përfshijë shoqërinë në kompeksin e saj. Sepse në vitet e ardhshme do të duhet të bëjmë zgjedhje kolektive, edhe në meritën e asaj që duam të bëjmë me instrumentat e fuqishëm që po zhvillojmë. Kam deri dyshimin se shumë në këto kompani shpresojnë në një rregullim që uniformon fushën e lojës: qysh kur është ChatGPT, operatorët më pak të matur kanë një avantazh konkurrues dhe kështu që mund të bëjnë rrugë më lehtësisht duke e reduktuar nivelin e maturisë dhe kontrollit etik.

Është e mjaftueshme një pauzë 6 mujore? Nuk është e kotë kjo përpjekje?

E njëjta mund të thuhet për përpjekjet për luftimin e ndryshimit klimaterik. Shumë dëme janë bërë nga mjedisi, inercia e teksturës tonë industriale është e lartë – për të mos folur për interesat – dhe përpjekjet e shkencëtarëve dhe aktivistëve të klimës për ta devijur trajektoren tonë kolektive duket se nuk funksionojnë. Duhet të dorëzohemi? Sigurisht që jo. Ka gjithmonë mënyra për të bërë më mirë, reduktuar dëmet e ardhshme dhe çdo hap në drejtimin e duhur mund të jetë i dobishëm.

Mos janë fantashlencë frikërat për sistemet e inteligjencës artificiale?

Ekziston tashmë një korpus i gjerë studimesh që dokumenton dëmet aktuale që rregullimi do të ndihmonte të minimizoheshin, nga shkeljet e dinjitetit njerëzor si diskriminimi dhe paragjykimet në përdorimin ushtarak të Inteligjencës Artificiale, si dronët autonomë në gjendje që të vrasin.

Duhet ta ndalojmë të gjithë zhvillimin e sistemeve të Inteligjencës Artificiale?

Letra nuk thotë këtë, por flet vetëm për sistemet që nuk janë të zhvilluara akoma dhe se do të jenë më të fuqishme se GPT-4. Megjithat, më duket e natyrshme se duhet të pranojmë në ngadalësim të caktuar të progresit teknologjik për të garantuar një siguri më të madhe dhe ruajtur mirëqenien kolektive. Shoqëria ka vënë në zbatim normativa të fuqishme për substancat kimike, për aviacionin, për ilaçet, për automobilat, etj. Më duket se kompjuterët, që sot kanë një influencë të jashtëzakonshme mbi shumë sektorë të shoqërisë tonë, meritojnë konsiderata të ngjashme.

Pse e keni firmosur letrën me persona që kanë pozicione politike të kundërta me të tuat?

Bëhet fjalë për një letër të hapur lidhur me një temë specifike. Duke e firmosur, nuk kufizohet tek të gjitha deklarimet e tjera të nënshkruesve. Për sa i përket rreziqeve ekzistenciale dhe afatgjata për njerëzimin, nuk jam i lidhur me shumë prej gjërave që janë shkruar për këtë argument (“largpamësi”). Sigurisht, rreziqet afatgjara janë të rëndësishme dhe është për këtë që luftoj për një aksion më të mirë lidhur me çështjet klimaterike, por këtë rreziqe duhet të peshohen respektivisht me probabilitetin që konkretizohen dhe më gjerë është horizonti kohor, aq më të paqarta janë këto rreziqe. Krahasimisht, dëmet e shkaktuara ndaj qenieve njerëzore sot në jetë nuk duhet të vihen menjanë, pasi këtë rreziqe në periudhë afatmesme janë shumë më të prekshme. Kështu mendoj se duhen konsideruar të gjithë rreziqet, në bazë të entitetit të impaktit dhe të probabilitetit të vlerësuar të tyre, gjë që përfshin rreziqet në horizonte të ndryshme kohore dhe duhet të përdorim arësyen dhe shkencën për t vlerësuar të gjithë këtë, pa lënë pasdore empatinë tonë për qeniet në mish e kocka që vuajnë sot.

Është e gatshme shoqëria për ardhjen e këtyre teknologjive të reja dhe shumë të fuqishme?

Njerëzimi po përballet me kriza të ndryshme globale që ka mundësi do të rëndohen: në shëndetin publik, në mjedis, në siguri dhe në stabilitet ushtarak e politik, në pabarazi e në padrejtësi dhe, natyrisht, edhe në vendet e rrezikuara nga zhvillimi i pakontrolluar i Inteligjencës Artificiale. Dyshoj se organizimi aktual i shoëqrive tona, në nivel kombëtar e global, është i përshtatur për t’i përballuar këto sfida. Në perspektivë afatshkurtër, rregullimi më duket thelbësor. Shpresoj që në perspektivë afatgjatë të jetë e mjaftueshme., por tani duhet të konsiderojmë mundësinë që organizimi social që ka funksionuar në shekullin e kaluar të mos jetë më e përshtatshme ndaj këtyre krizave globale.

(Yoshua Bengio është profesor i zakonshëm pranë Deprtamentit të Informatikës dhe Kërkimit Operativ të Universitetit të Montrealit, si edhe themelues dhe drejtpr shkencor i MILA dhe drejtor shkencor i IVADO. I konsideruar njëri prej liderëve botëror në fushën e inteligjencës artificiale dhe të deep learning, është destinatar i Çmimit A.M. Turing 2018 bashkë me Geoff Hinton dhe Yann LeCun, i njohur si Çmimi Nobel i Infomatikës)