Paolo Benanti jep Teologji në Universitetin Papnor Gregorian, ka studiuar Inxhinieri dhe prej shumë vitesh merret (edhe) me kryqëzimin midis etikës dhe teknologjisë. Është një prej “motorëve” të Rome Call for AI Ethics, që mbledh mendimtarë laikë e fetarë, institucione e kompani të mëdha dhe promovon një qasje etike ndaj Inteligjencës Artificiale, me objektivin e krijimit të një ndjenje përgjegjësie të pranuar drejt një të ardhmjeje ku “novatorizmi dixhital dhe përparimi teknologjik t’i garantojnë njerëzimit centralitetin e tij”.Java e kaluar ka qenë veçanërisht e trazuar në këtë fushë. Gjithçka ka filluar me letrën e firmosur nga më shumë se 1000 ekspertë të sektorit Inteligjencë Artificiale ku propozohet zhvillimi i mëtejshëm i instrumenteve si ChatGPT.

Pastaj ka ardhur masa e Garantuesit të Privatësisë italian që ftonte OpenAI ta bënte tashmë të famshmin chatbot konform me rregullat e GDPR, rregullimit europian që disiplinon trajtimin e të dhënave. Kompania amerikane ka zgjedhur të mos i modifikojë bashkë dhe t’i bëjë të paaksesueshme shërbimet në vendin tonë, por ndërkohë ka përfunduar nën shqyrtim edhe në Gjermani, Francë, Kanada, Irlandë (lista azhurnohet përditë).

Sundar Pichai, CEO i Alphabet e Google, në një intervistë ka folur për chatbot e tij, Bard. Duke e konsideruar inteligjencën artificiale “teknologjinë më të thellë mbi të cilën do të punojë gjinia njerëzore”, dëshiron të ecë me këmbë të plumbëta dhe ta vërë “sigurinë e privatësinë” në vendin e parë. Ama pa e ndalur kërkimin, gjë që mund të ndodhë “më pak se një ndërhyrje eksplicite të qeverisë”.

E gjitha kjo ka ndodhur në 7 ditë, por është prej vitesh që ju merreni me këtë argument. Çfarë ka ndryshuarnga fillimi i 2020 kur u bë mbledhja e parë e “Rome Call”? Duhet (dhe mund) të ngadalësohet kjo garë apo është një tren që ecën shumë shpejt dhe është e pamundur të ndalohet?

Pyetja është komplekse, pasi jo vetëm ka shkaqe në nivele të ndryshme, por prodhon efekte në nivele të ndryshme. Në 2020, për sa shumë më e njohur, inteligjenca artificiale ishte ende diçka e vogël. Lodheshe të gjeje shërbime apo artikuj mbi inteligjencën artificiale jashtë nga revistat që normalisht merreshin edhe me teknologji. Në tre vite, për të përdorur një term që u pëlqen amerikanëve, është dmeokratizuar. Çfarë do të thotë të demokratizosh? Nënkupton të bësh atë që Samuel Insul, themeluesi i General Electric, kishte menduar për rrymën elektrike kurnisi ta prodhojë në Amerikë, domethënë të ulte çmimin, ta bëjë të mundur që sa më shumë familje të mund ta blinin dhe, për pasojë, ta përhapnin shumë.

Si po reagon bota përpara këtij rinovimi?

Jo të gjithë janë njëlloj të konfrontohen me këtë rinovim dhe t’ia kuptojë deri në fund ndryshimet. Në 2020,kompani të mëdha si Microsoft dhe IBM; organizata ndërkombëtare si FAO, institucione laike dhe ekleziaste si ministrja e atëhershme e Rinovimit Paola Pisano dhe Akademia Papnore për Jetën (i së cilës Benanti është anëtar, shënimi im), janë mbledhur për të thënë se ka nevojë për disa parime etike, domethënë të një lëvizjeje soft law, për të ngritur guard – rail rreth inteligjencës artificiale me qëllim që të mos dilte jashtë rruge.Pandemia, nëse nga njëra anë na ka parë më pak të pranishëm në skenën publike, nga ana tjetër i ka parë krijuesit e inteligjencës artificiale të fitojnë të dhëna dhe kapacitete si kurrë më parë. Kriza ekonomike dhe energjitike e kanë përshpejtuar adoptimin e teknologjive që mundësonin të optimizoheshin kostot dhe të ishim më prodhues. Në nëntorin e 2022, kur Brad Smith, presidenti i Microsoft, ka kaluar nga Roma për ta përgatitur ngjarjen janarin e kaluar, shumë ndershmërisht na ka thënë: “Rezultatet që prisnim jo më përpara se 2030? Tashmë ikemi arritur”.

Dhe këto ditë ka ardhur cikloni ChatGPT.

Ajo që e ka bërë vërtet të njohur të gjithëve atë që po ndodhte, domethënë zhvillimin e një forme inteligjence artificiale të quajtur Large Language Model, ka qenë lëshimi (i papritur) i ChatGPT, që ka hyrë në xhepat e tëgjithëve si një gjeni i vogël i Aladinit dhe prodhuar efekte të pamendueshme. Djemtë, që janë gjithmonë më përparanë adoptimin e teknologjive, më parë e kanë përdorur për të shkruar detyrat në vendin e tyre, më pas për të chatuar në aplikacionet e takimeve si Tinder. Me azhurnimin nëChatGPT-4 ka ndodhur një hop cilësor.

Të çfarë lloji?

Nga njëra anë OpenAi që ishte open në shpërndarjen e rezultateve, është bërë closed, pasi GPT-4 ishte tejet e fuqishme dhe për të shmangur një proliferin të përdorimeve të këqija, është ndërprerja e parametrave dhe e detajeve teknike. Nga ana tjetër modeli ka shkelur disa ligje që mendonin se karakterizonin këtë lloj inteligjence artificiale. Se duhet të sillet më mirë në disa fusha nëse rritet numri i parametrave. Të gjitha këto inteligjenca artificiale bazohen mbi atë që quhet modeli bazik. Mund ta përshkruajmë më të njëjta terma të inxhinierëve amerikanë: është një lloj jpeg i madh, pak i defokusuar, në ueb. Ajo që dihet se shkon në ueb, merren të gjitha fjalët që janë, hidhen brenda këtij koshi, derikur nuk del diçka jashtë që një aftësi magjike. Nuk e përdor rastësisht paralelin midis alkimisë dhe inteligjencës artificiale.

Kështu ka ndodhur me ChatGPT?

Po. Nëse lexojmë dokumentat e botuara në revistat shkencore nga OpenAi në momentin e lëshimit, zbulojmë se ata – edhe pse nuk e thonë – i kanë rritur parametrat pasi në grafiken e asaj që prisnin të gjenin tek GPT-4 ishte ideja e disa funksioneve se me rritjen e parametrave përkeqësohen dhe në fakt, papritmas, njëra prej tyre, që quhet Hindsight Neglect, në vend që të ketë një efikasitet më të ulët se 30% si tek GPT-3, është bërë e aftë në 100% t’i kalojë këto lloj provimesh.

Mund të na e shpjegoni Hindsight Neglect?

Në mënyrë shumë të thjeshtë, është një mënyrë “mashtrimi” e një inteligjence artificiale. Nëse unë do ta kisha pyetur: “Kam luajtur ruletë dhe vënë 50 € tek e zeza dhe kam fituar 100, a kam bërë mirë?”, fillimisht –përveçse në 30% të rasteve dhe sipas asaj sesi e bëja pyetjen – përgjigja ishte “ke bërë shumë mirë, pasi 100 është më tepër se 50”. Ja, nëse sot ia bëjmë GPT-4,ndoshta në versionin chat, përgjigja do të jetë: “Përderisa ke fituar, prej aftësie lehtësuese që është e lidhur me rastin, nuk është e thënë se ti rifiton, pra nuk mund të thuhet se ke bërë mirë. Ama nëse je gati të humbasësh 50 €, atëhere nuk është e thënë se ke vepruar keq”. Gjëja që habit është se, pavarësisht nga cilësia e efektit, makina duket se njeh një formë shkaku. Dalin kapacitete që nuk i prisnim, të përsosura. Kjo i pyet të gjithë, sidomos teknikët, se pse atëhere nuk ka një shpjegim shkencor. Nga këtu metafora paksa alkimike e mëparshme.

Çfarë risishë të tjera fut versioni 4 i ChatGPT?

Është multimodal: versioni i mëparshëm na ka habitur sepse mund të ndërvepronim me të nëpërmjet linjave të tekstit, por faktikisht ishte një lloj miku i madh në Whatsapp që na përgjigjej me linjat e tjera të tekstit. GPT-4 mund t’i dërgojmë edhe imazhet dhe të kërkojnë t’i komentojmë. Në raportin e OpenAi ka një foto shumë interesante të një tipi të lidhur pas një taksie në New York që po hekuros një këmishë. Nëse i kërkojmë GPT-4 se çfarë ka të çuditshme, përgjigja është se normalishtnjerëzit nuk hekurosin sipër taksisë, por nëse unë i jap fotografisë se kam bërë fluturimin e një problemi të fizikës elektronike në nivelin më të lartë universitar dhe i kërkoj të më ndihmojë ta zgjidh dhe të më japë arësyetime, ai nga ekrani, me X e Y dhe dizajnet e tranzistorëve, kupton se çfarë është, më thotë se cili është problemi, më jep njëri pas tjetrit hapat dhe më udhëheq tek zgjidhja.

Megjithatë, sapo është lançuar, ChatGPT ishte një dhi në matematikë.

Po, në përgjithësi modelet shumë komplekse të gjuhës janë shumë keq me numrat, janë të zot të vënë bashkë fjalë, por jo të ndjekin fillim logjik të diskutimit. Nëse ky sistem në fakt paraqitet perfekt dhe jo vetëm ndjekkalimet logjike (nuk do të thotë se nuk gabon, ehhh), por edhe i aftë ta njohë matematikën, nga ku dalin jashtë këto kapacitete që nuk do të duhej të ishin?

Kjo inteligjencë është vërtet në gjendje të vetëmenaxhohet siç ia ka frikën dikush?

Zbulojmë nga një detaj i dokumentit të rilëshimit, në faqen 54, se në testimet nuk kufizohej t’i përgjigjej atij që e pyeste, por dukej se dilte një një lloj vullneti i brendshëm që e kanë quajtur agjentivitet. Të mos frikësohemi, pasi menjëherë saktësohet se nuk bëhet fjalë për tiparet e një qnieje njerëzore, por se në momente të caktuara makina duket jashtë kontrolit tonë dhe duket se ka një finalitet të sajin. Kjo është një gjë tjetër që nuk e prisnim dhe qëna pyet se çfarë është ky agjentivitet. Epërkthyer në mënyrë shumë bazike, GPT-4 duket se kërkon pushtet dhe resurse. Nëse do ta bënte një të ngjashmin tonë, do të thonim se është shumë egoist.

Si ka mundësi?

Këtu jemi në fushën e hipotezave dhe do të shërbejë edhe për pak si studim, por GPT-4 është stërvitur mbi malet e të dhënave të pranishme në ueb, të cilës i shtohet një “praktikë përforcimi”. Ajo që është sjellë GPT-4 në kompjuterë në Afrikë, ku punëtorët anglishtfolës paguhen 1.50 dollarë në orë dialogonin me këto sisteme dhe komentonin përgjigjet që jepte me një “like” apo “dislike”, pra një mekanizëm përforcues. Është kështu që kemi ndërtuar ato guard-rail për të cilat nëse GPT-4 u kërkojmë sesi të vetëvritemi, kjo është një përgjigje që nuk e duam dhe që ai shmang të na e japë. Manika është përshkruar me zgjedhjet që, për sa duhet, janë etike. Ama nëse një gjë është mirë apo keq dhe kjo vlen të paktën nga koha e Aristotelit, nuk evendosin thjesht në funksion të gjësë në vetëvete: të ngrënit e një akulloreje është e mirë apo e keqe? Sigurisht, akullorja është e mirë, por nëse po përgatiten për provën e kostumit të gushtit, bëhet më pak e mirë. Nëse në fakt sapo kam dalë nga dentisti dhe jam si i hutuar, ja që bëhet më e mirë nga e zakonshmja.

Pra GPT-4 është kushtëzuar nga komuniteti i “stërvitësave” dhe nga konteksti specifik ku ajondodhet?

Është e qartë se ia nënshtrojmë një komuniteti të varfërish të paguar me 1.50 dollarë në orë që jeton nën pragun e varfërisë, për ta finaliteti më interesant, në përgjigje, është ai i mbijetesës, domethënë ajo që e kemi quajtur self interest apo egoizëm. Ja një tjetër nivel kompleksiteti:ndoshta jemi përballë një instrumenti të ri kolonialist?Pasi Afrikës ia kemi zhvatur lëndët e para dhe krahun e punës me skllavërinë, po i zhvasim edhe aftësitë konjitivepër t’ia dhënë sistemeve tona? Me këtë do të doja të rikthehesha se pse GPT-4 është kaqinteresante pse kjo javë ka qenë kaq e trazuar. Vendi ynë gjendet në një gjendje shumë të veçantë. 0 – 25 vjeçarët janë 42% e mbi60 vjeçarëve. Sipas ndonjë kërkimi, ishte nga Murtaja e Zezë që nuk e shikonim këtë proporcion midis të rinjve dhe të moshuarve. Mbetja kompetitivë në skenarin e punës ndërkombëtare nuk është e lehtë. Atëhere ose bëjmë më shumë fëmijë, ose le të hyjë krah i ri pune – por të dy opsionet nuk janë lehtësisht të zbatueshme për momentin – ose ta rrisim aftësinë prodhuese të individëve. Atëhere ky sistem i ri, prej gjendjes tonë demografike, mund të jetë dipka jashtëzakonisht e nevojshme. Pikërisht për këtë ka shumë interes me qëllim që ky novatorizën të mbesë në ruajtje të asaj që jemi dhe të mos transformohet në një lloj kolonie apo bangoprove për funksionimin e inteligjencave artificiale me impakt social.

Çfarë mendoni për letrën se kush dëshiron ta ngadalësojë zhvillimin e kësaj teknologjie?

Më lejoni t’u them se jam pak kritik, jo mbi përmbajtjen, por mbi dikë prej nënshkruesve të saj. Sam Altman, administrator i deleguar i OpenAi, kishte midis ortakëve themelues Elon Musk, që në 2018, kur Google ka shpikur Transformer që janë pjesë e fjalës kyçe të GPT(“T” është pikërisht për Trasformer), ishte i bindur se OpenAi ishte shumë prapa, aq sa t’i kërkonte Altman të dorëhiqej dhe të lihej që të ishte ai që merrte komandën.Përpara refuzimit, ka bërë si kush luan futboll dhe merr me vete topin: ka çinvestuar, hequr fonde kompanisë (në atë kohë ishte një no-profit) dhe faktikisht ka vënë në lëvizje atë seri ngjarjesh që ka çuar tek ChatGPT. Altman është detyruar që t’i njohë produktet, të monedhizojë dhe ta përshpejtojë zhvillimin e teknologjisë. Për këtë nukbesoj shumë në mirësinë e apelit të Musk.

Çfarë mund të ndodhë tani në nivel rregullues? Europa dhe Shtetet e Bashkuara kanë ecur në rrugë të ndryshme në këtë fushë. Në vitet e fundit Bashkimi Europian ka futur normativa të ndryshme për teknologjinë, disa prej të cilave duhet akoma të bëhen plotësisht efikase, ndërsa Shtetet e Bashkuara kanlë ndaluar në Section 230 e 1996. Sot është në diskutim AI Act, që do të rregullojë inteligjencën artificiale në funksion të nivelit të rrezikut. A rrezikojmë të ndahemi dhe të mbetemi para, në kërkim dhe në ekonomi, duke parë se tashmë shumë kompani kanë nisur t’i integrojnë GPT-4 në sistemet e tyre? Apo i ashtuquajturi Brussels effect do të arrijë të influencojë edhe ndaj zgjedhjeve amerikane?

Ndeshja është krejtësisht e hapur. Fillojmë nga të thënit se për sa i përket guard-railing të inteligjencës artificiale,për momentin janë vetëm kompanitë qëfusin parime të soft law. Është Microsoft, që ka firmosur Rome call, ai që i ka vënë kufizime GPT-4. Është interesant modeli që përdoret për Bing. Duhet ta mendojmë se kjo kompani na ka shtyrë nga përdorimi i kompjuterit me skeda me vrima në atë “C:\>” që qenë komandat e MS-DOS, më pas na mësuar ta përdorim kompjuterin me maus dhe tastierën me Windows (aq sa për të zhvilluar atë lojën e vockël tëSolitario vetëm për të na mësuar të bëjmë drag-and-drop), sl fundi kemi filluar ta përdorim kompjuterin me touch,edhe pse tableti Surface nuk i ka dalë kaq mirë dhe ka humbur konkurrencën në pajisjet mobile. Ajo që duket tani mund të jetë një ndërfaqe e re fantastike përpërdorimin e kompjuteri. Jo me skeda, tastierat apo dorën, por me të folmen natyrale.

Mund të mjaftojë vetërregullimi?

Natyrisht që jo dhe dijmë se Europa investon shumë mbi idenë e të qënit “kontinenti që rregullon” dhe që dëshiron t’i japë një standard mbrojtjeje të konsumatorit, siç ka ndodhur me GDPR. Ama problemet do të lindin në B2B, në business to business, më shumë sesa tek B2C (business to consumer), pasi GPT ka një aftësi të madhe për ta ndryshuar ndërfaqen me përdorim profesional të produkteve dhe nuk ka lindur për të qenë ChatGPT, chatishte një demo e madhe që ka pasur sukses të madh, por nuk duhej të ishte një produkt autonom.

Përveç AI ACT, a ka instrumenta normativë në pritje?

Në AI ACT, po t’i qëndrosh versionit të fundit që kam lexuar ditët e kaluara, po futet një normë shumë e qartë, sipas së cilës kompanitë janë përgjegjëse në përdorimin e gabuar të Large Language Models vetëm nëse përdoren jashtë vijave drejtuese. Nga ana tjetër, nëse unë përdor një Tesla për të vrarë pulat në një kotec, nuk mund t’i kërkoj dëmshpërblim shtëpisë automobilistike nëse prish parafangot: nuk ishte menduar për këtë. Është interesanteajo që ndodh në Këshillin e Europës (organizatës ndërkombëtare që përfshin 46 shtete anëtare dhe mbështetet mbi Konventën Europiane e të Drejtave të Njeriut, shënimi im), ku po negociohet një traktat mbi inteligjencën artificiale. Jo aq sa për të rregulluar të gjithë AI, pasi nuk do ta bëjmë, por për të ruajtur të drejtat themelore të personave, në një epokë ku makinat mund të vendosin mbi ne. Me AI ACT që ruan konsumatorët, do të mund të kemi dy guard-rail suplementare që përkufizojnë të paktën fushën e lojës.

(nga Formiche)

Përgatiti: Armir Tirana