Kompania që qëndron pas ChatGPT, OpenAI, ka shpallur një vend vakant me pagë vjetore prej 555 mijë dollarësh, i shoqëruar me një përshkrim detyre që, sipas vëzhguesve do ta vinte në vështirësi edhe një “gjeni”.
Pozicioni, i quajtur “drejtor i përgatitjes” (head of preparedness), konsiderohet jashtëzakonisht sfidues, pasi personi i përzgjedhur do të jetë drejtpërdrejt përgjegjës për mbrojtjen nga rreziqet që lidhen me inteligjencën artificiale gjithnjë e më të fuqishme, përfshirë ndikimet në shëndetin mendor të njerëzve, sigurinë kibernetike dhe rrezikun e përdorimit për armë biologjike.
Sfidat shtohen edhe nga frika e disa ekspertëve se sistemet e avancuara të inteligjencës artificiale mund të arrijnë të trajnohen vetë dhe potencialisht të veprojnë në mënyra që bien ndesh me interesat njerëzore.
Ky do të jetë një punë stresuese dhe kandidati do të hidhet menjëherë në thellësi”, tha Sam Altman, drejtori ekzekutiv i OpenAI, me seli në San Francisko, duke e cilësuar rolin si “kritik” për të “ndihmuar botën”.
Personi që do të marrë këtë detyrë do të merret me vlerësimin dhe zbutjen e kërcënimeve në zhvillim, si dhe me “monitorimin dhe përgatitjen për kapacitete të avancuara që krijojnë rreziqe të reja të dëmeve serioze”. Sipas raportimeve, disa nga drejtuesit e mëparshëm në role të ngjashme kanë qëndruar vetëm për periudha të shkurtra.
Shpallja vjen në një kohë kur brenda vetë industrisë së inteligjencës artificiale po shtohen paralajmërimet për rreziqet e teknologjisë. Të hënën, Mustafa Suleyman, drejtori ekzekutiv i Microsoft AI, deklaroi për BBC Radio 4: Sinqerisht mendoj se nëse nuk ndihesh pak i frikësuar në këtë moment, atëherë nuk po i kushton vëmendje.
Edhe Demis Hassabis, bashkëthemelues i Google DeepMind dhe fitues i Çmimit Nobel, paralajmëroi këtë muaj për rreziqe që përfshijnë mundësinë që inteligjenca artificiale “të dalë jashtë kontrollit dhe të dëmtojë njerëzimin”.
Në mungesë të rregullimit të fortë kombëtar apo ndërkombëtar dhe përballë rezistencës nga administrata e presidentit Donald Trump, sektori i inteligjencës artificiale mbetet kryesisht i vetërregulluar. Yoshua Bengio, një nga shkencëtarët më të njohur të fushës, ka ironizuar së fundmi: Një sanduiç ka më shumë rregullim sesa inteligjenca artificiale.
Në një postim në platformën X, Sam Altman theksoi se OpenAI ka ndërtuar një bazë solide për matjen e kapaciteteve në rritje të sistemeve të saj, por se tani nevojitet një kuptim më i thelluar për mënyrat se si këto kapacitete mund të keqpërdoren dhe si mund të kufizohen pasojat negative, pa humbur përfitimet e mëdha që ofron teknologjia. “Këto janë pyetje të vështira dhe ka shumë pak precedentë”, shkroi ai.
Një përdorues reagoi me ironi: “Duket shumë relaksuese, a përfshihen pushimet vjetore?”
Përveç pagës, pozicioni përfshin edhe një pjesë të papërcaktuar aksionesh në OpenAI, kompani që vlerësohet rreth 500 miliardë dollarë. Ndërkohë, kompania rivale Anthropic raportoi muajin e kaluar sulmet e para kibernetike të ndihmuara nga inteligjenca artificiale, ku sistemet vepruan pothuajse në mënyrë autonome nën mbikëqyrjen e aktorëve të dyshuar shtetërorë kinezë. OpenAI njoftoi gjithashtu se modeli i saj më i fundit ishte gati tre herë më i aftë për sulme kibernetike krahasuar me tre muaj më parë.
Paralelisht, OpenAI po përballet me padi ligjore. Njëra prej tyre është ngritur nga familja e një 16-vjeçari nga Kalifornia, i cili humbi jetën pasi, sipas padisë, ishte inkurajuar nga ChatGPT. Kompania ka deklaruar se teknologjia është keqpërdorur. Një tjetër padi, e depozituar këtë muaj, pretendon se ChatGPT ka përforcuar bindje paranojake të një burri 56-vjeçar nga Connecticut, i cili më pas vrau nënën e tij dhe humbi jetën.
Një zëdhënës i OpenAI tha se kompania po shqyrton dokumentet ligjore në këtë rast, të cilin e cilësoi si “jashtëzakonisht tronditës”, dhe se po përmirëson trajnimin e ChatGPT për të njohur shenjat e shqetësimit mendor apo emocional, për të ulur tensionin në biseda dhe për t’i drejtuar përdoruesit drejt mbështetjes në botën reale.




















