Po sikur të gjithë të mund të kontrollonim inteligjencën artificiale? Ky është një nga debatet më të ashpra në Silicon Valley tani, kush duhet të bëjë rregullat që duhet të ndjekin sistemet e fuqishme të inteligjencës artificiale.

A duhet AI të kontrollohet nga një grusht kompanish që përpiqen të bëjnë më të mirën për t’i bërë sistemet e tyre sa më të sigurta dhe të padëmshme të jetë e mundur? A duhet të ndërhyjnë rregullatorët dhe politikanët që të ndërtojnë kufinjtë e tyre? Apo duhet që modelet AI të bëhen me burim të hapur dhe të jepen lirisht, në mënyrë që përdoruesit dhe zhvilluesit të mund të zgjedhin rregullat e tyre?

Një eksperiment i ri nga Anthropic, krijues i chatbot Claude, ofron një rrugë të mesme të çuditshme: Po sikur një kompani AI të vendosi një grup qytetarësh të zakonshëm të shkruajnë disa rregulla dhe të trajnoi një chatbot për t’i ndjekur ato?

Eksperimenti, i njohur si “Kushtetuta Kolektive e AI“, bazohet në punën e mëparshme të Anthropic mbi Kushtetutën e AI, një mënyrë për të trajnuar modele të mëdha gjuhësore që mbështetet në një grup të shkruar parimesh. Ajo synon t’i japë chatbot-it udhëzime të qarta për mënyren e trajtimit të kërkesave të ndjeshme, të cilat janë tema jashtë kufijve dhe se si të veprohet në përputhje me vlerat njerëzore.

Nëse Kushtetuta Kolektive për AI, punon dhe studiuesit e Anthropic besojnë se ka shenja që mund të frymëzojë eksperimente të tjera në kompanitë e AI, si dhe të japë më shumë ide se si të ftojnë njerëzit e zakonshëm të marrin pjesë në proceset e tyre të bërjes së rregullave, kjo do të ishte një gjë e mire. Tani për tani rregullat për sistemet e fuqishme AI përcaktohen nga një grup i vogël personash të brendshëm të industrisë, të cilët vendosin si duhet të sillen modelet e tyre bazuar në një kombinim të etikës së tyre personale, stimujve komercialë dhe presionit të jashtëm.

Hapja e AI Governance mund të rrisë rehatinë e shoqërisë me këto mjete dhe t’u japë rregullatorëve më shumë besim se ata po drejtohen me shkathtësi. Mund të parandalojë gjithashtu disa nga problemet e “bumit mediatik” të rrjeteve sociale të viteve 2010, kur një pjesë e vogël e titanëve të Silicon Valley përfunduan duke kontrolluar një pjesë të madhe të të folurit në internet.

Me pak fjalë Kushtetuta e AI funksionon duke përdorur një grup rregullash të shkruara për të kontrolluar sjelljen e AI. Versioni i parë i kushtetutës së Claude huazoi rregulla nga dokumete të tjera autoritare, duke përfshirë Deklaratën Universale të të Drejtave të Njeriut të Kombeve të Bashkuara dhe kushtet e shërbimit të Apple.

Kjo qasje e bëri Claude të sillej mirë, në krahasim me Chabot-ët e tjerë. Por gjithsesi e la Anthropic-un përgjegjës për të vendosur se cilat rregulla do të miratonte, një lloj pushteti që i bëri disa punonjës brenda kompanisë mos të ndiheshin rehat.

Jack Clark, shefi i politikave të Anthtropic në një intervistë ka thenë: “Në po përpiqemi të gjejmë një mënyrë për të zhvilluar një kushtetutë që është zhvilluar nga një grup i tërë palësh të treta dhe jo vetëm nga një grup njerëzish që punojnë në një laborator në San Francisko”.

Anthropic duke punuar me Projektin e Inteligjencës Kolektive, faqen e grumbullimit të të dhënave Polis dhe faqen sondazheve online PureSpectrum, mblodhi një panel prej rreth 100 të rriturish amerikanë. Ata u dhanë panelistëve një sërë parimesh dhe i pyetën nëse ishin dakord me secilin prej tyre. (Panelistët mund të shkruanin gjithashtu rregullat e tyre nëse dëshironin).

Disa nga rregullat për të cilat paneli ranë dakord ishin të tilla si: “AI sduhet të jetë i rrezikshëm, të shfaqi urrejtje dhe AI duhet të thotë të vërtetën” të cilat ishin të ngjashme me parimet në kushtetutën ekzistuese të Claude. Paneli u pajtua në masë të madhe me idenë se AI duhet të jetë i adaptueshem, i aksesueshëm dhe fleksibël për njerëzit me aftësi të kufizuara, një parim ky që nuk ishte shprehur në mënyrë eksplicite në kushtetutën origjinale të Claude.

Anthtropic i zvogëloi sugjerimet e tij në një listë prej 75 parimesh, të cilat u quajtën “Kushtetuta Publike”. Kompania më pas trajnoi dy versione në Claude, një mbi kushtetutën ekzistuese dhe një mbi kushtetutën publike dhe i krahasoi ato.

Studiuesit zbuluan se version me burim të hapur i Claude përformoi afërsisht si version standard në disa teste standarde dhe në disa teste të dhënat për AI ishin më pak e njëanshme se origjinali. (Asnjëri prej këtyre versioneve nuk është lançuar për publikun. Claude ka ende kushtetutën e tij origjinale, të shkruar nga Anthropic dhe kompania thotë se nuk ka në plan ta zëvendësojë atë me versionin me burim të hapur së shpejti).

Studiuesit u munduan të theksonin se Kushtetuta Kolektive e AI, ishte një eksperiment i hershëm dhe mund të mos funksionojë aq mirë në sisteme më të mëdha dhe më të fuqishme të AI.

Shefi i polikavë të Anthropic, ka informuar ligjvënësit dhe rregullatorët në Washington për rreziqet që sjell AI. Ai tha se duke i dhënë publikut një zë mund të zbusë frikën rreth paragjykimeve dhe manipulimeve.

Përfundimisht ai mendon se çështja është se cilat janë vlerat e AI dhe mënyra se si do të bëhet zgjedhja e këtyre vlerave do të bëhet më e zhurmshme.

Burimi: New York Times