Po sikur të gjithë të mund të kontrollonim inteligjencën artificiale? Ky është një nga debatet më të ashpra në Silicon Valley tani, kush duhet të bëjë rregullat që duhet të ndjekin sistemet e fuqishme të inteligjencës artificiale.
A duhet AI të kontrollohet nga një grusht kompanish që përpiqen të bëjnë më të mirën për t’i bërë sistemet e tyre sa më të sigurta dhe të padëmshme të jetë e mundur? A duhet të ndërhyjnë rregullatorët dhe politikanët që të ndërtojnë kufinjtë e tyre? Apo duhet që modelet AI të bëhen me burim të hapur dhe të jepen lirisht, në mënyrë që përdoruesit dhe zhvilluesit të mund të zgjedhin rregullat e tyre?
Një eksperiment i ri nga Anthropic, krijues i chatbot Claude, ofron një rrugë të mesme të çuditshme: Po sikur një kompani AI të vendosi një grup qytetarësh të zakonshëm të shkruajnë disa rregulla dhe të trajnoi një chatbot për t’i ndjekur ato?
Eksperimenti, i njohur si “Kushtetuta Kolektive e AI“, bazohet në punën e mëparshme të Anthropic mbi Kushtetutën e AI, një mënyrë për të trajnuar modele të mëdha gjuhësore që mbështetet në një grup të shkruar parimesh. Ajo synon t’i japë chatbot-it udhëzime të qarta për mënyren e trajtimit të kërkesave të ndjeshme, të cilat janë tema jashtë kufijve dhe se si të veprohet në përputhje me vlerat njerëzore.
Nëse Kushtetuta Kolektive për AI, punon dhe studiuesit e Anthropic besojnë se ka shenja që mund të frymëzojë eksperimente të tjera në kompanitë e AI, si dhe të japë më shumë ide se si të ftojnë njerëzit e zakonshëm të marrin pjesë në proceset e tyre të bërjes së rregullave, kjo do të ishte një gjë e mire. Tani për tani rregullat për sistemet e fuqishme AI përcaktohen nga një grup i vogël personash të brendshëm të industrisë, të cilët vendosin si duhet të sillen modelet e tyre bazuar në një kombinim të etikës së tyre personale, stimujve komercialë dhe presionit të jashtëm.