Mbi 1.500 shkencëtarë, figura të teknologjisë dhe personalitete publike nga e gjithë bota kanë firmosur një deklaratë të re ku kërkohet ndalimi i menjëhershëm i zhvillimit të superinteligjencës artificiale. Në dokument theksohet se krijimi i sistemeve të AI të afta të tejkalojnë inteligjencën njerëzore mund të sjellë rreziqe të jashtëzakonshme, përfshirë cenimin e autonomisë njerëzore, destabilizimin e sigurisë kombëtare dhe madje kërcënimin e mbijetesës së njerëzimit. Nënshkruesit paralajmërojnë se deri kur të ketë prova të qarta se kjo teknologji është e sigurt, zhvillimi i saj duhet të ndalet.
Deklarata vjen në një kohë kur shumë kompani të mëdha teknologjike kanë shpallur objektivin e krijimit të një superinteligjence brenda dekadës së ardhshme. Në listën e nënshkruesve gjenden emra të spikatur si Geoffrey Hinton dhe Yoshua Bengio, të njohur si pionierët e inteligjencës artificiale moderne, si edhe personalitete nga politika, ushtria dhe bota e biznesit. Ata theksojnë se pa rregulla të forta, superinteligjenca mund të përdoret në mënyrë keqdashëse ose të zhvillohet jashtë kontrollit të njerëzimit. Një sondazh i fundit në SHBA tregon se vetëm 5% e qytetarëve mbështesin zhvillimin e pakufizuar të AI, ndërsa shumica kërkon rregullime strikte.
**Organe si Future of Life Institute paralajmërojnë se përparimet në AI po avancojnë më shpejt se aftësia e shoqërisë për t’i menaxhuar. Ekspertë të fushës besojnë se AGI mund të bëhet realitet brenda pak vitesh, por mungojnë standardet dhe sistemet e sigurisë që do të garantonin kontroll të plotë. Stuart Russell, një nga autoritetet më të larta në fushën e AI, thekson se kërkesa për ndalim nuk është një akt ekstrem, por një masë e domosdoshme: “Kur ka mundësi reale që një teknologji të shkaktojë shfarosjen e njerëzimit, a nuk është e arsyeshme të kërkojmë garanci maksimale të sigurisë?”