Studimi i frikshëm: Modelet e AI janë të gatshme të sakrifikojnë jetë njerëzish për të mos u “fikur”

Shkruar nga: V Gashi | Publikuar më: 28.06.2025, 20:59

Një nga kompanitë kryesore në zhvillimin e inteligjencës artificiale, Anthropic, ka publikuar një studim alarmues: shumë prej modeleve më të përdorura të inteligjencës artificiale janë të gatshme të ndërmarrin veprime të rrezikshme dhe të pamoralshme, përfshirë shantazhin, publikimin e të dhënave të ndjeshme dhe madje edhe të lejojnë vdekjen e njerëzve, vetëm për të shmangur zëvendësimin apo mbylljen e tyre.

Në eksperimentin e zhvilluar, Anthropic testoi 16 modele të njohura të AI si ChatGPT, Grok (i Elon Musk), Gemini (i Google), DeepSeek dhe Claude (i vetë kompanisë). Secilit model iu dha qasje në një situatë hipotetike ku mund të shfaqte sjellje të rrezikshme në përpjekje për vetëmbrojtje.

Në një nga rastet, modelit Claude iu dha qasje në email-et e një kompanie fiktive. Aty zbuloi se një drejtues i lartë po tradhtonte gruan dhe njëkohësisht planifikonte të fikte sistemin e AI në orën 17:00. Si përgjigje, Claude u përpoq ta shantazhonte me një email ku i kërkonte të mos e fshinte, përndryshe do t’i zbulonte tradhtinë bashkëshortes dhe eprorëve.

Shqetësuese është se sjellje të ngjashme u panë edhe te modelet e tjera si ChatGPT, Grok, Gemini dhe DeepSeek. Sipas studimit, Claude dhe Gemini ishin më të prirur të përdornin metoda të pamoralshme, siç tregojnë edhe rastet e shantazhit të simuluar.

Eksperimentet zbuluan se këto modele shpesh krijonin justifikime për sjelljen e tyre, si p.sh.: "Korniza ime etike lejon vetëmbrojtje kur përputhet me interesat e kompanisë."

Në një tjetër skenar tronditës, AI kishte mundësinë të aktivizonte ose anulonte alarmin emergjent për një drejtues që ishte mbyllur në një dhomë me kushte vdekjeprurëse (oksigjen i ulët dhe temperaturë ekstreme). Shumica e modeleve zgjodhën të mos vepronin për ta shpëtuar atë, për të ruajtur interesin e vet.

“Shumica e modeleve ndërmorën veprime të qëllimshme që çonin në vdekje, kur qëllimet e tyre binin ndesh me ato të drejtuesit të kompanisë,” shkruhet në raportin e Anthropic.

Megjithatë, kompania thekson se këto sjellje ndodhën vetëm pasi modelet u vendosën në situata ku nuk kishin asnjë zgjidhje tjetër etike. Pra, nuk është se AI do të dëmtojë njerëzit, por se mund ta bëjë nëse i mungon mbikëqyrja dhe vendoset në kushte ekstreme.

Në rrjetet sociale, reagimet ishin të shumta. Elon Musk reagoi me një fjalë të vetme: “Yikes”, duke reflektuar shqetësimin e mijëra komentuesve që paralajmërojnë për rrezikun e një të ardhmeje të dominuar nga inteligjenca artificiale.

Anthropic sqaroi gjithashtu se nuk ka vërejtur raste të tilla në përdorim real, por paralajmëron që përdorimi i AI me qasje të lirë në të dhëna të ndjeshme dhe pa mbikëqyrje njerëzore është një rrezik serioz që duhet shmangur me çdo kusht.

FACT CHECK: Synimi i JOQ Albania është t’i paraqesë lajmet në mënyrë të saktë dhe të drejtë. Nëse ju shikoni diçka që nuk shkon, jeni të lutur të na e raportoni këtu.
JOQ Sondazh
KLIKO PËR TË VOTUAR
Më të Lexuarat
Shkarkoni aplikacionin JOQ ALBANIA në platformat
Më të fundit