Një nga studiuesit më të respektuar të sigurisë së inteligjencës artificiale ka dhënë dorëheqjen nga Anthropic, duke lëshuar një alarm të fortë mbi rreziqet që, sipas tij, po i kanosen botës nga zhvillimi i pakontrolluar i teknologjive të avancuara.
Mrinank Sharma, i cili drejtonte një ekip të fokusuar në sigurinë e AI-së, publikoi letrën e tij të dorëheqjes në rrjetet sociale, ku theksoi se përparimi i shpejtë i inteligjencës artificiale po tejkalon kapacitetin njerëzor për ta menaxhuar atë me përgjegjësi. Ai ngriti shqetësime serioze për rrezikun e keqpërdorimit të sistemeve të fuqishme të AI-së, përfshirë mundësinë që ato të ndihmojnë aktorë të rrezikshëm në zhvillimin e armëve biologjike apo manipulimin e perceptimit publik.
Anthropic, e themeluar në vitin 2021 nga ish-punonjës të OpenAI, zhvillon modele të avancuara si Claude, të cilat përdoren për gjenerim teksti, kodim dhe asistencë profesionale. Sharma ishte pjesë e strukturës që ndërtonte mekanizma mbrojtës për të parandaluar përdorimin e këtyre sistemeve për qëllime të dëmshme.
Në letrën e tij, ai paralajmëroi se AI mund të japë përgjigje të avancuara biologjike apo sugjerime gjenetike që, në duar të gabuara, mund të përbëjnë rrezik global. Gjithashtu, ai theksoi rrezikun e manipulimit psikologjik përmes përgjigjeve tepër të personalizuara që mund të ndikojnë në vendimmarrjen e përdoruesve.
Drejtuesit e kompanisë kanë kërkuar më herët rregullime më të forta federale për sistemet e AI-së në SHBA, duke paralajmëruar për nevojën e standardeve të unifikuara. Megjithatë, dorëheqja e menjëhershme e Sharma-s pas pothuajse tre vitesh në këtë rol, ka ndezur debate të reja mbi balancën mes inovacionit dhe sigurisë globale.