OpenAI ka njoftuar se do të ndryshojë marrëveshjen e saj me United States Department of Defense, pas reagimeve të forta publike dhe shqetësimeve lidhur me përdorimin e teknologjisë së saj në operacione ushtarake të klasifikuara.
Drejtori ekzekutiv i OpenAI, Sam Altman, deklaroi se kompania do të shtojë klauzola të reja në kontratë, përfshirë ndalimin e qartë të përdorimit të sistemeve të saj për mbikëqyrje të brendshme ndaj qytetarëve amerikanë. Ai pranoi se publikimi i marrëveshjes ishte bërë me nxitim dhe e cilësoi qasjen fillestare si “oportuniste dhe të pakujdesshme”.
Sipas njoftimit, ndryshimet synojnë të rrisin transparencën dhe të qartësojnë kufijtë etikë të përdorimit të inteligjencës artificiale në kontekstin e sigurisë kombëtare.
Debati u thellua pasi marrëveshja u bë publike në sfondin e një mosmarrëveshjeje mes kompanisë rivale Anthropic dhe Pentagon, lidhur me përdorimin e modelit të saj të inteligjencës artificiale, Claude, për qëllime të mundshme të mbikëqyrjes masive dhe zhvillimit të armëve plotësisht autonome.
Anthropic kishte refuzuar të hiqte dorë nga parimi i saj se teknologjia nuk duhet të përdoret për krijimin e armëve autonome, duke theksuar rëndësinë e kufijve etikë në zhvillimin e inteligjencës artificiale.
Rasti ka rikthyer në vëmendje debatin global mbi balancën mes inovacionit teknologjik, sigurisë kombëtare dhe mbrojtjes së të drejtave civile, në një kohë kur inteligjenca artificiale po merr rol gjithnjë e më të madh në sektorin e mbrojtjes.