Tiltott mesterséges intelligenciát használt az amerikai hadsereg Irán megtámadásához

Donald Trump döntése ellenére az amerikai hadsereg az Anthropic mesterséges intelligenciáját használta az Irán elleni csapások megkezdéséhez.
Néhány órával azután, hogy Donald Trump bejelentette, minden kapcsolatot megszakít a kormányzat az Anthropic nevű, mesterséges intelligenciát fejlesztő céggel, az amerikai hadsereg a vállalat Claude nevű modelljét használta az Irán elleni támadások előkészítéséhez – számolt be róla a The Guardian.
A Claude-ot a február 28-án kezdődött nagyszabású amerikai-izraeli bombázás során vetették be, ami jól mutatja, hogy a fejlett AI-eszközök milyen mélyen integrálódtak az amerikai védelmi munkafolyamatokba. A megoldás arra a strukturális nehézségre is rávilágít, hogy az ilyen rendszereket hogyan lehetne gyorsan eltávolítani – jegyzi meg az Interesting Engineering.
A jelentések szerint a katonai parancsnokságok a Claude-ot használták a hírszerzési elemzésekhez, a célpontok kiválasztásának megerősítéséhez és a csapásokhoz kapcsolódó harctéri szimulációkhoz.
Donald Trump néhány órával a támadás megindítása előtt írt arról saját közösségi oldalán, a True Socialön, hogy arra utasította az összes szövetségi ügynökséget: azonnal hagyjanak fel az Anthropic által fejlesztett AI-termékek, köztük a Claude modell használatával.
A céget „radikális baloldali AI-vállalatnak” nevezte, amelyet olyan emberek vezetnek, akiknek fogalmuk sincs, „miről szól a való világ”, a lépést pedig nemzetbiztonsági kérdésként értelmezte.
Az amerikai védelmi vezetés és az Anthropic közötti feszültségek a mesterséges intelligencia katonai felhasználására vezethetők vissza. A korábbi jelentések alapján januárban a amerikai hadsereg az Anthropic Claude modelljét használta Nicolás Maduro venezuelai elnök elfogásának megtervezéséhez. Ez a felhasználás ellentétes a cég etikai szabályzatával, amely tiltja a Claude erőszakos célokra, fegyverfejlesztésre vagy szigorú biztosítékok nélküli megfigyelésre való felhasználását.
Az Anthropic és az amerikai kormányzat között akkor romlott meg a viszony, amikor a védelmi tisztviselők, élükön Pete Hegseth védelmi miniszterrel szélesebb körű, korlátlan katonai hozzáférést szorgalmaztak a mesterséges intelligenciához, azzal vádolva a vállalatot, hogy az ideológiát helyezi előtérbe a nemzetbiztonsággal szemben.
Bár Hegseth megvédte a szakítást jelentő döntést, azt elismerte, hogy az AI-t már mélyen beágyazták a katonai döntéshozatalba, így annak eltávolítása összetett feladat. A döntés után nem sokkal az is kiderült: az Anthropic helyére az OpenAI lépett.
(hvg.hu)





