7 C
Tokyo
2024年 11月 20日 水曜日

米国と他の30カ国が軍事AIのガードレール設定に合意

Must read

ウクライナ戦争

先週、政治家、ハイテク企業幹部、研究者が英国に集まり、次のような議論を行った。 人工知能のリスク人工知能のリスクのひとつに、アルゴリズムがいつか人間の主人に反旗を翻すのではないかという懸念があった。より静かに、グループは軍事目的でのAIの使用をコントロールすることに前進した。

11月1日、ロンドンのアメリカ大使館で、カマラ・ハリス米副大統領はさまざまなAIイニシアチブを発表し、AIが人権と民主主義の価値観にもたらす脅威について警告を発した。 人々の注目を集めた .しかし、彼女はこうも語っている。 宣言AIの軍事利用に関するガードレールを設定するため、31カ国が署名した。この宣言は、軍事用AIが国際法の範囲内に収まるように法的な検討や訓練を行うこと、慎重かつ透明性をもって技術を開発すること、AIを使用するシステムにおいて意図しないバイアスを避けること、そして責任をもって技術を開発し配備する方法について継続的に議論することを誓約している。

「AIの軍事利用に対する原則的なアプローチは、リスクと利益を慎重に検討することを含むべきであり、また意図しない偏見や事故を最小限に抑えるべきである」と宣言は述べている。また、国家は軍事AIシステムに安全装置を組み込むべきであり、例えば、システムが “意図しない行動 “を示した場合に、それを解除したり、作動を停止したりする機能を組み込むべきだとしている。

この宣言には法的拘束力はないが、軍事用AIに自主的なガードレールを課すという、国家間の初めての大きな合意である。同日、国連は、致死的な自律型兵器の徹底的な研究を求め、そのような兵器の制限の条件を設定する可能性のある、総会の新たな決議を発表した。

ローレン・カーンジョージタウン大学安全保障・新興技術センター(CSET)のシニア・リサーチ・アナリストであるローレン・カーンは、米国主導のこの宣言は「信じられないほど重要なもの」だと言う。この宣言は、各国がどのようにAIを開発し、テストし、軍事システムに導入するかをめぐる規範について、拘束力のある国際的合意に向けた現実的な道筋を示すものであり、兵器システムに関わるアプリケーションについて、より大きなセーフガードと透明性を提供するものだという。「私は、これらは誰もが同意する常識的な合意だと信じています」とカーンは言う。

この拘束力のない宣言は、2月にハーグで開催された、AIの軍事利用に焦点を当てた各国の代表が参加する会議を受けて、米国が最初に起草したものだ。米国はまた、他の国々にも以下のことに同意するよう求めている。 核兵器は人間が管理する .新宣言は、この宣言を支持する国々が2024年初頭に会合を開き、議論を続けるとしている。

ハリス副大統領はロンドンでの演説の中で、この宣言は現在、英国、カナダ、オーストラリア、ドイツ、フランスを含む米国と同盟を結ぶ国々によって署名されていると発表した。この31の署名国には、中国とロシアは含まれていない。中国とロシアは、米国と並んで自律型兵器システムの開発におけるリーダーとみなされている。中国はアメリカとともに AIがもたらすリスクに関する宣言 英国政府によって調整されたAI安全サミットの一環として。

致命的なオートメーション

軍事AIといえば、いつ、どのように殺傷力を行使するかを自ら決定できるAI搭載兵器のアイデアを想起させることが多い。米国や他のいくつかの国は、そのような兵器の全面的な禁止を求める声に抵抗しているが、国防総省の 方針は、自律型システムは「指揮官やオペレーターが、武力行使に関して適切なレベルの人間的判断を下す」ことを可能にすべきだとしている。国連の「特定通常兵器に関する条約」(1980年、過剰または無差別とみなされる兵器の使用に関する国際ルールを作るために設立)の一環として、この問題をめぐる議論が行われた。はほとんど停滞している。.

先週発表された米国主導の宣言は、戦場におけるAIの特定の使用禁止を求めるまでには至っていない。その代わりに、透明性と信頼性を保証する方法でAIが使用されることを保証することに焦点を当てている。これは重要なことだとカーンは言う。というのも、軍は様々な方法でAIを活用しようとしているからだ。たとえ制限され、厳重に監督されたとしても、このテクノロジーは不安定化したり、危険な影響を及ぼす可能性がある。

一つの懸念は、誤作動を起こしたAIシステムが、敵対行為をエスカレートさせる引き金となるようなことをするかもしれないということだ。「致死的な自律兵器に焦点を当てることは重要です」とカーンは言う。「同時に、このプロセスは、まだ存在しないタイプのシステムだけに焦点を当てた、このような議論に埋もれてしまっている。

殺傷能力のある自律型兵器を禁止しようとする動きもある。ハリスが軍事AIに関する新たな宣言を発表した同じ日、軍縮と兵器拡散に取り組む国連総会第1委員会は、致死的自律兵器に関する新たな決議を承認した。

この決議は、致死的自律兵器によってもたらされる「人道的、法的、安全保障的、技術的、倫理的」課題についての報告書と、国際機関や地域機関、赤十字国際委員会、市民社会、科学界、産業界からの意見を求めている。国連が発表した声明によると、エジプト代表は投票後、「人間を殺したり傷つけたりする決定をアルゴリズムが完全にコントロールしてはならない」と述べたという。

「国連で自律型兵器システムのプログラム・マネージャーを務めるアンナ・ヘヒアは言う。 フューチャー・オブ・ライフ研究所 人間を標的にした致死的な自律システムの全面的な禁止を求めるキャンペーンを行っている非営利団体である。「これは、国連事務総長が2026年までに実現するよう求めている法的拘束力のある制度への大きな一歩である。

ブーム・タイムズ

世界中の軍隊がAIに関心を持つようになって久しいが、ウクライナの戦場で新技術が急速に導入されたことで、米国などが新たな関心を寄せている。 米国防総省はAIをより小型で安価なシステムに組み込む実験を行っている脅威を感知し、迅速に対応する能力を高める方法として。

「ウクライナで展開され始めているシステムは前例のないもので、これまでに見たことのないテクノロジーだ。「ウクライナは間違いなく、さまざまなテクノロジーを試す舞台なのです」。

ChatGPTはまだ軍に徴兵されていないようだが、最近のチャットボット技術の隆盛は、軍事AIのリスクに関する新たな、そしてより真剣な議論を促しているようだ。「今回の政治宣言と国連の投票は、ここ数年の自律型兵器をめぐる議論にかなり大きな変化が生じたことを意味します」と、ChatGPTは言う。 ポール・シャーレワシントンDCのシンクタンク、新アメリカ安全保障センター(CNAS)の研究ディレクターで、自律型兵器の専門家。

自律型兵器のなかには、飛来するミサイルを自動的に撃ち落とす戦艦の防御システムなど、すでに存在するものもある。しかし、最新のAIを組み込んだ致死的なシステムが戦争に使われる可能性があるという報告は、まだ数件しかない。2020年にリビアで起きた内戦で、トリポリ政府を支持する勢力が配備したドローンが、人為的な制御なしに兵士に殺傷力を行使した可能性があるという。 2021年の国連報告書 .また いくつかの報告ロシアの再侵攻を撃退しようとするウクライナ軍のために、致死的な自律型無人機が開発されているという報告もある。ロシアは新しい国連決議に反対した国のひとつで、この合意は特定通常兵器に関する条約の下での自律性に関する既存の作業を損なうものだとしている。

引用元へ

- Advertisement -spot_img

More articles

- Advertisement -spot_img

Latest article