無人兵器についての一般向けのノンフィクションはこれまでも出ていたが、ようやく最新の政治、技術を踏まえた上で自律型兵器を網羅的に語ってくれる本が現れた! これから紹介する、ポール・シャーレ『無人の兵団──AI、ロボット、自律型兵器と未来の戦争』がまさにそれで、「自律型兵器とはなんなのか、その定義」、「自律型兵器にどこまでの決定権をもたせるかについて、軍事的な意思決定権を持つ人間はどう考えているのか?」、「これまでの歴史の中で武器・兵器を使用禁止にした法律はどの程度の達成率で、成功要因はどこにあるのか?」
といった、自律型兵器の最新の技術・運用動向だけではなく、それがもたらす社会、歴史的観点から「倫理的、道徳的、国際法的な観点からどうあるべきなのか?」と問いかけていく、広範でありながらも各論の記述のしっかりした傑作である。著者はもともとイラクやアフガニスタンに出征していた米陸軍のレンジャー部隊員で、その後は米国防総省にて自律型兵器に関する法的・倫理的課題と政策の研究を行い、今は安全保障に関わっているというこの分野の専門家である。
ざっと紹介する
今、世界中の軍隊がロボットを戦争に配備し、90カ国以上が無人機に空を哨戒させている。30カ国以上は、交戦の速度が早すぎて人間では反応できない状況のために自律型防御兵器を有している他、イスラエルのハーピー無人機は、広い範囲を自動で索敵し、敵レーダーを発見した時は無許可で破壊する、攻撃の決断を下すところまで含めた高度な自律性を有している。これは中国は購入後リバースエンジニアリングして製造した他、他少数の国に売却されているという。
世界中で広まりつつある自律型兵器は、人間の生死を決定する力を持ちつつある。だが、それは議論もなしに決められていいものではない。兵器が誰を殺すかを判断し、それが仮に誤射だった場合、誰が責任を取るべきなのか、誰かが殺されることが兵器によって決定されるなんてありえない、とする否定的な考えがある一方で、兵器が高度な認識能力で人間をアシストすることで、民間人が死傷するのをこれまで以上に防ぐ、人道的なものになりえるという人もいる。確かに、ライフルを持った人間と熊手をもった人間を区別する時に、人間をしのぐ可能性はある。
人類は根本的な問題に直面している。戦争で機械が生死の判断を下すのを許すべきか? それは合法的なのか? 正しいことなのか?
本書は、この問いを中心に置きながら、急速に進歩を続けている自律型兵器に関する技術的・法的・倫理的観点からの包括的な議論をすすめ、今後自律型兵器が世界中に蔓延していった時に何が起こるのかといったまだみぬ課題についても検討していく、一般読者向けのノンフィクションとしては今後10年に渡って基本書となりえる一冊である。550ページを超える分厚い本なのだが「こんなことが起こり得るのか!」「こんなことがもうできるのか!」「こんなことまで想定しているのか!」といろいろな角度から驚き続けることのできる素晴らしい傑作だ。
どんな兵器が開発され、どのようなリスクがあるのか
群体としての行動をする自律型兵器(相互干渉しない離着陸、飛行、一点に集中しない攻撃アルゴリズムなど)が空を飛ぶもの、水中で稼働するものの二つが実験段階にある他、アメリカの国防研究開発部門であるDARPAでは、CODEと呼ばれる、こちらも複数体で行動し、場合によっては攻撃まで兵器の側で判断できる(余地を残している)自律型兵器を開発している。最初の方で触れたイスラエルのハーピーは種類としては滞空弾薬と呼ばれるもので、2.5時間ほどの捜索可能時間があり、与えられた範囲内を巡回しながら敵レーダーを探し、見つけた場合無許可で破壊する。
自律型兵器の必要性が増している背景にはいくつかの背景があるが、大きな理由のひとつは兵器のネットワーク化が増加するにつれて、電子攻撃の勃興と衝突するようになったということがあげられる。軍が通信とターゲット感知を電磁スペクトルに依存すると、その領域でのジャミングやスプーフィングなどの電子戦に巻き込まれることは今や必ず想定しなければいけない事態だ。ジャミングに強い通信手段も存在するが、交信範囲と帯域幅が限られる。そこで、通信せずとも攻撃の実行判断までできる自律性を高めた兵器が必要とされる。もうひとつの(自律型兵器の必要性が増す)理由は、兵器に搭載できる知能のレベルがましていることだ。いくらなんでも高確率でターゲットを間違えるアルゴリズムには攻撃の判断を任せられないが、状況は変わりつつある。
おもしろいというか恐ろしいのが、今後自律型兵器について考慮しないといけないこととして、画像認識技術の致命的な欠点があることだ。ディープラーニングによって画像認識の精度は格段に向上したが、これは画像にノイズをかぶせて誤認させるよう意図する敵対的画像サンプルの攻撃に致命的に弱い。ニューラルネットワークは独自のアルゴリズムに従って画像を分類するが、そのせいで人間の目にとっては意味不明な抽象的な形をヒトデなどと誤認することがあるのだ。
敵対的画像サンプルは、人間に察知できないようなやり方で、正常な画像に埋め込むことができる。それによって、”隠れた悪用”が可能になり、人間の目には見えないようなやり方で敵が画像を埋め込み、AI監視カメラに、そのシャツを着ている人間が入場を許可されていると思い込ませる。人間の警備員にも、シャツに欺瞞のための画像が隠されているとはわからない。
これのまずいところは、解決策がないことで、そんな状態で現在のようなきわめて複雑な深層ニューラル・ネットワークを自律的な目標決定に使用するのはリスクが高すぎるといえる。
責任の問題について
戦争で機械が生死の判断を下すのを許すべきかについて、上記のような技術的な脆弱性や敵と味方を判断する根本的な不可能性(これについては、著者は自身のイラクでの体験談が語れるのが強い。『ライフルの照準器に捉えた相手が反政府分子だと確信をもっていえたことは、一度もなかった。』)──について網羅的に綴っていく本書だが、中でも重要な論点となるのは責任の所在についてだ。自律型兵器が予想外に民間人を殺したら、誰が責任をとるのか?
殺した兵器それ自体に責任はとれない。指揮官かエンジニアか? 戦争では軍や受注業者は、民法上の責任からおおむね保護されているから、説明責任の欠落は避けられない。仮に自律型兵器が徘徊し敵を殺すのであれば、それを実行するための心理的負担は誰しも軽くなるだろう。国家単位の功利主義的観点からいえば道徳的な苦しみは減り、その方がいいのかもしれないが、世界全体としてみたときにはどうだろうか。そうした状態に陥らないように国際人道法や戦争法があり、「無人兵器システムは人間の監督下に置かれるべき」というコンセンサス自体はとれているが、監督下とはどの程度のレベルのことか、人間が責任を負うべきなのはどこまでか、などの現実の措置に適用できるレベルのすり合わせについてはまだ始まったばかりの段階だといえる。
そこについて、民間政策アナリストとして自律型兵器に関する政策作成に携わっていた著者らしく、そうした議論、今後自律型兵器はどう扱われるべきかを非常に具体的にまとめていってくれるので、国際法、政策的な観点からいってもたいへんに見通しがよくなる。
おわりに
進捗著しい分野なので技術的には古びていくだろうが、その法的な議論や、そもそも自律型兵器はどう運用されるべきなのか、その倫理的、道徳的観点からの議論は、すべてのベースとなるもので、一般読者向けの本としては、今後10年は古びずに読みつがれていくだろう。