日時

2011 年 1 月 22 日(土) 13:30~16:30 (13:00 開場)
拓殖大学文京キャンパス C 館 4 階 C-404 教室

場所

登壇者

主催・後援

【住所】 〒112-8585 東京都文京区小日向 3-4-14
【地図】 アクセス http://www.takushoku-u.ac.jp/map/acc_b.html
(東京メトロ 丸の内線 茗荷谷駅下車 徒歩 3 分)
キャンパス内マップ http://www.takushoku-u.ac.jp/map/map_b.html

報告・討論
佐藤丙午 (拓殖大学 海外事情研究所 教授)
小宮山亮磨 (朝日新聞東京本社 科学医療グループ 記者)
岩本誠吾 (京都産業大学 法学部 教授)
コメント・討論
押村高 (青山学院大学 国際政治経済学部 教授)
高橋和夫 (放送大学 教授)
司会
夏木碧 (オックスファム・ジャパン ポリシー・オフィサー)
共催:
「武器と市民社会」研究会
拓殖大学 海外事情研究所
後援:特定非営利活動法人オックスファム・ジャパン

概要
1990 年代以降に急速に進展した戦争の「ハイテク化」は、ついに無人の航空機や車両といったロボットが戦
場で活躍する時代をもたらした。米軍はアフガニスタンとイラクの戦争に大量の無人航空機(UAV)を投入し
た。当初は偵察用だった UAV は、現在では爆撃も行うようになっている。UAV の操縦士は戦場から遠く離れ
たアメリカ本土の基地に「出勤」し、ボタンを押して爆撃を行った後に、家族のもとに帰宅する。今やアメリ
カのみならず、ヨーロッパ諸国やロシア、中国、イスラエル、シンガポールなど数十カ国が、このような「ロ
ボット兵器」の開発に取り組んでいる。
「ロボット兵器」の市場が拡大するなか、民用技術と軍事技術の境目は
曖昧になり、情報通信技術の発展が技術の拡散を容易にしている。
「ロボット兵器」の登場は、戦争をどのように変えているのか?このような戦争は、人道的なのか、それと
も非人道的なのか?既存の国際人道法は、この状況に対応できるのか?「ロボット戦争」では一体誰が「戦闘
員」なのか?戦争犯罪の責任は誰が負うのか?民間の科学者たちは、どのような問題や葛藤に直面しているの
か?ハイテク技術の拡散は制御すべきなのか?ハイテク技術を持たない国家や非国家集団は「ロボット戦争」
にどう対応しているのか?
連続セミナーシリーズの最終回では、戦争が急速にハイテク化するなかで、議論が追いついていない様々な
論点について、ロボットの研究・開発の現場を取材したジャーナリストや、国際法学者、政治思想や国際政治
の研究者が、それぞれの専門分野を超えて議論します。

プログラム

13:30
13:40
14:00
14:20
14:40
14:50
15:00
15:10
15:50
16:25

セミナー開始
司会による開会挨拶、趣旨・登壇者・進行・ルール説明等
【報告】佐藤丙午
【報告】小宮山亮磨
【報告】岩本誠吾
【コメント・質問】押村高
【コメント・質問】高橋和夫
休憩
登壇者討論
質疑応答
司会による閉会挨拶

お願い:チャタムハウス・ルールの部分適用について
本セミナーシリーズ第一回目参加者からのご意見に基づき、第二回目以降のセミナーでは、傍聴席で参加
いただいている皆さまに関して、チャタムハウス・ルールを適用することにしております。
チャタムハウスルールは、得られた情報を他所で利用できるが、その際に発言者やその他の参加者の身元
および所属に関しては、明示的にも黙示的にも明かにしない、というものです。
登壇者につきましては、責任を持って発言するという意味でルールを適用いたしませんが、傍聴席でご参
加の皆様には、自由・闊達な議論と情報の共有を可能にすべく、チャタムハウス・ルールを適用させてい
ただきます。
例えば、後半の質疑応答での傍聴席の皆様の発言につきまして、論文やブログ、ツイッター、ミクシー等
に発言者の身元等が分かる形で書く等のことはお控えいただきますよう、お願いをいたします。

【報告 1】

「ロボット戦争」の時代の戦略問題
拓殖大学海外事情研究所
佐藤 丙午
○「ロボット時代」の戦争
ハイテク化 → 戦争の効率化(精密爆撃・被害限定・人的喪失の減少)
数理処理技術の向上(コンピュータによる情報処理・解析・計算能力)
AI(人工知能)の開発(感覚・思考・行動)
:人間を超えることができるか
感覚:センサー技術(情報収集・探索能力・状況把握能力など)
思考:機械の知能
行動:攻撃手段(レーザー、サイバー)
・推進装置
その他の特徴:ステルス技術、情報ネットワーク、素材技術等
急速な技術進歩:特異点(Singularity)を超えた後の技術と人間(情報伝達速度)
→ロボットの次は遺伝学的(細胞学的)
「兵器」
(クローン)か?
○戦場の変化:利点と問題点
戦場の場が拡大:正規軍の戦闘行動の領域が拡大・後背地と戦闘区域の差が曖昧
→「国家総力戦」型ではなく、戦争当事者の数が限定(徴兵制の将来)
致死兵器の必要性:非致死兵器(非人道的)の活用
→破壊力はではなく無力化の能力(兵器使用を前提とする⇔抑止)
ロボットの殺傷能力の程度
戦争における人間の役割の減少:現場にいる必要がなくなる・物理的に人間の能力を超える兵器(ロ
ボットしか操作できない)
○戦争目的への影響(格差問題)
戦争における抑止概念の変化:戦争は回避するものから行動するものに
→「決闘」の復活
戦争における「勝利」とは(破壊をもたらす必要はなく、物理的にも社会的にも敵対国家・勢力を無
力化すればよい)?
→占領と統治(平和作戦や国家建設)の効果が重要な意味を持つ
アメリカはイラクとアフガニスタンで勝利したのか?
情報インフラの整備が進んだ米国の優位(同時多発テロ以降の研究開発費の増大)
→キャッチアップをめぐる問題(技術リードは固定化できるか)
「ロボット戦争」時代に入った国家同士の戦争の形は何か
→拒否力をめぐる争い(伝統的な意味での戦闘を伴う戦争の終焉)
○「ロボット戦争」の時代の社会的問題

「ロボット戦争」時代の到来は、戦争を仕掛けやすくするか(自国側の人的被害に対する考慮無しに
戦争を開始することができる)

「ロボット戦争」の法的問題:交戦規則や戦争責任は適用されるか
戦闘行動には人間の判断が介在、自己判断する AI を持つ兵器の「責任」
・ロボットの知能は人間の思考力を超えるか:人間が常に管制管理できるか
・戦争は「ロボット」に任せておくべきか?

【報告 2】

「武器と市民社会」セミナー 「ロボット戦争」はどこへ向かうのか?
朝日新聞記者
小宮山亮磨

1. 千葉大副学長のロボット
・ 千葉大の副学長が率いるチームが昨年、米軍と豪州軍が主催するロボットコンテストに参加。受け取っ
た開発費は5万ドル。副学長は「学生はこうしたコンペでは燃える」と参加理由を説明
・ 08年にも、インドと米国が開いた無人航空機の大会に参加
・ 元 NASA の研究者で、地雷探知ロボットの研究者として有名

2. 米軍による助成の仕組み
・ 米国の陸海空軍それぞれが下部組織を通じて助成。東京・六本木にそれぞれオフィスを持っている
・ 空軍の下部組織は「アジア宇宙航空研究開発事務所(AOARD)

。助成枠は「研究助成」
「会議助成」
「渡
航助成」の3種類あり、過去10年で助成件数は2.5倍、金額はざっと10倍に増えている
・ 兵器のハイテク化により開発費を軍単独でまかなうのが困難になってきた
・ 助成相手に求める条件はきわめて寛大。知的財産は研究者に
・ 基礎科学にも助成。ノーベル賞受賞者も多数

3. ロボットへの助成



AOARD に雇われている日本人顧問は人工知能の研究者
ロボットに使える超小型ガスタービン研究に助成
無人機のコックピットに使えるバーチャルリアリティ技術に助成申し込み
ロボット関連の国際会議に助成 or 助成申し込み

4. 研究者の対応
・ 金が少ない。苦しい。ほしい。でもやっぱり……
・ 千葉大副学長にも悩み。取材後に参加を撤回
・ 萎縮してしまえば、日本だけが遅れてしまうのでは?

【報告 3】

国際法から見た無人戦闘機(UCAV)の合法性について
京都産業大学
岩本誠吾
1. はじめに(国際法問題の仕分け)
「米国の CIA 又は民間軍事会社員1が、無人攻撃機2を使用して、パキスタン3でテロ集団を標的4(標的殺害、
targeted killing)に攻撃し、巻き添えに多数の文民5を殺害した」
2. 武力紛争に関する国際法の概要
国内法(治安維持)⇒刑事司法手続き
・軍事作戦

軍事的必要性
jus ad bellum(入口論)⇒自衛権
国際法

均衡性
中立法規
ジュネーヴ法(犠牲者)

jus in bello (内容論)
交戦法規

ハーグ法(兵器・方法)

兵器規制
・ハーグ法

兵器使用

特定禁止方式(条約化)⇒ 対人地雷条約等(当事国のみ)
・不必要な苦痛禁止原則(戦闘員保護)
一般原則方式
・区別原則=無差別兵器禁止(文民保護)
(普遍的適用)
・環境保護原則(一般利益保護)
・区別原則・無差別攻撃禁止・軍事目標主義
・背信行為禁止原則
攻撃側 ・武器弾薬の選定
・予防原則(義務)
・軍事目標の確認
被攻撃側
合法な使用方法 ・・・・・・・・・・ ◎

・合法兵器
・兵器自体の合法性

違法な使用方法 ・・・・・・・・・・ ×
・違法兵器(条約違反か法原則違反)
・・・・・・・・・ ×
・疑わしい兵器は合法推定(禁止法)
・・・・・・ △ ⇒◎
・新兵器 ⇒特定条約の不存在 ⇒法原則違反か否か・・・?

・無差別性の判断基準⇒均衡性(軍事的利益と文民・民用物の付随的損害の比較衡量)

3. 無人戦闘機の合法性・使用方法の違法性(誤射・誤爆の原因は、兵器か or 兵士か?)
新兵器⇒特定条約なし⇒法原則による判断⇒兵器自体の判断⇒兵器使用の判断
兵器自体は合法であるが、その使用方法により違法となる場合がある

[区別原則、均衡原則、予防原則]
軍事目標:軍事目標(52 条 2 項)+敵対行為に直接参加する文民(51 条 3 項)
軍事目標の確認措置 57 条 2 項(a)-(i)
巻き添え文民被害の最小限措置(a)-(ii)
軍事的利益と巻き添え文民被害との比較考量措置(a)-(iii)
(合法的標的への攻撃でも文民被害は不可避⇒合法性判断基準としての均衡性原則)
過度な文民被害予測の場合の停止措置((b)
効果的な事前警告措置(c)
(1977 年のジュネーヴ諸条約第 1 追加議定書)
パイロット・指揮官(上官責任)の法的責任、ROE 作成上の注意
法原則の内在的問題点:攻撃側による攻撃前の判断(≠ 結果責任、Rendulic Rule)
4. 無人戦闘機の軍事的利点と内在的問題点
軍事的利点:パイロットの安全性、冷静な作戦遂行可能、長時間飛行、経済性、近距離接近可能、高
高度飛行による発見・攻撃予測の困難性、
4D(Dangerous, Deep, Dirty, Dull)環境での効果的なツール
内在的問題点:*プレイステーション感覚(Play-Station Mentality)
地理的・心理的距離⇒恐怖からの解放⇒抑止の喪失⇒標的選定、付随的損害基準を
拡大解釈する誘惑⇒攻撃開始の敶居を下げる ⇒兵器発射を魅力的にする⇒戦闘
の非人格化
<文民の生命を如何に尊重・保護するか>
*技術的問題点:墜落、統制外、ハッキングの危険性
5. 将来の国際法的問題
・UACV から発射のミサイルは、単にミサイルと考えれば違法ではないかもしれないが、現在の運用状況や
自律的殺害の潜在的可能性から、それ自体危険であり、条約による使用制限・禁止の候補対象として検討
する必要性あり
⇒ 人道的要請と軍事的必要性との均衡のバランス調整
・攻撃手続きでどこまで人間の意思を介在させるか(ロボットの自律性はどこまでか)?

【参考資料】

「ロボット戦争」はどこに向かうのか?
放送大学
高橋和夫
http://ameblo.jp/t-kazuo
①使う側の政治的な理由
1)
民主主義国家の有権者は、通常は多数の死傷者を容認しない。
2)
フランスの外人部隊、イギリスのグルカ兵
3)
アメリカは、徴兵制度から募兵制度へ
4)
戦争請負会社
5)
ロボット
6)
戦争の敶居を低くする。イエメンの例
②技術的な側面
1)
テクノロジーの進歩
2)
ロボットの方が得意な分野
③イラク
1)
ロボットの[「成功」を支えた地上での情報
2)
スンニー派部族とアルカーエダの分裂
④アフガニスタン
1)
地上での情報はあるか?
2)
「死傷者の三分の一は、民間人」シェフィールド大学
ノエル・シャーキィー教授(the Guardian, 16 January, 2011)
3)
「天災に加えて人災です。こともあろうに、米軍の空爆が休むことなく続けられ、
『危険地帯』とされ
て救援の手の届かない状態が続いています。ある地域では、遺体を収容しているところを爆撃され、
罪の無い村民二十数名が即死、多くの負傷者を出しました。こうして、復讐を誓う者たちが日々激増
しています。

、中村哲「旱魃の中、百年に一度の大洪水-今週より取水口の大改修-」

『ペシャワー
ル会報』
(第 105 号、2010 年 9 月 29 日号)
、2 ページ
⑤パキスタンの3A
1) Allah, America ,Army
2) イスラム国家の親米政策
3) 政府は米軍の越境攻撃を黙認しつつ、批判せざるを得ない。
4) 人間よりはロボットの越境の方が、
「まだまし」The PM brushed aside Rehman,s remarks and said "I don,t care
if they do it as long as they get the right people. We,ll protest in the National Assembly and then ignore it." 23 August 2008
WikiLeaks