2019.12.18-NHK NEWS WEB-
https://www3.nhk.or.jp/news/html/20191218/k10012219701000.html
AIで前立腺がん患者の画像分析 高精度で再発の可能性予測
AI=人工知能を使って前立腺がん患者の画像を分析し、再発の可能性を高い精度で予測できたと理化学研究所などのグループが発表しました。AIによって、これまで知られていなかったがんの再発と関わると見られる細胞の特徴も見つけられたということです。
この研究は、理化学研究所の山本陽一朗チームリーダーと日本医科大学の木村剛准教授らのグループが行い、科学雑誌「ネイチャー・コミュニケーションズ」に発表しました。
研究グループは、AIに患者100人分の前立腺の組織の画像を読み取らせ、がんがどこにあるのかなどの答えを与えないまま、「ディープラーニング」の技術で学習させました。
その結果、AIはみずからがんの特徴などを割り出し、これまで知られていなかった、がんのまわりにある細胞が集まる密度が再発のしやすさに関わっている可能性があることも見つけたとしています。
これをもとに、前立腺の組織の画像、およそ1万5000枚を分析し、がんが再発したかどうかの情報と照らし合わせると、これまでより高い精度でがんの再発が予測できていたということです。
師の診断と合わせることで、高い精度で再発が予測できるということで、山本チームリーダーは、「AIを使って人間がたどり着けなかった新たながんの特徴を発見できた。今後、他のがんや、希少な病気にも応用できないか研究を進めたい」と話しています。
医療現場に導入すすむAI
AI=人工知能は、医療現場への導入が進められていて、特に、患者の画像から病気があるかどうか見つける画像診断の分野で研究開発が盛んに行われています。
画像診断は、医師が知識と経験に基づいて患者の画像などを見て行っていますが、AIを利用して、医師の診断を支援することで、病気の見落としなどのミスを防ぎ、より精度の高い診断ができるようになることが期待されています。
これまでに、各地の医療機関や大学、企業が胃がんや肝臓がんなどの診断を正確に素早く行えるAIのシステムを開発したと発表しており、ことし10月には、AIがみずから学習する「ディープラーニング」の技術を活用し、脳の画像から病気を見つけるシステムが、医療機器として国の承認を受けました。
AIを活用することで、高齢化や医療の高度化などによって多忙になっている医療現場で診断を効率的に行い、医療従事者の負担を軽減できると考えられています。
さらに、今回の研究で前立腺がんの再発につながる細胞の特徴が新たに見つかったように、これまでの研究で分からなかったことが、AIによって明らかになることもあり、今後も医療現場でAIを活用する動きは強まっていきそうです。
人工知能
出典: フリー百科事典『ウィキペディア(Wikipedia)』
人工知能 ( AI)とは、「『計算(computation)』という概念と『コンピュータ(computer)』という道具を用いて『知能』を研究する計算機科学(computer
science)の一分野」を指す語。「言語の理解や推論、問題解決などの知的行動を人間に代わってコンピューターに行わせる技術」、または、「計算機(コンピュータ)による知的な情報処理システムの設計や実現に関する研究分野」ともされる。
『日本大百科全書(ニッポニカ)』の解説で、情報工学者・通信工学者の佐藤理史は次のように述べている。
誤解を恐れず平易にいいかえるならば、「これまで人間にしかできなかった知的な行為(認識、推論、言語運用、創造など)を、どのような手順(アルゴリズム)とどのようなデータ(事前情報や知識)を準備すれば、それを機械的に実行できるか」を研究する分野である
概 要
人間の知的能力をコンピュータ上で実現する、様々な技術・ソフトウェア・コンピュータシステム。応用例は自然言語処理(機械翻訳・かな漢字変換・構文解析等)
、専門家の推論・判断を模倣するエキスパートシステム、画像データを解析して特定のパターンを検出・抽出したりする画像認識等がある。1956年にダートマス会議でジョン・マッカーシーにより命名された。現在では、記号処理を用いた知能の記述を主体とする情報処理や研究でのアプローチという意味あいでも使われている。家庭用電気機械器具の制御システムやゲームソフトの思考ルーチンもこう呼ばれることもある。
プログラミング言語
LISP による「
ELIZA 」というカウンセラーを模倣したプログラムがしばしば引き合いに出されるが(人工無脳)、計算機に人間の専門家の役割をさせようという「エキスパートシステム」と呼ばれる研究・情報処理システムの実現は、人間が暗黙に持つ常識の記述が問題となり、実用への利用が困難視されている。人工的な知能の実現へのアプローチとしては、「ファジィ理論」や「ニューラルネットワーク」などのようなアプローチも知られているが、従来の人工知能であるGOFAIとの差は記述の記号的明示性にある。その後「サポートベクターマシン」が注目を集めた。また、自らの経験を元に学習を行う強化学習という手法もある。「この宇宙において、知性とは最も強力な形質である」(レイ・カーツワイル)という言葉通り、知性を機械的に表現し実装するということは極めて重要な作業である。
2006年のディープラーニング(深層学習)の登場と2010年代以降のビッグデータの登場により、一過性の流行を超えて社会に浸透して行った。2016年から2017年にかけて、ディープラーニングを導入したAIが完全情報ゲームである碁囲碁などのトップ棋士、さらに不完全情報ゲームであるポーカーの世界トップクラスのプレイヤーも破り、麻雀では「Microsoft
Suphx (Super Phoenix)」がAIとして初めて十段に到達する
など、時代の最先端技術となった
人工頭脳の種類
第2次人工知能ブームでの人工知能は機械学習と呼ばれ、以下のようなものがある。
エキスパートシステム
推論機能を適用することで結論を得る。エキスパートシステムは大量の既知情報を処理し、それらに基づいた結論を提供することができる。例えば、過去の
Microsoft Office には、ユーザが文字列を打ち込むとシステムはそこに一定の特徴を認識し、それに沿った提案をするシステムがついていた。
事例ベース推論(CBR)
その事例に類似した過去の事例をベースにし、部分修正を加え試行を行い、その結果とその事例を事例ベースに記憶する。
ベイジアン・ネットワーク
振る舞いに基づくAI:AIシステムを一から構築していく手法
一方、計算知能(CI)は開発や学習を繰り返すことを基本としている(例えば、パラメータ調整、コネクショニズムのシステム)。学習は経験に基づく手法であり、非記号的AI、美しくないAI
、ソフトコンピューティングと関係している。その手法としては、以下のものがある。
ニューラルネットワーク
非常に強力なパターン認識力を持つシステム。コネクショニズムとほぼ同義。
ファジィ制御
不確かな状況での推論手法であり、最近の制御システムでは広く採用されている。
進化的計算
生物学からインスパイアされた手法であり、ある問題の最適解を進化や突然変異の概念を適用して求める。この手法は遺伝的アルゴリズムと群知能に分類される。
これらを統合した知的システムを作る試みもなされている。ACT-Rでは、エキスパートの推論ルールを、統計的学習を元にニューラルネットワークや生成規則を通して生成する。
第3次人工知能ブームでは、ディープラーニングが画像認識、テキスト解析、音声認識など様々な領域で第2次人工知能ブームの人工知能を上回る精度を出しており、ディープラーニングの研究が盛んに行われている。最近では、DQN、CNN、RNN、GANと様々なディープラーニングの派生がでて各分野で活躍している。特に、GAN(敵対的生成ネットワーク)は、ディープラーニングが認識や予測などの分野で成果をだしていることに加えて、画像の生成技術において大きな進化を見せている。森正弥はこれらの成果を背景に、従来の人工知能の応用分野が広がっており、Creative
AIというコンテンツ生成を行っていく応用も始まっていると指摘している
ジィ制御を開発し、従来のファジィ理論の限界を突破して学会で評価されるだけでなく、白物家電への応用にも成功して更なるブームを巻き起こした。松下電器の試みの成功を受けて、他社も同様の知的制御を用いる製品を多数発売した。1990年代中頃までは、メーカー各社による一般向けの白物家電の売り文句として知的制御技術の名称が大々的に用いられており、洗濯機の製品名では「愛妻号DAYファジィ」,掃除機の分類としては「ニューロ・ファジィ掃除機」,エアコンの運転モードでは「ニューロ自動」などの名称が付与されていた。
ニューロ,ファジィ,ニューロファジィという手法は、従来の単純なオン・オフ制御や、対象を数式で客観的にモデル化する(この作業は対象が複雑な機構を持つ場合は極めて難しくなる)必要があるPID制御や現代制御等と比較して、人間の主観的な経験則や計測したデータの特徴が利用可能となるファジィ、ニューロ、ニューロファジィは開発工数を抑えながら、環境適応時の柔軟性を高くできるという利点があった。しかし、開発者らの努力にも関わらず、計算能力や収集可能なデータ量の少なさから、既存の工作機械や家電製品の制御を多少改善する程度で限界を迎えた。理論的にもファジィ集合と深層学習が不可能なニューラルネットワークの組み合わせであり、計算リソースやデータが潤沢に与えられたとしても、認識精度の向上には限界があった。
以降、計算機の能力限界から理論の改善は遅々として進まず、目立った進展は無くなり、1990年代末には知的制御を搭載する白物家電が大多数になったことで、売り文句としてのブームは去った。ブーム後は一般には意識されなくなったが、現在では裏方の技術として、家電製品のみならず、雨水の排水,駐車場,ビルの管理システムなどの社会インフラにも使われ、十分に性能と安定性が実証されている。2003年頃には、人間が設計したオントロジー(ファジィルールとして表現する)を利活用するネットワーク・インテリジェンスという分野に発展した。
2000年代
2005年、レイ・カーツワイルは著作で、「圧倒的な人工知能が知識・知能の点で人間を超越し、科学技術の進歩を担い世界を変革する技術的特異点(シンギュラリティ)が2045年にも訪れる」とする説を発表した。
2006年に、ジェフリー・ヒントンらの研究チームによりオートエンコーダによるニューラルネットワークの深層化手法が提案された(現在のディープラーニングの直接的な起源)。
2010年代前半
2010年代に入り、膨大なデータを扱う研究開発のための環境が整備されたことで、AI関連の研究が再び大きく前進し始めた。
2010年に英国エコノミスト誌で「ビッグデータ」という用語が提唱された。同年に質問応答システムのワトソンが、クイズ番組「ジェパディ!」の練習戦で人間に勝利し、大きなニュースとなった。
2012年に画像処理コンテストでジェフリー・ヒントン氏のチームが従来手法からの大幅な精度改善を果たした上で優勝したことで、第三次AIブームが始まった。
2013年には国立情報学研究所
や富士通研究所の研究チームが開発した「東ロボくん」で東京大学入試の模擬試験に挑んだと発表した。数式の計算や単語の解析にあたる専用プログラムを使い、実際に受験生が臨んだ大学入試センター試験と東大の2次試験の問題を解読した。代々木ゼミナールの判定では「東大の合格は難しいが、私立大学には合格できる水準」だった。
2014年には、日本の人工知能学者である齊藤元章により、特異点に先立ち、オートメーション化とコンピューター技術の進歩により衣食住の生産コストがゼロに限りなく近づくというプレ・シンギュラリティという概念も提唱された。
ジェフ・ホーキンスが、実現に向けて研究を続けているが、著書『考える脳 考えるコンピューター』の中で自己連想記憶理論という独自の理論を展開している。世界各国において、軍事・民間共に実用化に向け研究開発が進んでいるが、とくに無人戦闘機
UCAV や無人自動車ロボットカーの開発が進行しているものの、2010年代にはまだ完全な自動化は試験的なものに留まった(UCAVは利用されているが、一部操作は地上から行っているものが多い)。
ロボット向けとしては、CSAILのロドニー・ブルックスが提唱した包摂アーキテクチャという理論が登場している。これは従来型の「我思う、故に我あり」の知が先行するものではなく、体の神経ネットワークのみを用いて環境から学習する行動型システムを用いている。これに基づいたゲンギスと呼ばれる六本足のロボットは、いわゆる「脳」を持たないにも関わらず、まるで生きているかのように行動する。
2010年代後半
2015年10月に米DeepMind社が作成した「AlphaGo」が人間のプロ囲碁棋士に勝利して以降はディープラーニングと呼ばれる手法が注目され、人工知能自体の研究の他にも、人工知能が雇用などに与える影響についても研究が進められている
。
2016年10月、DeepMindが、入力された情報の関連性を導き出し仮説に近いものを導き出す人工知能技術「ディファレンシャブル・ニューラル・コンピューター」を発表し、同年11月、大量のデータが不要の「ワンショット学習」を可能にする深層学習システムを
、翌2017年6月、関係推論のような人間並みの認識能力を持つシステムを開発
。2017年8月には、記号接地問題(シンボルグラウンディング問題)を解決した。
人工知能の第三次ブーム:AGI(汎用人工知能)と技術的特異点
2006年のディープラーニングの発明と、2010年以降のビッグデータ収集環境の整備、計算資源となるGPUの高性能化により、2012年にディープラーニングが画像処理コンテストで他の手法に圧倒的大差を付けて優勝したことで、技術的特異点という概念は急速に世界中の識者の注目を集め、現実味を持って受け止められるようになった。ディープラーニングの発明と急速な普及を受けて、研究開発の現場においては、デミス・ハサビス率いるDeepMindを筆頭に、Vicarious、IBM
Cortical Learning Center、全脳アーキテクチャ、PEZY Computing、OpenCog、GoodAI、nnaisense、IBM
SyNAPSE等、汎用人工知能(AGI)を開発するプロジェクトが数多く立ち上げられている。これらの研究開発の現場では、脳をリバースエンジニアリングして構築された神経科学と機械学習を組み合わせるアプローチが有望とされている
。結果として、Hierarchical Temporal Memory (HTM) 理論、Complementary Learning Systems (CLS) 理論の更新版等、単一のタスクのみを扱うディープラーニングから更に一歩進んだ、複数のタスクを同時に扱う理論が提唱され始めている。
3Dゲームのような仮想空間でモデルを動かし現実世界のことを高速に学ばせるといったことも大きな成果を上げている(シミュレーションによる学習)。
また、数は少ないがAGIだけでは知能の再現は不可能と考えて、身体知を再現するために、全人体シミュレーションが必要だとする研究者やより生物に近い振る舞いを見せるAL(人工生命)の作成に挑む研究者、知能と密接な関係にあると思われる意識のデジタル的再現(人工意識)に挑戦する研究者もいる。
リーズナブルなコストで大量の計算リソースが手に入るようになったことで、ビッグデータが出現し、企業が膨大なデータの活用に極めて強い関心を寄せており、
全世界的に民間企業主導で莫大な投資を行って人工知能に関する研究開発競争が展開 されている。また、2011年のD-Wave Systemsによる量子アニーリング方式の製品化を嚆矢として、量子コンピュータという超々並列処理が可能な次世代のITインフラが急速に実用化され始めた事で、人工知能の高速化にも深く関わる組み合わせ最適化問題をリアルタイムに解決できる環境が整備され始めている。この動向を受ける形で、2016年頃から、一般向けのニュース番組でも人工知能の研究開発や新しいサービス展開や量子コンピュータに関する報道が目立つようになった。
2017年にはイーロン・マスクが、急速に進化し続ける人工知能に対して人間が遅れを取らないようにするために、人間の脳を機械に接続するブレイン・マシン・インターフェースを研究開発するニューラ・リンク社を立ち上げていたことを公表し、世界中で話題になった。ブレイン・マシン・インターフェースにより、人のインターネットが出現する事が予測されている。
2017年10月にはジェフリー・ヒントンにより要素間の相対的な位置関係まで含めて学習できるカプセルネットワークが提唱された。
2018年3月16日の国際大学GLOCOMの提言によると、課題解決型のAIを活用する事で社会変革に寄与できると分析されている
。
2018年8月、Open AIが好奇心を実装しノーゲームスコア、ノーゴール、無報酬で目的なき探索を行うAIを公表。これまでのAIで最も人間らしいという。
2018年9月、MITリンカーン研究所は従来ブラックボックスであったニューラルネットワークの推論をどのような段階を経て識別したのかが明確に分かるアーキテクチャを開発した。
2019年に入るとこれまで深層学習では困難とされてきた言語処理において大きな進展があり、Wikipediaなどを使用した読解テストで人間を上回るに至った。(BERT、ROBERT。)
各国におけるAI開発
アメリカでは2013年に時の大統領バラク・オバマが脳研究プロジェクト「BRAIN Initiative」を発表。
Googleはアレン脳科学研究所と連携し脳スキャンによって生まれた大量のデータを処理するためのソフトウェアを開発している。2016年の時点で、Googleが管理しているBrainmapのデータ量はすでに1Zettaバイトに達しているという。
Googleは、ドイツのマックスプランク研究所とも共同研究を始めており、脳の電子顕微鏡写真から神経回路を再構成するという研究を行っている。
中国では2016年の第13次5カ年計画からAIを国家プロジェクトに位置づけ
、脳研究プロジェクトとして
中国脳計画 も立ち上げ、官民一体でAIの研究開発を推進してる
。
中国の教育機関では18歳以下の天才児を集めて公然とAI兵器の開発に投じられてもいる 。 マサチューセッツ工科大学(MIT)のエリック・ブリニョルフソン
教授や情報技術イノベーション財団
などによれば、中国ではプライバシー意識の強い欧米と比較してAIの研究や新技術の実験をしやすい環境にあるとされている。日本でスーパーコンピュータの研究開発を推進している齊藤元章もAIの開発において中国がリードする可能性を主張している。
世界のディープラーニング用計算機の4分の3は中国が占めてる ともされる。米国政府によれば、2013年からディープラーニングに関する論文数では中国が米国を超えて世界一となっている
。FRVT
やImageNetなどAIの世界的な大会でも中国勢が上位を独占している。大手AI企業Google、マイクロソフト、アップルなどの幹部でもあった台湾系アメリカ人科学者の李開復
は中国がAIで覇権を握りつつあるとする『
AI超大国:中国、シリコンバレーと新世界秩序 』を著してアメリカの政界やメディアなどが取り上げた。
フランス大統領エマニュエル・マクロンはAI分野の開発支援に向け5年で15億ドル(約1600億円)を支出すると宣言 し、AI研究所をパリに開き、フェイスブック、グーグル、サムスン、DeepMind、富士通などを招致した。イギリスともAI研究における長期的な連携も決定されている。
EU全体としても、「Horizon 2020」計画を通じて、215億ユーロが投じられる方向。 韓国は、20億ドルを2022年までに投資をする。6つのAI機関を設立し褒賞制度も作られた。
目標は2022年までにAIの世界トップ4に入ることだという。
日経新聞調べによると、国別のAI研究論文数は1位米国、2位中国、3位インドで日本は7位だった
。
製作
プログラミング言語はC++のほかPythonが広く使われている。 深層学習を利用するには微分、線形代数、確率・統計といった大学レベル以上の数学知識が必要となる。
脳シミュレーションを行うには脳神経科学の知識も重要となる。
懸念
人工知能学会の松尾豊は、著書『人工知能は人間を超えるか』内に於いて、人間に対して反乱を起こす可能性を否定しているが、人工知能の危険性について、警鐘を鳴らしている著名人もいる。
スティーブン・ホーキング「人工知能の発明は人類史上最大の出来事だった。だが同時に『最後』の出来事になってしまう可能性もある」
イーロン・マスク「人工知能は悪魔を呼び出すようなもの」
ビル・ゲイツ「これは確かに不安を招く問題だ。
よくコントロールできれば、ロボットは人間に幸福をもたらせる。 しかし、数年後、ロボットの知能は充分に発展すれば、必ず人間の心配事になる」
人権侵害
MITのローレン・R・グレアム
教授は莫大な資金力と人権の弾圧を併せ持つ中華人民共和国が人工知能の開発競争で成功すれば民主的な国家が技術革新に優位という既成概念が変わると述べ、「ディープラーニングの父」の一人と呼ばれている
ヨシュア・ベンジオ は中国が市民の監視や政治目的で人工知能を利用していることに警鐘を鳴らしており
、海外の人権団体やメディアなどは中国に代表される人工知能で人権を抑圧する政治体制を「デジタル権威主義」
「デジタル独裁」「デジタル警察国家」
「デジタル全体主義」「AI独裁」と呼んだ。中国ではヘルメットや帽子に埋め込んだセンサーから国民の脳波と感情を人工知能で監視する政府支援のプロジェクトが推し進められ
、ネット検閲
と官僚や刑務所の囚人から横断歩道の歩行者まで監視を人工知能に行わせ、監視カメラと警察のサングラス型スマートグラスやロボットに顔認識システム(天網)を搭載するなど人工知能による監視社会・管理社会化が行われている。新疆ウイグル自治区では監視カメラや携帯電話などから収集した個人情報を人工知能で解析するプレディクティブ・ポリシング
や人種プロファイリング
で選別した少数民族のウイグル族を法的手続きを経ずに2017年6月時点で約1万5千人もテロや犯罪を犯す可能性があるとして新疆ウイグル再教育キャンプに予防拘禁しているとする中国政府の内部文書である
チャイナ・ケーブル が報じられており、
AIを使った政府による特定の民族の選別やコンピュータが人間を強制収容所に送る 人権侵害は前例がないとして国際問題になっている
。香港では、中国本土と同様の人工知能による監視社会化を恐れ、2019年香港民主化デモが起きた際は監視カメラを搭載したスマート街灯が市民に次々と破壊された。中国はAI監視技術を中東・アジア・アフリカなど世界各国に輸出しており
、国際連合の専門機関である国際電気通信連合(ITU)を通じて中国がAI監視技術の国際標準化も主導してることから
中国のような人権侵害が世界に拡散 することが人権団体などから懸念されている
。
中国の社会信用システムに代表されるような、人工知能でビッグデータを活用して人々の適性を決める制度は、社会階層間の格差を固定化することに繋がるとする懸念があり
、欧州連合では2018年5月から、人工知能のビッグデータ分析のみによる、雇用や融資での差別を認めないEU一般データ保護規則が施行された。
マサチューセッツ工科大学が顔認識システムの精度でMicrosoftと中国のMegviiは9割超でIBMは8割に達したのに対してAmazonは6割で人種差別的なバイアスがあるとする研究を発表した際はAmazonと論争になった。
軍事利用 (詳細は「自律型致死兵器システム」および「en:Lethal autonomous weapon」を参照)
主要国の軍隊は、ミサイル防衛の分野での自動化を試みている。アメリカ海軍は完全自動の防空システム「ファランクスCIWS」を導入しガトリング砲により対艦ミサイルを破壊できる。イスラエル軍は対空迎撃ミサイルシステム「アイアンドーム」を所有し、ガザ地区との境界線には標的を自動検知するガーディアムやサムソン
RCWSを稼働させて複数の人間を射殺している。今後AIは新しい軍事能力を生み、軍の指揮、訓練、部隊の展開を変え、戦争を一変させその変化は大国間の軍事バランスを決めることになるとの主張もある。P-1
(哨戒機)のように戦闘指揮システムに支援用に搭載されることもある。
2016年6月、米シンシナティ大学の研究チームが開発した「ALPHA」は、元米軍パイロットとの模擬空戦で一方的に勝利したと発表された。
AIプログラムは遺伝的アルゴリズムとファジィ制御を使用しており、アルゴリズムの動作に高い処理能力は必要とせず 、Raspberry Pi上で動作可能
。アメリカ合衆国国防総省は、人道上の観点から人間の判断を介さない自律殺傷兵器の開発禁止令を2012年に出し、2017年にはこれを恒久的なものにした
。
人工知能に人間が勝ち残る力として、OODAループが注目されている。
一部の科学者やハイテク企業の首脳らは、AIの軍事利用により世界の不安定化は加速すると主張している。2015年にブエノスアイレスで開催された人工知能国際合同会議で、スティーブン・ホーキング、アメリカ宇宙ベンチャー企業のスペースX創業者のイーロン・マスク、アップル社の共同創業者のスティーブ・ウォズニアックら、科学者と企業家らにより公開書簡が出されたが、そこには
自動操縦による無人爆撃機や銃火器を操る人型ロボットなどAI搭載型兵器は、火薬、核兵器に続く第3の革命 ととらえられ、うち一部は数年以内に実用可能となると予測。国家の不安定化、暗殺、抑圧、特定の民族への選別攻撃などに利用され、兵器の開発競争が人類にとって有益なものとはならないと記された。同年4月にはハーバード大学ロースクールと国際人権団体であるヒューマン・ライツ・ウォッチが、自動操縦型武器の禁止を求めている
。2017年11月には国際連合でAIの軍事利用に関する初の公式専門家会議が行われ、2019年8月に同会議はAI兵器の運用をめぐる事実上初の国際ルールを採択するも法的拘束力は盛り込まれなかった。
東西対立
新冷戦や米中冷戦の状態にあるとも評されている米国・中国・ロシアは核開発に匹敵する開発競争を人工知能の軍事利用をめぐって行っている
。中国は2017年6月に119機の
ドローン 群の自律飛行実験で前年2016年に103機の飛行実験に成功した米軍の記録を更新して翌2018年5月には北米の都市を爆撃するCGの映像も発表し、
同年6月には56隻の自律無人艇を使った世界最大規模の試験 を行うなどAIの軍事利用の技術(特にスウォームと呼ばれる大量の徘徊型兵器などの自律兵器の統合運用)で中国が急速に進展 しており、アメリカに追い付く可能性があることについて懸念しアメリカ側では将来に備える必要があるとの主張もされている。中国の軍用AI開発はアメリカの軍部や政界に危機感を与え、2019年3月にジョセフ・ダンフォード統合参謀本部議長やパトリック・シャナハン国防長官代行、ドナルド・トランプ大統領は中国でのAI研究拠点の設立などで中国人民解放軍に協力しているとGoogleを非難し、GoogleのCEOサンダー・ピチャイはダンフォードやトランプ大統領と面談して中国のAI研究拠点の成果は中国に限らず全ての人々に開放されていると釈明する事態になった。アメリカではGoogleが米軍のAIの軍事利用に協力する
極秘計画「メイヴン計画」 を行っていたことがGoogleの社員に暴露されており
、2018年12月のアメリカ議会の公聴会では、同様に暴露された中国政府に協力する秘密計画「
ドラゴンフライ計画 」とともに、人工知能を用いた兵器開発や人権侵害は拒否するとGoogleが誓った同年6月の人工知能開発6原則との整合性で追及を受けた
。中国軍の戦闘機J-20の標的選択支援アルゴリズムにグーグルのAI研究者が関わったと報道された際は「AIではなく、統計学的なモデリング」と否定した。また、Microsoftが中国軍の教育機関とAIの共同研究を発表した際も同様に波紋を呼んだ。2019年11月にマーク・エスパー国防長官は中国がAIによって新しい監視国家を構築しているだけでなく、中東で翼竜や彩虹など無人攻撃機を大量に拡散させて
AIで自律的に攻撃するドローン兵器も販売していることに警鐘を鳴らした。
ロシアと中国は既に実用化してるとされるハッキングの自動化の他
、特定の個人を攻撃したりディープフェイクでなりすましたり、ボット投稿により世論を操る等の懸念が挙げられている。
哲学とAI
哲学・宗教・芸術
Googleは2019年3月、人工知能プロジェクトを倫理面で指導するために哲学者・政策立案者・経済学者・テクノロジスト等で構成される、AI倫理委員会を設置すると発表した。しかし倫理委員会には反科学・反マイノリティ・地球温暖化懐疑論等を支持する人物も含まれており、Google社員らは解任を要請した。4月4日、Googleは倫理委員会が「期待どおりに機能できないことが判明した」という理由で、委員会の解散を発表した。
東洋哲学をAIに吸収させるという三宅陽一郎のテーマに応じて、井口尊仁は「鳥居(TORII)」という自分のプロジェクトを挙げ、「われわれはアニミズムで、あらゆるものに霊的存在を見いだす文化があります」と三宅および立石従寛に語る。アニミズム的人工知能論は現代アートや、「禅の悟りをどうやってAIにやらせるか」を論じた三宅の『人工知能のための哲学塾
東洋哲学篇』にも通じている。
元Googleエンジニアのアンソニー゠レバンドウスキーは2017年、AIを神とする宗教団体「Way of the Future (未来の道)」を創立している。団体の使命は「人工知能(AI)に基づいたGodheadの実現を促進し開発すること、そしてGodheadの理解と崇拝を通して社会をより良くすることに貢献すること」と抽象的に表現されており、多くの海外メディアはSF映画や歴史などと関連付けて報道した。UberとGoogleのWaymoは、レバンドウスキーが自動運転に関する機密情報を盗用したことを訴え裁判を行っている一方、レバンドウスキーはUberの元CEO(トラビス゠カラニック)に対し「ボットひとつずつ、我々は世界を征服するんだ」と発言するなど、野心的な振る舞いを示している。
相愛大学人文学部教授の釈徹宗は「哲学や思想や文学と、宗教や霊性論との線引きも不明瞭になってきています。」と述べている。哲学者・倫理学者である内田樹によれば、「本物の哲学者はみんな死者と幽霊と異界の話をしている。」という。
発明家レイ・カーツワイルが言うには、哲学者ジョン・サールが提起した強いAIと弱いAIの論争は、AIの哲学議論でホットな話題である。哲学者ジョン・サールおよびダニエル・デネットによると、サールの「中国語の部屋」やネド・ブロックらの「中国脳」といった機能主義に批判的な思考実験は、真の意識が形式論理システムによって実現できないと主張している。
批判
『科学を語るとはどういうことか』において科学者の須藤靖は、科学についての哲学的考察(科学哲学)が、実際には科学と「断絶」していることを指摘している
。また、「心」や「意識」という問題を解明してきた脳科学・計算機科学(コンピュータ科学)・人工知能研究開発等に関連して、科学者のフランシス・クリックは「哲学者たちは2000年という長い間、ほとんど何も成果を残してこなかった」と批判している。こうした観点において、哲学は「二流どころか三流」の学問・科学に過ぎない、と評価されている。脳科学者の澤口俊之は、クリックに賛同し「これは私のため息まじりの愚痴になるが、哲学者や思想家というのはつくづく『暇』だと思う」と述べている。実際、哲学は暇(スコレー)から始まったとアリストテレスが伝えており、上記のような否定的発言も的外れではないと、科学哲学者の野家啓一は言う。
哲学者は、科学とは違う日常的言語で「存在」や「宇宙」を語ろうとしてきた。しかし理論物理学者ディラックは、哲学者をことさら信用していなかった。ディラックが見たところ、ウィトゲンシュタインを含め哲学者たちは量子力学どころか、パスカル以降の「確率」の概念さえ理解していない。非科学的な日常的言語をいくら使っても、正確な意思疎通を行うことはできないというのが、ディラックの考えだとされている。
生命情報科学者・神経科学者の合原一幸編著『人工知能はこうして創られる』によれば、AIの急激な発展に伴って「技術的特異点、シンギュラリティ」の思想や哲学が一部で論じられているが、特異点と言っても「数学」的な話ではない。前掲書は「そもそもシンギュラリティと関係した議論における『人間の脳を超える』という言明自体がうまく定義できていない」と記している。確かに、脳を「デジタル情報処理システム」として捉える観点から見れば、シンギュラリティは起こり得るかもしれない。しかし実際の脳はそのような単純なシステムではなく、デジタルとアナログが融合した「ハイブリッド系」であることが、脳神経科学の観察結果で示されている。前掲書によると、神経膜では様々な「ノイズ」が存在し、このノイズ付きのアナログ量によって脳内のニューロンの「カオス」が生み出されているため、このような状況をデジタルで記述することは「極めて困難」と考えられている。
数学者の田中一之は「一般の哲学者は、論理の専門家ではない」と述べており,計算機科学者(コンピュータ科学者)・電子工学者のトルケル゠フランセーンは、哲学者たちによる数学的な言及の多くが「ひどい誤解や自由連想に基づいている」と批判している。田中によると、ゲーデルの不完全性定理について哲学者が書いた本が、フランセーンの本と同じ頃に書店販売されていたが、哲学者の本は専門誌によって酷評された。その本は全体として読みやすく一般読者からの評判は高かったが、ゲーデルの証明の核(不動点定理)について、根本的な勘違いをしたまま説明していた。同様の間違いは他の入門書などにも見られる。フランセーンによれば、不完全性定理に関する誤解・誤用は哲学をはじめ一般に起こっており、宗教や神学でも乱用されている。1931年にゲーデルが示したのは、「特定の形式体系
において決定不能な命題の存在」であり、一般的な意味での「不完全性」についての定理ではない。
-詳細は「不完全性定理#誤解(哲学等による誤解・誤用)」を参照-
科学と哲学
『科学を語るとはどういうことか』によると、学問の扱う問題が整理され分化したことで、科学と哲学もそれぞれ異なる問題を研究するようになった。これは「研究分野の細分化そのもの」であり、「立派な進歩」だと宇宙物理学者の須藤は言う。一方で、科学哲学者・倫理学者の伊勢田哲治は、様々な要素を含んだ「大きな」問題を哲学的・統一的に扱う、かつての天文学について言及した。「その後の天文学ではその〔哲学的〕問題を扱わなくなりましたし、今の物理学でもそういう問題を扱わない」と述べた伊勢田に対し、須藤は「その通りですが、それ自体に何か問題があるのでしょうか」と返している。須藤は次のようにも述べた。
「科学哲学と科学の断絶」
私は科学哲学が物理学者に対して何らかの助言をしたなどということは聞いたことがないし、おそらく科学哲学と一般の科学者はほとんど没交渉であると言って差し支えない状況なのであろう。…
科学哲学者と科学者の価値観の溝が深いことは確実だ。二〇世紀が生んだ最も偉大な物理学者の一人であるリチャード・ファインマンが述べたとされる有名な言葉に「科学哲学は鳥類学者が鳥の役に立つ程度にしか科学者の役に立たない」がある。…
かつて私がこの言葉を引用した講演をした際に、「鳥類学は鳥のためにやっているわけでないし、科学哲学もまた科学のために存在するのではない」という反論をもらったことがある。確かに、科学哲学が科学のためのものである必要は無い。科学哲学が、この方法論が果たして正しいのであろうかと立ち止まって悩んでいる間に、科学は常に前に踏み出しています。それでいいではないですか。
科学哲学者が横からいろいろ言うけれども、科学者からは「耳を傾けるべき重要な指摘だろうか」と首を傾げることばかり(たぶん、科学哲学者の皆さんから袋叩きに遭うでしょうが)というのが、正直な印象です。
須藤は、哲学的に論じられている「原因」という言葉を取り上げて、「原因という言葉を具体的に定義しない限りそれ以上の議論は不可能です」と述べており、「哲学者が興味を持っている因果の定義が物理学者とは違うことは確かでしょう」としている。伊勢田は、「思った以上に物理学者と哲学者のものの見え方の違いというのは大きいのかもしれません」と述べている
。
対談で須藤は「これまでけっこう長時間議論を行ってきました。おかげで、意見の違いは明らかになったとは思いますが、果たして何か決着がつくのでしょうか?」と発言し、伊勢田は「決着はつかないでしょうね」と答えている
2019.10.14-Yahoo!!Japanニュース-https://news.yahoo.co.jp/byline/satohitoshi/20191014-00146611/
アレン元米軍司令官、AIの戦争での活用「アメリカがリーダーシップをとっていくべきだ」
米軍のジョン・アレン(John Allen)元司令官が2019年10月にプリンストン大学で講演を行い、戦争でのAI(人工知能)の間違った活用による武力紛争勃発について警鐘を鳴らした。アレン氏はプリンストン大学のコンピュータサイエンス・公共政策学の教授のエドワード・フェルトン(Edward Felten)氏とともに登壇。
「技術に完全に支配されていくことの危険性を把握しておくべき」
アレン氏は「AI技術の発展と進化は大きなチャンスでもあるが、我々の想像を絶するような大規模な破壊をもたらす可能性もありうるし、そのことを一番懸念している」と語った。続けて「戦争は常に、人間と技術のバランスを維持してきた。軍はいつも、新たに開発された技術を先に利用してきた、いわゆるアーリーアダプターだ。AIの軍事分野での活用によって、大きな利便性をもたらしたことは言うまでもないし、これからも軍事分野でのロジスティックの効率化、機器のメンテナンス、諜報活動(インテリジェンス)、敵の標的のセンサーや情報収集の分野などでAIの活用は進んでいくことは明白だ。しかし、技術の発展が人間の能力をはるかに超えてしまうことと、技術に完全に支配されていくことの危険性を把握しておく必要がある」と語った。
「新しい技術を軍事に活用する時には、コミットメントと倫理観が必要」
AIの軍事分野での活用は進められているが、その一方でキラーロボットの開発が懸念されている。キラーロボットとは自律型殺傷兵器(Lethal Autonomous Weapons Systems:LAWS)のことで、人間の判断を介さないでロボット自身が攻撃を仕掛けてくる。人間の判断を介さないことからロボットが暴走して残虐な攻撃、殺戮に繋がるのではないかといった懸念や、ロボットが人間を殺害するという倫理的な観点からキラーロボットの開発が懸念されている。
「AIを活用した致死的な技術によって戦場において、不適切に人を殺害することがより簡単になる。攻撃する際に必要なのは標的を識別して、人間自身が判断することだ。アメリカ軍は武力の行使と軍事的行動において、これまで以上に倫理的な観点での考慮が求められるようになる。特に人間による攻撃の判断と介入が必要で重要になる。標的の攻撃が正しいことかどうかの判断が必要になる。本物の攻撃の標的なのかどうかの識別が必要になってくる。例えば、軍人なのか市民なのかどうかといった識別をしてからの攻撃だ。攻撃の判断にはミッションの目的と明確化が必要になってくる」と語った。
「AIの開発は止められない。ドローンの自律化も進んでくる。最終的には人間の判断と介入が、軍事攻撃のプロセスに入ることが重要だ。あらゆるアメリカ軍の軍人はAI技術だけでなく、あらゆる新しい技術を活用する時には、コミットメントと倫理観が必要になる。そのためには長い年月にわたっての教育とトレーニングが必要になる」とアレン氏は伝えた。
「AIの戦争活用についての議論はアメリカがリーダーシップをとるべきだ」
「アメリカだけでなくあらゆる国家は、AI技術を活用した軍事システムを単体で利用し、コントロールすることはできない。このようなAIの技術的進化と、そのコントロールについて全面的に禁止するのか、もしくは一部の機能だけは利用可能にするのか、といった議論を国際社会でしっかりとしていかないといけない。国際法を守らない国家や非国家アクターも常に存在するが、AI技術の軍事での間違った活用を最小限にするように民主主義国家で取り組んでいかないといけない」と強調した。また「自律システムにおけるAIの予測可能なアルゴリズムも国際人道法などで規制すべきだ」と語った。
アラン氏は「AIの戦争での活用についての国際社会での議論や規範形成の合意に向けてはアメリカがリーダーシップをとるべきだ。アメリカは他の国々と連携しながら、グローバル社会での人権に対する関与、民主主義のリーダーシップの関与を再び強めていかないといけない。我々アメリカならできる」ともコメント。
2019.5.1-読売新聞-https://www.yomiuri.co.jp/feature/quarterly/20190424-OYT8T50091/
AI兵器が「一線」を越えると……
人工知能(AI)とロボット技術が21世紀の戦闘を大きく変えようとしている。
兵士が安全な場所から無人機を遠隔操作して敵を攻撃 することが恒常化し、人間の意思が介在しないまま、人間を殺傷する兵器の実用化も現実味を帯びる。AI兵器が人を殺すという人類史上初の事態を未然に防ぐべく、規制を求める動きも出てきたがハードルは高い。
アラブ首長国連邦の首都アブダビで2月下旬に開催された軍装備見本市で、一際注目された「商品」があった。横幅1・22メートル、時速130キロのスピードで半時間は航行可能なうえ、重さ2・7キロの爆発物を運べるドローン「KUB-BLA(クブラ)」だ。AIが搭載された兵器である。
その性能をアピールする動画には、ほぼ無音のまま飛行する機体が、雪原であれ、砂漠であれ、
標的を発見すると同時に急降下して機体を衝突させ、爆破する様子が映る。「神風ドローン」と呼ばれるゆえん だ。 製造元は、かつて自動小銃AK47を世に送り出したロシアのカラシニコフ・グループ。売り文句は「操縦が簡単、標的を正確に攻撃可能、しかも安価。従来の空中戦のあり方を抜本的に変える製品」というものだ。
この見本市には、エストニアのミルレム社が開発した無人戦闘車両「Themis ADDER」も出品された。機関銃や偵察システムなどを搭載し、最大10時間、運用できる。近く、アフリカ西部マリに治安維持支援のため展開するフランス軍が使用する方向という。宣伝ビデオに登場した担当者は「これからの10年間、ロボット技術によって戦争の姿は大きく変わる」と胸を張った。
アブダビでは2018年に無人兵器の見本市も開催された。無人にも有人にも切り替えられるイタリア製の偵察用ヘリ、中国製の小型無人航空機、セルビア製の小型無人戦車や装甲車、各種の高性能ドローンがずらりと並んだ。主催者によると、無人兵器市場は成長著しく、17年には181億4000万ドル規模だったのが、25年には523億ドル規模に上るとみられるという。
無人兵器は人間が遠隔操作するが、AIを組み込めば、事前に入力したプログラムに従って、人間の操作や判断なしに作動するAI兵器となる。
21世紀と共に開発が本格化したAIとロボット技術を組み合わせたAI兵器は、火薬、核兵器に続く第3の革命的武器とも称される。ただでさえ、21世紀の紛争では戦闘領域がこれまでの陸・海・空に加え、宇宙とサイバー空間にも広がり、攻撃手段も、これまでの火薬や核などの物理的エネルギーのほか、電磁パルス(EMP)などの電子やコンピューターウイルスなど多様化している。
拓殖大学の佐藤丙午教授は「サイバーや電子攻撃でまず、敵の目となるレーダーなどをつぶして反撃力を奪う。しかる後に無人機を多用し、自軍は人的損失を被らない形で敵を攻撃する。これが今の戦争の形だ」と話す。
21世紀の戦争の形
21世紀の戦 「新しい戦争の形」は、2014年3月にロシアがウクライナ南部クリミアを併合した際に垣間見えた。
ロシアはまずはウクライナ軍のコンピューターなどにウイルスを仕込むサイバー攻撃を仕掛け、レーダーや迎撃ミサイルなど防衛システムの無力化を試みたとされる。続いて電子攻撃によりウクライナ軍の全地球測位システム(GPS)や通信網を遮断し、反撃能力をさらに封じ、その後、偵察用や攻撃用のドローンを使用 し、実際に兵力を投入する前に、一定の“戦果”をあげたとみられている。
ロシアは、シリア内戦に無人戦車や無人装甲車などのAI兵器を投入して、アサド政府軍を支援しているとの情報もある。
無人兵器とAI兵器の線引きは、開発国があえてあいまいにし、全容を明らかにすることを避けるため、はっきりしないことが多い。確実なのは、高高度や水中深い場所への配備が視野に入るなど、AI兵器の進歩が著しいことだ。その開発を巡る先端でしのぎを削るのが米国、ロシア、中国の3か国だ。
米国はオバマ前政権下の2016年10月、42会計年度までをにらむ長期的な「無人システム開発の工程表」を策定し、既存の兵器システムと無人兵器の統合を推進中だ。17会計年度の国防予算で見ても、無人システム関連は約42億ドルで、うちほぼ半額の約20億ドルが研究開発に向けられた。
トランプ政権も今年3月、20会計年度の国防予算案で宇宙やサイバー領域、AIなど先端技術分野への対応を加速させる姿勢を鮮明にした。研究開発費では、核ミサイルを搭載可能な巨大無人水上艦や無人潜水艦に37億ドル、AI関連に9億2700万ドル、極超音速兵器関連に26億ドル、無人機・自律型兵器関連に37億ドルなどを計上している。
米国がロシアの違反を理由に中距離核戦力(INF)全廃条約の破棄を通告したことを受け、対決姿勢を強めるロシアも負けてはいない。プーチン露大統領は17年9月に学生との対話集会で「AI分野でリーダーとなる国が、世界の支配者となる」と強調。今年2月の年次教書演説では、核を搭載可能な無人水中兵器「ポセイドン」の試射に成功したと誇らしげに語った。ポセイドンは水深1000メートルの海中でも使用可能で、仮に実戦配備されれば、ロシアは世界中の沿岸地域を核攻撃できる能力を持つことになる。
ただ、米国が最も神経をとがらせるのは中国の動向だ。
最近、注目されるAIと無人機を組み合わせた技術に「スウォーム(Swarm=群)制御」がある。大量のドローンが鳥の大群のように一斉に飛行し、レーダーをかいくぐり、標的をめがけて攻撃を遂行する。米軍は17年1月には103機の小型ドローンの一斉飛行に成功した。ところが、半年も
経 た たないうちに、119機の編隊に成功したのが中国だ。群れを構成するドローンの数が多ければ多いほど、敵の防衛網をすり抜ける確率は高まる。米中両国のスウォーム開発競争は空のみならず海上・海中でも進む。
米シンクタンク「新アメリカ安全保障センター」のエルサ・カニア非常勤シニアフェローは、「米国の技術的優位に、中国は数年遅れで追いつくという現状がある。だが中国軍は、これをAI兵器によってほぼ同時にするか、逆転できる可能性があると考えて重視している」と指摘する。カニア氏によると、中国軍の利点は民間部門での研究開発の進展をそのまま軍用に転換できる、軍民融合の動きだ。
佐藤教授は「中国は組織的にAI兵器の研究開発を進めているが、他国と比較しても実態が闇に包まれている」との懸念を示す。不透明さは、中国製無人機やAI兵器が海外にどのような形で流出しているかにもつきまとう。米国製よりも確実に安価な兵器は、すでにアフリカや中東などの紛争地で実戦使用されているとの見方もある。
AI兵器は、米中露のほかイスラエル、韓国、英国など10か国強が開発に取り組んでいる。AI兵器有数の研究家、米ニュー・スクール大学メディア研究学部准教授のピーター・アサロ氏は「各国とも機能を秘密扱いにし、“
全貌 ぜんぼう ”が見えないのが大きな問題だ」と透明化を求めている。
プラスとマイナス
ここでAI兵器の利点を改めて見てみよう。
高高度や水中では遠隔操作中の無人機との通信の維持に困難がつきまとう。ただでさえ、敵は妨害電波などを発し、通信の遮断を狙ってくる。AIが搭載された兵器であれば、仮に通信が途絶えても事前に組み込まれたプログラムに基づき、自律的に行動することが可能だ。
さらにAI搭載の機械の方が、人間よりも精確な攻撃が可能となる。
絨毯 じゅうたん 爆撃より、精密な誘導弾を使った攻撃の方が民間人を巻き込む確率は低いといえる。
敵を発見し、追尾し、狙いを定め、攻撃し、その結果を評価する―。軍事作戦における、これらのいずれの段階でも、処理されるべき情報量は増え、判断のスピードも求められる。AIは間違いなく人間より多くの情報を短時間で処理できるし、人間につきものの疲労や恐怖心、
逡巡 しゅんじゅん といった感情とも無縁だ。AI兵器は人間と違い、危険(dangerous)、汚い(dirty)、単調(dull)の「3D」を
厭 いと わない。
例えば、
イスラエルが配備するAI兵器にミサイル防衛システム 「アイアンドーム 」 がある。敵からのミサイル攻撃に際し、どの段階で、どのシステムから迎撃すれば味方への被害を最小限にして、最大限の効果を上げられるかをAIが判断する。 佐藤教授は「ミサイルを迎撃するスピードに、人間はついていけない。
AIは防衛型兵器に適している」 と評価する。
一方で、AI兵器には多くのマイナス点も指摘 される。
アサロ准教授は、
(1)政治家や指揮官にとって、戦争を始めるハードルが下がる
(2)技術が拡散し、世界が不安定化する
(3)そもそもAI兵器は予見性が低く、現状では不安定な兵器だ
―を挙げる。
無人のAI兵器ならば、自軍の兵士が戦死するリスクが軽減され、政治指導者にとって、戦争に踏み切るハードルは明らかに下がろう。しかも、例えば戦闘機と比べればAI搭載ドローンは安価で、戦費を抑えることにつながり得る。
また、技術の拡散は必然的な流れで、開発している諸国間で軍拡競争が激化することが想定される。AI兵器がテロ集団の手に落ちるリスクも出てこよう。
将棋や囲碁などではAIの能力向上につながった「深層学習(ディープラーニング)」が、戦場ではAI兵器の予測不可能性を増しかねない。ただでさえ予測のつかない事態が発生しがちな戦場で、AI兵器が人間の想像を超えた動きに出る可能性が高まるということだ。
佐藤教授は「AI兵器はまだまだ信頼性が高くないと言える。ただ、信頼できない兵器であっても、あえて使用したい国、テロ組織が出てきかねない点も問題だ」とも指摘する。
「ターミネーター」への一線
これまでのところ、AI兵器は「人間の介在(man in the loop)」が原則となっている。標的の発見、追尾、攻撃の成否評価はAI兵器が自律的に行うにしても、遠隔操作のカメラなどを通じて標的が正しいものかを判断し、
最終的に攻撃するかどうかを決定するのは、あくまで人間だ。
発見、追尾、ターゲット設定、攻撃、評価のうち、人間の殺傷に直結するターゲットの設定と攻撃をAIが自律的に行うようになれば、大きな一線を越える。これがAI兵器のあり方を抜本的に変える「シンギュラリティー(特異点)」だ。人間型のAI兵器が人間を殺す―。1984年の米ヒット映画「ターミネーター」の世界に通じる事態だ。
一線を越えた兵器は
「自律型致死性兵器システム(LAWS =発音はローズ、Lethal Autonomous Weapons System )」 と呼ばれる。俗称は「キラーロボット(殺人ロボット)」だ。
人を殺傷するための高度なAIと能力を有する人間型ロボットの「ターミネーター」まで行かなくとも、例えば、趣味用ドローンにAIと熱感知センサー、爆発物を搭載し、体温を発するものすべてを攻撃するようプログラムしたらどうなるか。あるいは、さらに技術が進み、顔認証機能と爆発物を搭載し、特定の人間を攻撃するようプログラムされた小型の昆虫型ドローンが多数、ばらまかれたらどうなるか。
今年2月末には、インドとパキスタンが領有権を争うカシミール地方で衝突が再燃した。両軍ともLAWSは所有しないし、軍事行動には人間の関与があった。だが、仮に国境紛争を抱える当事国どうしが国境警備にAI兵器を使うようになり、何らかのきっかけで衝突が起き、それが事前のプログラムに基づきエスカレートしていったらどうなるのか。
アサロ准教授は
「AI兵器が常に正しく戦闘員と民間人、軍事目標と民間施設を識別するとは限らない。 サイバー攻撃などでAIを乗っ取り、当初の標的ではない民間施設を攻撃するよう誘導することも可能だ。誰が攻撃を仕掛けて来たのかを判別するのも難しい」と問題提起する。
そもそも、人間の生死に関わる決定を機械に委ねるということ自体、根本的な倫理問題をはらむ。仮にLAWSが病院などを誤爆し、多数の非戦闘員が死亡した場合、その責任を負うのはAIの開発者なのか、使用した特定の個人や国なのか―といった未知の領域の法的問題も出てくる。
ロボットが人を殺ろさぬように
「人間の介在」は現時点では米国をはじめとする各国軍の基本で、LAWSの実戦配備を良しとする国はない。だが、ただでさえAI兵器の開発では、自動化と自律化の方向に流れがある。
そのような中、国際社会でもLAWS規制の是非について協議が始まっている。枠組みはジュネーブの国連欧州本部で開催される
特定通常兵器使用禁止制限条約(CCW) の締約国会議だ。
3月25~29日まで開催された最新の協議には90か国以上の政府専門家や民間活動団体(NGO)関係者が参加した。初日にはグテレス国連事務総長が、LAWSを「道義的に激しく問題があり、政治的にも受け入れ難い」と表現し、参加国に規制を早期に実現するよう強く促した。
オーストリアやブラジルなど、かねてより軍縮に熱心な諸国はLAWSの開発、所有、配備を禁止する国際条約作りに着手するよう提唱した。アフリカなどの多くの開発途上国も賛同した。
しかし、米国は「LAWSに関連する技術により、民間人への被害を大きく減らすことができるし、(攻撃に至る)人間の判断をより正確にすることができる」と主張。LAWSから派生する問題は「既存の人道法でカバーされている」として、条約作りに反対する立場を明確にした。ロシア、イスラエル、英国、豪州もこれに同調した。
日本政府はLAWSを開発することはないとの立場を明言した上、まずはCCW参加国の共通認識をまとめるような成果文書作りを目指すことを提唱した。規制推進派、反対派の溝が深いことを念頭にした妥協策だった。
結局、双方の溝は3月会合で狭まるどころかむしろ鮮明化し、次回8月に予定される会合でも規制の方向性が定まる見通しは低いといえる。
CCWでは2014年来、LAWSに関する非公式政府専門家会合が開かれている。これが2017年11月に公式会合に格上げされ、今回が4回目の会議だった。これに先立ち、国際的な人権団体などNGOはLAWSの開発禁止を求め、各国や国連に働きかけていた。
AI兵器に転用され得る民間部門の技術開発は今後、その国の国力を左右する潜在力を持つ。各国とも最大限のフリーハンドを維持したいというのが本音だろう。LAWSの前段となるAI兵器を開発中の国ほど、規制への忌避感が強い。規制に明確に賛成しているのは、いずれもAI兵器を開発しておらず、LAWSを所有する可能性がゼロに近い国ばかりだ。
CCWの意思決定はコンセンサス(全会一致)が原則だ。裏を返せば、参加する125か国すべてが事実上の拒否権を持つことになり、合意のハードルは高い。最近の軍縮条約としては、やはり有志国や国際NGOが主導してまとまった核兵器禁止条約(2017年採択、未発効)があるが、核保有国はいずれも関与を拒否している。「持てる国」が参加しない軍縮条約には実効性の欠如がつきまとう。
アサロ准教授は、LAWSに反対する国際NGO「キラー・ロボットキャンペーン」の有力メンバーでもあるが、「我々はAIの軍事利用そのものに反対しているわけではない。例えば地雷除去や前線での負傷兵救出など、人間に役立つ技術もある。化学兵器は悪だが、人間の暮らしに役立つ化学製品があるのと同じことだ」と話す。
米国が主張するようにLAWSが既存の国際人道法によって、すでに規制されているとの見方も一部にはある。例えば、ジュネーブ諸条約追加議定書第36条は、新兵器の開発にあたっては締約国が国際法の諸規則で禁止されているか否かを決定する義務を持つ―と定めている。同48条は文民と戦闘員、民間施設と軍事目標を常に区別することを定める。AI兵器は、いずれにも抵触する可能性はある。
「ただ、
ジュネーブ諸条約はそもそも、機械が人を殺したり、意思決定したりする事態を想定していない 。新しい時代の新型兵器については、新たな規範、条約が望ましい」とアサロ准教授は強調する。
日本でLAWS規制の必要性を提唱する立教大学の長 有紀枝教授(NGO「難民を助ける会」理事長)は「LAWSは20~30年後、早ければ数年後に実用化される可能性がある」と強調。「仮に核兵器が事前に禁止されていたら、広島・長崎の被害はなかったかもしれない。実際に開発され、実戦配備されてからでは遅い。そこで生じる可能性がある人道的な被害を勘案すれば、今、できることは積極的に進めるべきだ」と警鐘を鳴らす。
2018.6.15-The Liberty Web-https://the-liberty.com/article.php?item_id=14556
未来の戦争では、AIが指揮し、3Dプリンターで兵器を成長させる!?
《本記事のポイント》
サイバー攻撃は、犯罪か軍事攻撃かさえ分からない
"AI参謀"に誰も勝てなくなる!?
3DプリンターがAIと組み合わされた時……
技術革新によって、戦争のあり方が、人類史の中でも稀に見る変化を遂げようとしている。そこに、日本の自衛隊はついていけるのか。元航空自衛官であり、現在はハッピー・サイエンス・ユニバーシティ(HSU)の未来創造学部で、軍事学や国際政治学を教える河田成治氏に話を聞いた。
人類の歴史を紐解くと、「戦争のあり方が、ある段階で飛躍的に変化した」というタイミングが、何度か訪れています。それは、火薬や核などの技術開発による革新だったり、戦略思想の革新だったりします。
そして今、戦争の世界に、それに相当するビッグイノベーションが起きつつあります。
信号、空港、病院……サイバー攻撃は生活全てを狙う
その代表例が、最近よく耳にするようになった「サイバー戦争」です。サイバー空間は今や、「第五の戦場」と言われるようになっています。
「サイバー」といっても、ピンと来ない人もいるかもしれません。
しかし、もし信号のネットワークが破壊されて、動かなくなったらどうなるか、想像してみてください。
また、空港の管制塔と、着陸しようとしている飛行機との通信が切れたらどうなるでしょうか。空港では1~2分の間隔で、飛行機が着陸します。その"交通整理"が消えれば、飛行機は着陸できなくなります。しかし燃料にも限りがあります。下手をすれば、大事故にもつながりかねません。
昨年、「ランサムウェア」というウィルスが、世界中に感染して大問題になりました。このウィルスが最初に襲ったのは、イギリスの病院にあるコンピューターだと言われています。大勢の入院している患者さんたちの体調を管理できなくなり、大混乱に陥りました。
私たちがお金を預ける銀行のネットワークも、攻撃対象です。2015年に発表されたアンケートによると、日本の金融機関の50%は、何らかのサイバー攻撃を経験しています。 つまり、"私たちの生活全て"がサイバー攻撃の対象となるのです。
サイバー攻撃は、犯罪か軍事攻撃かさえ分からない
しかしこのサイバー攻撃には、容易に防衛できない特徴があります。それは、攻撃元が特定しにくいということです。
サイバー攻撃は、コンピューター上においてワンクリックで仕掛けられます。その攻撃は、光の速さの0.3秒で地球を約二周しますが、攻撃元を特定するには、数カ月かかります。
つまり、攻撃を仕掛けられた時点で反撃するのは、事実上不可能なのです。そうなると、軍事学の原則であった「抑止力」が成り立つのかどうか、分からなくなります。それどころか、犯罪なのか、国による軍事攻撃なのかさえ分かりません。多くの国の法体制においては、警察が対処すべきか、軍が対処すべきかの区分が難しく、さらに対策が遅れる可能性があるのです。
日本は「専守防衛」を謳っています。しかし、その概念が意味を成すのかという、根源的な問題にもぶち当たります。
また、今の日本において、サイバー攻撃に対応する法律は警察法規しかありません。自衛権の行使の要件としての「武力攻撃」としても認定されていません。「サイバー防衛隊」がつくられたと報じられていますが、それはあくまで、自衛隊組織をサイバー攻撃から守るための部隊に過ぎません。
しかしこれからの戦争は、まずサイバー空間による奇襲攻撃から始まる可能性が非常に高いです。中国は実際に、サイバー攻撃を経てから、物理的な攻撃を行う訓練を行っています。
迅速な対応が求められる分野なのです。
"AI参謀"に誰も勝てなくなる!?
次に大きな革新をもたらすのは、AI(人工知能)です。
世界の大国は、「AIこそが覇権を左右する」とはっきり認識しているのです。アメリカのマティス国防長官は、AIこそ、今後、アメリカが優位に立ち続けるための柱と語っています。中国の国務院も、2030年までに「AIのフロントランナー」を目指す戦略を立てています。ロシアのプーチン大統領も、「AIの分野でリーダーにある者が世界の統治者になる」と語っています。
軍事の世界におけるAIには、「静止オートノミー」といういわば「参謀機能」を持つものと、「運動オートノミー」というAIを搭載したロボットが実際に攻撃を仕掛けるものの2種類があります。
「静止オートノミー」は、いわば参謀機能を果たします。
例えばアメリカは今、世界中に多数の無人偵察機を飛ばし、大量の情報を集めています。特に、「グローバルホーク」という偵察機は、地上にあるゴルフボール大のものまで認識することができます。こうした偵察機によってアメリカは、毎日、米連邦図書館全蔵書の2倍のデータを収集しているのです。これらを人間が分析することは、ほぼ不可能です。
しかし、もし、これほどの情報をAIに高速で分析させたなら、米軍にはどのような力が手に入るでしょうか。さらにそこに併せて、人工偵察衛星、SNS、監視カメラなど、あらゆる情報を集め、AIに分析させればどうなるでしょうか。
AIが軍の参謀として、陸・海・空・サイバー・宇宙のあらゆる領域の情報から「どこで何が起きているのか」を瞬時に把握し、瞬時に作戦の提案ができるようになれば……。敵よりもはるかに早く、質の高い意思決定ができるようになるのです。そうなれば、軍事的な優位は、格段に違ってくるでしょう。
戦争は複雑化し、人間頭脳の限界を超える!?
特に米軍は、陸・海・空・宇宙・サイバー・電子の6つのドメイン(領域)で、同時多発、かつクロスオーバーして戦闘が進むことを前提とした「マルチ・ドメイン・バトル構想」というものを進めています。
中でも米国のインド太平洋軍(旧・太平洋軍)は、率先して取り組む予定で、今年のリムパック2018では、この状況下での訓練になると伝わっています。
これは極めて複雑な作戦なので、人間の頭脳の限界を超えることが予想されます。作戦立案どころか、「戦況の可視化」さえも困難になる可能性も高く、現況が勝利の手前にあるのか、敗北の瀬戸際なのかも判断がつきにくいことが予想されています。そのため、AIへの期待が高まっているのです。
「AIが指揮官に助言をする時代」に、日本のAI技術が米軍にキャッチアップできていなければ、日米共同作戦の指揮命令において、自衛隊の行動にも米軍が口出しするなど、事実上の米軍の配下に置かれてしまうような事態も想定されます。
また、上に紹介した「サイバー攻撃」にもAIは絡んできます。もしサイバー攻撃を受けた瞬間に、AIがIT機器の異常を察知し、自立的に防御・修復できれば、被害は少なく済みます。つまり、どちらの国が性能の高いAIを持つかによって、サイバー攻撃の趨勢も左右されてしまうのです。
次に、「運動オートノミー」の例です。ターミネーターのような戦闘ロボットもいずれ出てくるでしょうが、現時点で兵器化され得るのは、例えばAIを搭載したドローン兵器です。殺害したい相手の顔を入力すれば、勝手に顔を認証し、自動追跡して攻撃に向かう時代も近いうちに来るでしょう。
こうした「自律的致死兵器システム(LAWS)」は、火薬や核兵器に続く「戦争の第三の革命」と予想されています。
3DプリンターがAIと組み合わされた時……
さて、次は3Dプリンターです。
同技術の進歩もめざましく、コンクリート製の一軒家を、たった1日で、100万円ほどのコストで、そして人間が造るよりも高い強度でつくることもできるようになっています。
また、最新機「ボーイング777X」という史上最大のジェット機のエンジンに使用されるノズルは、3Dプリンターでつくられます。今までの金属製品とは異なり、鋳型をつくる必要がありません。また、即座に修正や改善を反映させることができるのです。さらに、アメリカのF-35も、45個もの部品を3Dプリンターでつくっています。
3Dプリンターでつくる部品は、経費が安く、迅速で、どこにでもつくることができ、輸送時間も大幅に短縮できるため、極めて軍事に向いています。
戦場で兵器が壊れた際には、本国から部品の輸送を待つことなく、必要な部品を自動で製造できます。中には、敵地に飛行中の航空機内において、3Dプリンターによってミサイルを生産し、発射させるという計画まであります。
この技術が軍事において最も威力を発揮するのは、AIと組み合わされた時です。実戦を経れば経るほど、自己学習して、部品・兵器の精度・性能を上げることができるのです。戦争中、兵器が勝手に進化し続けるのです。
この技術において、今、最も先頭を走っているのは中国だと言われています。
しかし、安く、そして速く兵器を調達する仕組みが最も必要なのは、軍事費も少なく、昔から兵站思想が弱い日本ではないでしょうか。現在、ミサイル防衛強化などの議論がされていますが、さらに一歩も二歩も先の議論をしなければ、この国をますます危機にさらすことになってしまうでしょう。
2017.9.10-WIRED-https://wired.jp/2017/09/10/ai-could-revolutionize-war/
人工知能は「第2の核兵器」になるかもしれない──「自動化された戦争」を避けるためにすべきこと
急速に進化した人工知能(AI)の軍事利用が現実になろうとしている。核よりも容易に拡散するかもしれないこうした技術については、国際的に管理する仕組みが必要という提言もある。
1899年、世界の列強はオランダのハーグで、航空機の軍事利用を禁止する条約を採択した。当時の新技術だった航空機の破壊力を恐れてのことだった。5年後にモラトリアムの期限が切れ、間もなく航空機は第一次世界大戦の大量殺戮(さつりく)を招いた。
ワシントンにある無党派シンクタンク「新アメリカ安全保障センター(CNAS)」のフェロー、グレッグ・アレンは「そのあまりの強力さがゆえに人々を魅了してしまう技術は確かに存在します」と話す。「人工知能(AI)もそのような技術のひとつであり、世界中の軍隊が基本的には同じ結論に達しています」
アレンらは2017年7月、AIなどの最新技術が国家安全保障に及ぼす影響について、132ページにわたる報告書[PDFファイル]にまとめた。報告書はひとつの結論として、自律ロボットのような技術が戦争や国際関係に及ぼす影響は、核兵器のそれと同等だと述べている。
報告書の発行元はハーヴァード大学ベルファー科学国際情勢センターで、米国家情報長官直轄の研究機関「インテリジェンス高等研究計画活動(IARPA)」の依頼を受けて作成された。鳥のように機敏なドローン、ロボットハッカー、リアルなニセ動画をつくり出すソフトウェアなどの技術が、なぜ米軍とそのライヴァルに強大な力を与えるかを詳述している。
これらの新技術は、米国をはじめとする国々に、倫理、政治、外交上の難しい判断を迫る可能性がある。最新技術を用いて新しい兵器を開発することと、その用途の許容範囲を判断することは、まったく別の問題だ。報告書は米国政府に対し、国際条約によって制限すべきAIの軍事用途について検討すべきだと提言している。
AIで生まれる新たな世界秩序
米軍は以前から、さまざまな種類のAIに投資し、テストを行い、配備までこぎ着けている。連邦議会も2001年、地上戦闘車両の3分の1を15年までに無人化するよう命じている。
この目標は達成されなかった。しかし、AIはここ数年で急速に進化し、グーグルやアマゾンといった企業を活気づかせているため、軍事分野でも前例のない勢いでイノヴェイションが生まれるはずだと報告書は予想している。「たとえAIの基礎研究と開発が突然、いますべて止まったとしても、あと5~10年は応用研究ができます」とアレンは話す。
現在の米国では官民そろってAIに巨額の投資が行われている。そのため短期的に見れば、AIは米国が世界の軍事大国としての地位を固める新たな手段になると報告書は指摘している。
例えば、ロボットがもっと賢く素速く動くようになり、陸軍や空軍を支援したり、一緒に働いたりできるようになるだろう。そうすれば、イラクやアフガニスタンでの軍事作戦に欠かせない、ドローンや無人戦車に乗せることができる。つまり、あらゆる作戦で、必要とされる兵士の数が少なくなるか、0になるということだ。
報告書はまた、米軍は近い将来、サイバー戦争における攻撃力と防御力を大幅に拡大できると予想している。敵のネットワークを探って標的にする作業や、偽の情報をつくる作業を自動化できるためだ。米国防高等研究計画局(DARPA)は16年夏、サイバー戦争の自動化テストとして、7つのロボットに互いを攻撃させ、同時に自身の不具合を修正させるコンテストを開催した。
AI関連技術の進歩は将来、国際的な力関係を揺るがす可能性もある。小さな国や組織が、米国のような大国を脅かしやすくなるためだ。核兵器の開発はかつてないほど容易になっているかもしれないが、必要な資源や技術、専門知識はまだ入手しやすいとは言えない。
一方、コードやデジタルデータは安く手に入る場合が多く、最終的に無料で拡散するものもある。マシンラーニングは広く利用されるようになり、画像認識や顔認識も、今では地元のサイエンスフェアに登場するまでになった。
報告書はさらに、ドローンによる配達、自律走行車といった技術のコモディティー化は非対称戦争の強力なツールになり得ると警告している。すでにイスラム過激派組織のISISは、民生用のクワッドコプターで敵軍に手りゅう弾を投下している。同様に、サイバー戦争の自動化のために開発された技術が、ハッキングツールやサーヴィスを取引する闇市場に登場することも予想される。
世界一よりも協調が必要な「AI外交」
15年、研究者や科学者、マイクロソフトやグーグルなどの企業幹部3,000人以上が、当時のバラク・オバマ政権に対して、ロボット兵器の禁止を求める書簡を渡した。署名者のひとりであるアレン人工知能研究所のオーレン・エツィオーニCEOは、「誰かを殺すかどうか、いつ殺すかを判断する完全自律型のシステムを配備すると聞いたら、ほとんどの人がとても嫌な気持ちになると思います」と話す。
ただし、ひとつの国が配備を決断すれば、他国も気が変わる可能性があることをエツィオーニは認めている。「おそらく、より現実的なシナリオは、各国がそのようなシステムを保有し、使用に関する厳格な条約を順守することでしょう」
米国防省は12年、殺傷力の行使にかかわる決断は人が下さなければならないという暫定的な方針を定めた。そして17年5月、これを恒久的な方針に変更した[PDFファイル]。
今回の報告書は、AIの規制をめぐる国際的な合意について、米国家安全保障会議や国防総省、国務省はいますぐ検討を始めるべきだと提言している。AIが社会に与える影響を研究するオックスフォード大学のマイルズ・ブランデージは、AIを制する者が勝利を手にするという発想から抜け出すことができるのであれば、「AI外交」は効果的になりうると考えている。
「世界一になることを最重視すれば、安全や倫理といった概念が隅に追いやられてしまいます」とブランデージは話す。「われわれは歴史上のさまざまな軍備競争で、協調と対話が実を結ぶ例を目にしてきたはずです」
核保有国が数えるほどしかないという事実は、非常に強力な軍事技術が必ずしも魅力的ではないことを証明している。「国家は、“この技術は不要だ”と主張することができます。核兵器がそれを証明してくれています」と、新アメリカ安全保障センターのアレンも述べている。
しかしAIは、国家安全保障においてさまざまな可能性を秘めている。米国とその同盟国、敵国が自制を続けるには、おそらく相当な忍耐力を必要とするはずだ
2016.4.18-GigaZine-https://gigazine.net/news/20160418-drone-kill-list/
ドローンの「殺す対象リスト」に名前が載るというのはどんなことか当事者が語る
いわゆる「テロ組織」の撲滅に向けて、無人で空を飛んでミサイル攻撃を加えるドローン(無人航空機)が中東地域に多く投入されていると言われています。そんな「殺人ドローン」の標的としてリストに掲載されていたという男性がイギリスのラジオ番組に登場し、4度にわたるドローンによる攻撃の実態や、問題解決に向けた提案の声をあげています。
「
私はいわゆる『キル・リスト』に名前が載っています 」と語ったのは、パキスタン北西部の辺境でアフガニスタンとの国境沿いにある
ワズィーリスターン 地域在住のマリク・ジャラル(Malik Jalal)氏。イギリスを訪れたジャラル氏は、BBCラジオで自らの置かれた環境を語りました。
ジャラル氏は地域の平和を実現するための指導者による組織「北ワズィーリスターン平和委員会 (North Waziristan Peace Committee:
NWPC)」の指導者の1人。NWPCは現地のタリバンと権力者との衝突を避けることに取り組む、パキスタン政府公認の組織です。
「キル・リスト」は、アメリカ軍などが運用している無人航空機「プレデター・ドローン」の標的のリストであり、本来は非公表の情報。ジャラル氏は、その情報を誰から得たかは言えないものの、自分の名前がリストに含まれていて、これまでに4度にわたって狙われたことを明かしました。
最初の攻撃は2010年1月、自分の車を甥のサリムラ氏に貸し、タイヤチェックとオイル交換のために出かけていたときに発生したとのこと。その日は晴れで、上空でドローンが旋回している様子も見えていたそうです。サリムラ氏が車の中でメカニックと話をしているとき、後ろを走っていた自動車が攻撃を受けて突如爆発。車内に乗っていた現地の炭鉱作業員4人は全員死亡し、重傷を負ったサリムラ氏も31日間にわたって入院を強いられたとのこと。ジャラル氏の自動車を標的にした攻撃だったわけですが、実際には甥のサリムラ氏が乗っており、死亡した炭坑作業員はいずれも関係のない人物だったそうです。
2度目の攻撃は、2010年9月に発生。ジャラル氏は組織の長が集まる会議「ジルガ (Jirga)」に参加するために赤色のトヨタ・ハイラックスを運転していたのですが、同じ色でほとんど見分けのつかない自動車が40メートル後方を走っていたとのこと。すると、ある街にさしかかった瞬間、後方を走っていたその車が攻撃を受けて爆発。ジャラル氏はその場から逃げおおせましたが、攻撃を受けた車に乗っていた4人は即死だったそうです。
最初は「その車に乗っていたのは軍の関係者では?」と考えたジャラル氏でしたが、実際には現地に住む一般の住民だったことが判明。良く似た車が狙われたということで、ジャラル氏は自らがターゲットになっていることを意識するようになったとのこと。
そして3度目の攻撃が2010年10月6日に発生。友人のサリム・カーン氏から夕食の誘いを受けて現地に向かい、電話で到着を告げた直後、建物がミサイルの攻撃を受けたとのこと。ジャラル氏は攻撃を免れたとのことですが、子どもを含む3名が死亡。いずれも、過激派などの活動には無関係な人物ばかりだったそうです。
その4か月後の2011年3月27日、アメリカ軍のミサイルが、ジャラル氏も参加する予定になっていた会議「ジルガ」の会場を攻撃したとのこと。現地にいたジャラル氏の友人や一般市民が攻撃に巻き込まれ、40人以上が殺されるという事態になったそうです。
その日、ジャラル氏は後悔と怒りの念にさいなまれ、攻撃に対する報復を誓ったとのことですが、同時に、はたしてどのようにして行動に出ればいいのか分からなかったとのこと。地域の指導者であるジャラル氏ですが、人々を守るための手段が何もないことを痛感するに至ったそうです。
一連の攻撃の後、ジャラル氏は自動車を実際の目的地よりも離れた場所に停め、他の人が攻撃の巻き添えを受けないようにしたり、家族と離れて眠るようにしているとのこと。しかしある日、ジャラル氏の6歳の息子が、上空を飛ぶドローンの音が恐ろしくて眠れないために一緒に寝ようと近寄ってきました。ジャラル氏は「子どもはターゲットにならないから大丈夫だよ」となだめようとしたのですが、息子は「ドローンは子どもだって殺すよ」とジャラル氏の言葉を受け入れようとしなかったとのこと。この言葉を聞いたジャラル氏は、もう家族にこんな暮らしをさせるわけにはいかないと思うに至ったとのこと。
ジャラル氏は「アメリカ軍は私をドローン戦争の標的だと考えています。それはたしかに正解です。彼らはターゲットとなる人を選び、子どもを含む罪のない9人の命を奪うという、言葉に尽くせないほどの犯罪を犯しています。アメリカ軍の作戦は、事態を収めようとしている人を攻撃して過敏に反応させているという、愚かともいえる犯罪行為です」と、怒りの声をBBCの中で語っています。ジャラル氏はまた、「アメリカ軍などの軍隊は、NWPCはテロ行為の最前線であり、パキスタン・タリバンのための居場所を提供していると考えているようですが、それは誤りです。ワズィーリスターンに訪れたこともないのに、なぜそんなことが分かるのでしょう?」と、所属する組織とテロ行為との関連を否定しています。
そしてジャラル氏は、「西欧諸国が考える『テロリストとの交渉を行うべきではない』という考えは甘いといえます。これまで、話し合いなしにテロリストが矛を収めたことは皆無です。北アイルランドで活動していた
IRA (アイルランド共和軍)のことを思いだしてください。かつてはイギリスの首相を殺害しようとしましたが、現在では議会の一員であり、和平合意に達しています。このことからも、殺し合いではなく、話し合いが重要なことであると言えます」と語り、一方的に攻撃を加えるのではなく、テロの背景を含めた話し合いを行うことの重要性を語っています。
2014.5,20-GigaZine-https://gigazine.net/news/20140520-lethal-drones-of-the-future/
殺人無人機「キラードローン」の歴史と未来
Amazonはドローン(無人航空機)による配達の実現を目指しているなど、一般的にも使われるようになってきているドローンですが、もともとは軍事目的に開発されているもの。対戦車ミサイルなどで武装したドローンは
「殺人無人機(キラードローン)」 と呼ばれており、イラク戦争などで実戦に投入され、多くの民間人を巻き添えにしていることが報道されています。そんな殺人無人機の歴史と、開発が行われている新型ドローンについてNew
York Post
がまとめています。