最初に『人間VSテクノロジー:人は先端科学の暴走を止められるのか』という書名を見た時、うーんこれはどうだろうかと思ってスルーしかけたのだが試しに読んで正解だった。これはテクノロジーが急速に進歩し、議論が追いていかれてしまっている今こそ読むべき一冊である。
書名からスルーしかけたのは「テクノロジーは人間と対立的に語られるべきものではなく、もたらされるリスクと利益の間を常に天秤にかけながら語られるべきものである」という前提をすっ飛ばしているではないかと思ったからだ。たとえば自動車が存在することによって「自動車事故」というリスクは発生するが、それだけでなく高速で移動できる利益もあるからこそ社会でこれほどに受け入れられているのである。敵も味方もなく、必要とされるのはバランスだ。そこを対立的に煽っても仕方がないだろうと思っていたのだが、書名を少し勘違いしていたようだ。
邦題からはちとわかりづらいが、本書は原題が『A Dangerous Master How to Keep Technology from Slipping Beyond Our Control』であるように、我々の制御を超えて進歩を続けていくテクノロジーを目の前にし、『先進テクノロジーの採用に伴う潜在的な危険を想定して管理するさいの問題を検討し、さらにそれを予想される利益と比較考察する』ものである。
デザイナーベビー、ヒトクローン、ドローン、無人兵器、自動運転……この数十年で一気に議題に上がるようになった事柄は、倫理を問い直し、顕在化していないリスクを洗い出し、安全を見込んでルールを設定してもなおいくらでも予想外のことが起こりえる。だからといってテクノロジーを拒否して生きることはもはやかなわず、不可避的に発生するリスクといかにして付き合っていくのかという困難な問いかけを真正面から捉えなければいけないのが現代だといえるだろう。本書はその問いかけに真正面から取り組んだ一冊である。
リスクを把握することの難しさ
最近は小説を生成する人工知能、囲碁でプロを打ち負かす人工知能など「人間が人工知能に打ち負かされ、仕事を奪われる」という議論も活性化してきているが、進歩している分野は人工知能分野だけではない。科学的な技術の進歩はその倫理的な意味や規制の問いかけがまるで追いつかないスピードで進んでいて、我々の目の前には「こんなことがもうとっくのとうにできてますけど」と「進歩した成果」ばかりが提出される。議論が追いつかないままにそれは実用化され、いつ予想もつかないリスクに襲われるかもわからない。
これは「議論が追いつかない」例だが、それ以外にもさまざまな問題が考えられる。たとえば、一般向けのサイエンスノンフィクションは輝かしい最先端テクノロジーを解説する際に「未来ではこんなことができる」と煽り立てるが、実際にはただの希望的観測である場合も多い。結果として、人工知能の反乱のように「幻想としての危機」ばかりが注目されることにもなり、それはそれで「正しく危機を把握する」ための障害となっているのだ。
最先端研究分野では、数えきれない憶測と過度の期待が、称賛を招くにしても不安を引き起こすにしても、進歩は必然であるという幻想をあおり立てる。けれども、ちまたで繰り返し可能性が指摘されている個別化医療、デザイナーベビー、脳のシュミレーション、人間より賢いコンピュータ、ロボットでさえ、完全に実現することはきわめて難しいのが実情だ。誇張された話を現実から引き離すことそのものが複雑な課題なのである。
リスク評価が難しいのは、新しいテクノロジーはその新しさゆえに、根本的にリスクを洗い出すことが困難であることも手伝っている。仮に平均寿命が150歳まで延びればそれはそれで素晴らしいことだが、社会にとってはそれがどのような事態を引き起こすのか簡単には予測できない。医療制度や社会制度が根本から破綻するかもしれず、間違いなく多くの社会経済問題が発生するだろう。恐ろしいのは、そうした事態が現状ありとあらゆる分野で起こりつつあることだ。
本書の具体的な内容、主張
著者のウェンデル・ウォラックはハーバードやマサチューセッツ工科大学などで講師をつとめ、現在はイェール大学の生命倫理学術センターでセンター長を務める人物だ。『Moral Machines: Teaching Robots Right From Wrong』という機械倫理、機械道徳、人工道徳といった分野を扱った本を共著で出しており、こっちはこっちで大いに気になるけれども(翻訳されないのかなあ)とにかくこの分野では実績を積み上げてきている専門家である。
本書の構成は、最初に「どうして先進テクノロジーがもたらす影響はこんなに変化は早く、複雑になってしまうのか」という解説を行った後に、遺伝子操作、サイボーグ技術、無人兵器、医療分野での先進テクノロジーなどを例にとった個別の分野に関して具体的にどのような危険性と利益があるのかを語り、最後に全体としての対策・手段を語る内容になっている。それぞれの分野を語る際には、これまで先進テクノロジー肯定派と否定派の間でどんな主張が行われてきたのかの議論の過程まで振り返ってくれるので前提の共有としてわかりやすいのが非常にいい。
たとえば自律型致死ロボット(人間が引き金をひくのではなく、ロボットが自動判定で引き金を引き人間を殺す)をめぐる議論では、著者の立場はそもそも機械に生死の決断をさせるのは禁止させろというものだ。これにに反対する意見として、1.ほかの兵器システムよりも精度が高いため民間人犠牲者は減るはず。2.未来の機械は識別能力に加え人間の兵士よりも選択や行動が道徳的になる(ようにプログラムするから)というそれなりにもっともらしい主張もある。
だが、自律ロボットが引き金を引くとなると「責任は人間にある」という考え方がうやむやになる。機械のエラーが誤射を引き起こしたとなった時、責任の所在はプログラマにあるのか、指揮官にあるのか、曖昧な形になるだろう。具体的な禁止施策としては「機械に生死の決断をさせることを禁じる」ことが一番わかりやすいが、これも実際に実行するとしたらその内容がいかに正しいかよりかも国際的にどう納得してもらうのかという政治の領域に入ってくる。
いくつかの考察・提言
かように、単にリスクを語ろうにしてもその実現可能性まで視野にいれると事は異常に複雑だ。本書だけで決定的といえる答えを見つけ出せるものではないが、それでも抽象的にはいくつかの考察・提言がなされているので最後に簡単にご紹介しよう。
ひとつは、倫理的・価値観を含んだ議論をあらかじめテクノロジーの設計に組み入れる方法。一度できあがってしまったものの方向性を変えることは困難だが、最初から倫理的・政策的なルール上の合意がある程度とれていれば市民の支持も得やすいだろう。規制事項・ルールに関しては意思決定に時間のかかる政府に代わって各産業が独自に調整委員会を組織し倫理面での協調をとるソフトガバナンスと政府が執行するハードガバナンスの併用も重要になっていく。
何にせよ最も重要なのは「取り返しの付かない地点」に辿り着く前に、研究のスピードをゆるめる、議論を深める監視機構をつくる、と事前に手を打っておくことだ。ゆえに、本書は今読むべき一冊だといえるだろう。決定的にテクノロジーが変質してしまった後ではもう遅いのだから。
どのような技術が、どのような過程でテクノロジーを加速的に進歩させるかについて書かれた書籍としては上記の『シンギュラリティ:人工知能から超知能へ』が最近では特にオススメの一冊になる。