ココからあなたの
都道府県を選択!
全国
猛者
自販機
家族
グルメ
あの時はありがとう
旅先いい話

83歳筆者が再び考える「人工知能」...恐ろしいのは「AIの暴走」か、それとも?

ぶらいおん

ぶらいおん

2017.02.28 11:00
0
スティーブン・ホーキング氏(Intel Free Pressさん撮影、Flickrより)
Stephen Hawking Birthday Celebration

   本コラムの筆者・ぶらいおんさんは、最先端の技術に強い関心を持っている。過去にも、3度にわたり「人工知能(AI)」の問題を取り上げてきたが、今回はその、ある種の「危うさ」にフォーカスした議論だ。

   SFなどではよくある、「人工知能の暴走により、人類が存亡の危機にさらされる」という状況。着実にAIが進歩を遂げる中、それが現実になる日は果たして来るのか。ぶらいおんさんは、単純な否定でも賛美でもなく、「注意深く見守る」ことの大切さを主張する。

ホーキング博士ら著名人も警告

   人工知能(AI)(以下、特別な場合を除き"AI"と表記する。)について、筆者は過去にも書いている。

   そこでも、説明したが、当初、筆者の頭の中には、自分が従事していた技術翻訳に関連する、初期における「機械翻訳」のイメージがあって、「到底、AIは使い物にならん!」と考えて来た。

   しかし、最近のディープラーニングの手法を取り入れたAIには、実に目を見張るばかりの進展が見られる。

   以下は、専らnikkei BP netの記事や関連する、主としてインターネット上の情報を参照しながら、書籍その他から筆者が得た知識を織り交ぜながら、その考えを纏めたものである。

   ディープラーニングの手法を取り入れた、AIの成果としてよく知られたところでは、1997年に当時のチェスの世界チャンピオンが、IBM製のスーパーコンピュータ「ディープ・ブルー」に負けて、2016年の春、囲碁の欧州チャンピオンが、GoogleのAI「アルファ碁」に負けた、という事実である。

   このままでは、どんなゲームや勝負もAIの一方勝ちになってしまうのでは...、と考える人が多いかも知れない。

   しかし、実際はそうでも無いらしい、少なくとも今の段階では...。

   というのは、意外にも、ポーカーとか、麻雀のように、相手の手が伏せられたまま進行するゲームや勝負では、まだまだ人間には敵わないらしい。

   つまり、碁やチェスでは対戦中、相手の手も全てオープンにされているので、そのデータや情報を取り込んで凄いスピードでそれらを解析し、対応することが可能なのに対し、ポーカーや麻雀ではそうはいかないらしい。

   しかし、これだって、後から、この局面では、隠されていた人間の手の内がこうであった、というような莫大な数のデータを蒐集、解析することにより、こんな局面では、人間は、こんな手を使うことが多いだろう、という推論に到達しさえすれば、今後どんなことになるか?それは予想がつかない。

   ディープラーニングというのは、人間の方(ほう)から、どんな範囲で情報やデータを集め、どんなルールで、それを解析すればよいか?の方針を予めコンピュータには与えること無く、AIシステム自体に、最初から、そのやり方まで任せるもの、と解釈出来る。

   従って、そうなると、人間なら常識や社会通念として回避するのが、当然である筈のルールや考え方に対する配慮など、AIにしてみれば、最初から、その考え方の中には存在し無いので、結局、目的のためには、手段を選ばず、どんなことでもやらかしてしまう危険性がある、と想像される。このことについて、警告を発している著名人たちが居る。

   具体的な例を挙げれば、英国の理論物理学者のスティーブン・ホーキング(Stephen Hawking)博士は、「われわれがすでに手にしている原始的な人工知能は、極めて有用であることが明らかになっている。だが、完全な人工知能の開発は人類の終わりをもたらす可能性がある」と、語っている。(AFP=時事)

   また、イーロン・マスク氏は2014年にTwitterで、「人工知能は核兵器よりも潜在的な危険をはらむため、我々は細心の注意を払う必要がある」とつぶやいている、そうだ。

   これに関連して、2015年1月にイーロン・マスク氏、ビル・ゲイツ氏、スティーヴン・ホーキング博士、およびその他の学者や研究者などが、人工知能を扱う産業の安全基準に対する公開状を書き、人工知能の誤動作によって人間に危険が及ぶのを防ぐため、いつでも人工知能を安全に制御できるフェールセーフのシステムを開発研究すべきだと要求した、とのことだ。

   それで、人工知能の未来に関するオープンレターにその道の専門家たちが次々と署名しているそうで、このレターは簡単にいうと「人工知能は人間が望むことをすべき」と訴えていて、人工知能研究を人類の利益と一致する方向に進めるよう強く求めるもので、言い換えれば、「急に人間に歯向かってくるような機械を作らないようにしようね。」ということらしい。

   また、一方で、次のような考え方もある。

   <人工知能はそんなに賢くない>という主張で、「人工知能で人類滅亡」と言うと、如何にもロボット兵が大挙して人間を撃ってくるみたいな絵を想像するが、そこまで明確な意図がなくても、結果的に人間が全滅することはあるかもしれない。ロンドン大学ゴールドスミス・カレッジで認知コンピューティングを専門とするマーク・ビショップ教授は、The Independentに、そう語っているそうだ。

   すなわち、「私は特に、ロボット兵器システムが軍用される可能性を懸念しています。つまり、人間の介入なく軍事行為を判断できるシステムです。現在の人工知能はそこまで出来が良くなく、むしろ状況をエスカレートさせて恐ろしい結果を招く可能性もあるからです」とビショップ教授は言う。

   「そのため人工知能は、超人間的知性に達しなくても、人間の存在に対する真の脅威となるかもしれません」と彼は言い、我々は人工知能について懸念すべきだが、その理由はホーキング教授が言ったのとは逆だと彼は説明している。

   まあ、上掲のいずれの主張にしても、「AIが人間の脅威となり得る」という点では一致している。

   だからこそ、これらの問題や危惧を専門家や技術者だけに任せて置いてはならない、ということである。良かれ、悪しかれ、こうした技術の発展の影響を最も受けるのは、我々一般市民だからである。

   今まで、人間が苦労してやって来た仕事などを、いずれ進化したAIは、いとも簡単にやってのけてしまうことだろう。だから、人間が楽になるとも言えるし、経営者に取ってみれば、同じ、あるいはそれ以上の仕事をAIがやれるのなら、人間のように昇給を考慮する必要も無く、残業時間や健康管理や、過労死の心配も無いAIの活用を当然、考えることになるだろう。

   そうなれば、今でも話題になりつつあるように、人間の仕事が、いずれAIに奪われることになるだろう。

   経営者の論理ばかりで無く、もっと危険で、人間に対し、大きな被害をもたらすに違いないのは、AI技術の成果が頭の悪い政治家や、視野の狭い、忠実な職業軍人の手に渡ったケースだろう。

   少し前のコラムに書いた"SNOWDEN"の映画の中でも取り上げられていたが、今の戦争、特に「テロリストとの戦い」と称される殺人行為では、「テロリスト」とされる人物の所有する携帯電話めがけて、無人飛行機が弾を打ち込むのだ。つまり、テロリスト、とされる人物本人を確認した上での標的というわけでは無く、AIは飽くまで、特定された携帯電話を持っている人物を、目標のテロリストとして攻撃することになる。もし、傍に居た、何の罪もない子どもが偶々、その携帯電話を玩具として遊んでいた、としてもだ。

   つまり、AIは、そこまで(攻撃目標が対象のテロリストか、否か?)の判断まではしない(もしくは求められていない)から、もっと進化(あるいはむしろ、退化か?)したAIが、軍事応用されたときの、人間に加えられるかも知れない、被害は計り知れない。しかも、この場合のAIは、人間とは全く異なって、「大量殺人」を幾ら続けようが、「迷い」も「痛み」も「悩み」も一切、感ずることは無いのだから。

   しかし、考えてみれば、これらは言ってみれば、AI自体の責任というより、むしろAIの限界を規定したり、AIの活用法、応用法を考えるべき、結局、人間サイドの責任、と言うことになろう。

   「AI」そのものに、「暴走」する可能性や危険性があるなら、早い時期に手を打つことこそ、喫緊の課題と言えよう。

   nikkei BP netで、中島秀之(東京大学 特任教授)氏が、各界で活躍する著名人とAIについて、対談している中で、次のようなことを発言されている。

「現在、芸術の世界をみれば、AIは、レンブラント風の絵画を描き、バッハ風の音楽を作曲できるようになりました。また、小説の世界でも、AIの書いた作品は「星新一賞」の一次選考をパスするレベルにまで到達しています。」

   ということなのだが、その小説の中での、いわゆる「オチ」をどうするかが問題なのだ、と言う。つまり、「ショートショートのオチって、人間の常識を裏切らないと、落ちない。その「常識」という部分が、そもそもプログラムに入っていない。 」ということが問題らしい。

   その発言は、次のように続く。「オチのようなロジカルなひっくり返しの部分は、コンピュータにはとても難しい。パターン認識では、正のデータとして、たとえば、ある動物の画像を「これは猫だ」と肯定する方は学習できるけれど、「これは猫じゃない」と否定する方は、難しいんじゃないかと思うんです。否定、いわゆる"not"は、基本的にイメージと結びつかないですから。」

   更に、「たとえばコンピュータのプログラムには、"and"とか"or"とか、あるじゃないですか。"and"は画像でもできるし、"or"もおそらく画像でできるでしょ? でも、"not"だけはできない。うまく言えないんだけど、そういう「否定」というか「今までとはちがうもの」という言い方のものって、コンピュータにとっては、すごく難しいと思うんですね。特にディープラーニングのようにイメージの上で操作する場合は。」

   これに対し、司会者がこう続ける。「常識ではこういう終わり方をするはずなのに、そこをあえて"not"にする「オチ」をつくるのは、コンピュータ、とりわけディープラーニングには難しい、ということですね。」

   こうした専門家やエキスパート達の発言や考えを見て来ると、「AI」が人間の能力の大部分を超えることは先ず、間違いなさそうだが、人間とは決定的に異なるところは、どこか別のところで読んだのだが、「AIが人間のような"身体性"を有していないことだ」と言う。

   つまり、当たり前のことだが、AIは人間のような肉体を有していないことを意味して居り、これは一方でAIの強みでもあり、また弱みでもある、と考えられる。

   AIは人間のように肉体を有していないから、少なくとも今の人間のように「死ぬ」ことは無い。しかし、肉体を有していないからこそ、人間に及ばないことだって有る。AIが最も苦手とする事柄は、人間なら豊かな人も貧弱な人も居るではあろうが、「感性」や「直感」を有しない人は居ないのに対して、哀れなことには、AIはそれらを全く有していないし、またそのことを理解することすら出来ない筈だ。

   だが、この点に関し、こういう話を聞いたことがある。それは、例によって、筆者が録り溜めたHD内のNHKの或るドキュメンタリー番組を視聴してみたら、その中で、NHKの記者と(確か)時事通信社か、何処かの記者が対談している中で、いわゆる報道記事は、今ではAIに書かせた方が効率が良く、既に米国の新聞社では、その技術を採用しているところも少なく無い、と言う。

   それは、いずれの国でも新聞紙そのものの販売が低迷しているが故に、経営上の方針から記者の数を減らし、AIが書ける記事はAIに任せて、合理化を図る方向を目指しているのだ、という。

   つまり、大方の報道記事というものは、一定のパターンがあり、それに沿ったデータや情報を入れてやれば、AIがうまく記事に纏め上げるらしい。いずれは、今のような新聞記者というものは存在しなくなるだろう、という話だ。

   ただ、ここで筆者が気になったのは、その対談の中で、スポーツ記事の例が挙げられていたのだが...。もう少し、具体的に説明してみると、何のスポーツでも良いのだが、たとえば、AチームとBチームが対戦したとする。結果は、接戦の末、Bが勝った、としよう。その場合の記事の書き方は二通りある、という。

   その第1は、Aチームファン向けの記事で、それは「あと一歩というところで、栄光を逃がしたが、若い選手達の活躍には見るべきものがあった。次の対戦が大変楽しみだ!」というようになる。

   それに対し、第2のBチームファン向けの記事を書くとすれば「実に手に汗を握る接戦であったが、結局、実力に勝るBが妥当な勝ちを収める結果となった。」というような記事となるらしい。

   この場合のいずれでも、事前に用意した、いずれか寄りの情報をAIにインプットさえすれば、AIは、それに即した記事を簡単にアウトプットする、という。

   この種のスポーツ記事なら、別にどうということも無いのだが、もし、これが政治や、大事な国の方針を決めるような際に、このように、つまり、言ってみれば、イージーなやり方を頻発、多用して行うと、どちらかと言えば、従順で、批判精神に乏しい大衆を、あらぬ方向へ誘導するような、恐ろしい結果にならねばよいが、と筆者は懸念している。

   だからこそ、人間はその種の危険性を十分理解した上で、その点では、AIとの差別化を図らねばならない。

   上述したように、(この場合)身体性という強みを有する人間が「感情」や「感性」の面では、AIに負けることは無いのだから、人間としての基本的なルールを以てAIには「けじめ」をつけることを、今の内からはっきり教え込んで置かねばならない。

   一方で、人間の「身体性」を伴うという弱点が、然程遠くない将来に、AIやアンドロイド・ロボット技術によって、無理なく克服される、とすれば、それはそれでテクノロジーの成果としては、素晴らしいことだ、とも筆者は考えている。

   しかし、この点について、イーロン・マスク氏は、こんな言い方をしている。

「AIに勝てないなら、自分がAIになっちゃえばいいじゃない。」

   それは、こういうことを意味する。イーロン・マスク氏が言うのは、AIが学習し、習得したデータ(情報)をアウトプットさせる人間の処理速度が、AIのそれと比較して、余りにも遅すぎて、折角のAIの成果を十分に活用出来ないのなら、人間の脳をAIの脳に当たる部分と直結させて、人間とAIを一体化させる、つまり、サイボーグ化するという話だ。どうだろう?筆者には、余り気持ちの良い話とも思えないのだが...。

   しかし、それが実現するとしたら、一体どうなるのだろう?

   それは、こうなるのだそうだ。

   たとえば、人間が『何処か?美しい海岸を観たいな。』と考えると、その人間の脳に接続されたAIが自動運転して、その人間を車で、たとえば伊豆下田の白浜海岸とか紀南の白良浜海岸などへ連れて行ってくれることになる、と言う。

   確かに、そりゃあ便利だ!

   だが、物事が何か思いつきだけで、どんどん進行してしまうような気がしませんか?そんなことじゃ、人間が今のように、じっくり考えた上で結論を出す、というような機会は完全に失われてしまうのではあるまいか?

    いずれにせよ、筆者には、「AIの暴走」は先ず、恐ろしいに違いないが、それより実は「AIを良識に基づいて、正しく生かすことの出来ない」人間の愚かさの方が余程、危険で、恐ろしい、とさえ思うのだが、読者諸氏の見解は如何なものであろうか?

buraijoh.jpg

筆者:ぶらいおん(詩人、フリーライター)

東京で生まれ育ち、青壮年を通じて暮らし、前期高齢者になってから、父方ルーツ、万葉集ゆかりの当地へ居を移し、地域社会で細(ささ)やかに活動しながら、105歳(2016年)で天寿を全うした母の老々介護を続けた。今は自身も、日々西方浄土を臨みつつ暮らす後期高齢者。https://twitter.com/buraijoh
PAGETOP