人工知能:AlphaGo(アルファ碁)はどこへ行くのか?

グーグルのAlphaGo(アルファ碁)は今後どう進化を続けていくのか?これは誰もが知りたい事ではないでしょうか。コンピューター(人工知能)が九段のプロ囲碁棋士を破るという大快挙を成し遂げたのが、今年の3月で、まだ半年も経っていません。今年6月には世界1位の柯潔と対決するような事が噂されていましたが、先月、何とグーグルのアルファ碁が、非公式ではあるものの、世界プロ囲碁選手ランキングの一位になってしまいました。アルファ碁が囲碁ランキングで世界一に、中国の柯潔氏は2位に順位落とす

ディープラーニングが可能なAlphaGoは世界のさまざまな対局を把握している。さらに自分で自分と3000万局以上も対戦した。人類の知能を凌駕するさまざまな手を探し、驚異的なペースで実力を上げた。イ・セドル氏に勝った後も、AlphaGoは学習を続けている。そのため時間の過ぎ行くにつれて、人間の棋士が勝利することはますます難しくなる。

アルファGoは、深層学習の可能性や将来性をまざまざと見せつけていますが、それは、ポケモンGoがAR(拡張現実)の潜在性の高さを見せつけている事に似ています。

アルファ碁

Where does AlphaGo go?

On March 15, 2016, Lee Sodol, an 18-time world champion of the ancient Chinese board game of Go, was defeated by AlphaGo, a computer program. The event is one of the most historic in the field of artificial intelligence since Deep Blue bested chess Grandmaster Garry Kasparov in the late 1990s. The difference is that AlphaGo may represent an even bigger turning point in AI research. As outlined in a recently published paper, AlphaGo and programs like it possess the computational architecture to handle complex problems that lie well beyond the game table.

「2016年3月15日、中国の伝統的なボードゲームの碁で18回世界チャンピオンの李世ドルがコンピュータプログラムのアルファ後に敗れました。そのイベントは、ディープブルーが1990年代後半に、チェスの名人のガルリ・カスパロフを負かして以来、人工知能分野において、最大級の歴史的快挙です。両者の違いは、アルファ碁はAIリサーチ分野においてさらに大きな転換点を象徴しているかもしれないという事です。最近発行された研究論文に参照されているように、アルファ碁とそれに似たプログラムは、ゲームテーブルをはるかに超えた複雑な問題に対処するための計算構造を持っています。」

囲碁の複雑さ

Invented over twenty-five hundred years ago in China, Go is a game in which two players battle for territory on a gridded board by strategically laying black or white stones. While the rules that govern play are simple, Go is vastly more complex than chess. In chess, the total number of possible games is on the order of 10100. But the number for Go is 10700. That level of complexity is much too high to use the same computational tricks used to make Deep Blue a chess master. And this complexity is what makes Go so attractive to AI researchers. A program that could learn to play Go well would in some ways approach the complexity of human intelligence.

「中国で2500年以上前に発明された囲碁は、二人の対局者が、黒か白の碁石を並べていく事で格子状の碁盤上に陣地を得ようと対戦します。対局に適用されるルールは単純なのですが、碁はチェスよりもはるかに複雑です。チェスにおいては、起こり得るゲームの総数は、約10100通りでしかありません。しかし囲碁の場合は10700というとんでもない数になります。複雑さの度合いがあまりにも高過ぎで、ディープ・ブルーをチェスマスターにするのに使われたのと同じ計算トリックを使うことができません。そしてこの複雑さが、碁を人工知能研究者達に非常に魅力的なものにしています。囲碁を上手くプレーするための学習を可能にするプログラムは、いろいろな点で、人間の知能の複雑さに近づくでしょう。」

囲碁はチェスとは全く比較にならないほど複雑なので、人工知能がプロの囲碁プレーヤーに勝てるとは思われていなかったみたいです。アルファ碁がそれ程凄いということのようです。

深層学習

Perhaps surprisingly, the team that developed AlphaGo, Google Deep Mind, did not create any new concepts or methods of artificial intelligence. Instead, the secret to AlphaGo’s success is how it integrates and implements recent data-driven AI approaches, especially deep learning. This branch of AI deals with learning how to recognize highly abstract patterns in unlabeled data sets, mainly by using computational networks that mirror how the brain processes information.

「恐らく意外なことに、アルファGoを開発したGoogle Deep Mindのチームは、人工知能に関する新しい概念、あるいは手法は生み出してはいませんでした。代わりに、アルファ碁の成功の秘訣は、それがどのようにして最近のデータ駆動型のAIアプローチ、特に深層学習を統合して実行しているかにあります。AIのこの一分野は、主に脳が情報を処理している方法を模範にしている計算回路を使うことで、未分類のデータセットでの極めて抽象的なパターンを認識するための方法を学習する事をテーマにしています。」

ディープラーニング(深層学習)はマシンラーニング(機械学習)の1種で、人間の脳を模した計算回路を使うことで、最新の人工シナプスや人工ニューロンを使った脳型計算回路や、従来型のCPUやGPUをソフト的に脳型回路に模した脳型ネットワークの構築も実践されています。

人間的直感

According to the authors, this kind of neural network approach can be considered a specific example of a more general technique called ACP, which is short for “artificial systems”, “computational experiments”, and “parallel execution”. ACP effectively reduces the game space AlphaGo must search through to decide on a move. Instead of wading through all possible moves it can make, AlphaGo is trained to recognize game patterns by continuously playing games against itself and examining its game play history. In effect, AlphaGo gets a feel for what Go players call “the shape of a game”.

「創造者達によると、このようなニューラルネットワーク(神経回路網)アプローチは、人工システム、計算機実験、並列実行の省略である、ACPと呼ばれる、より一般的なテクニックの具体例と見なすことができます。ACPは効率的に、アルファ碁が次の一手を決めるための検索をしなければならないゲーム空間を縮小します。次の一手の可能な動きを全てくまなく探す代わりに、アルファ碁は、それ同士で絶え間なくゲームをプレイし、ゲームプレイの履歴を調べることで、ゲームパターンを認識するように訓練されています。要するに、アルファGoは、囲碁プレイヤーがゲームの形と読んでいるところのものの感触をつかんでいるという事です。」

アルファ碁は人間的な感覚を習得しているようで、まさに人工知能と言えます。

Developing this kind of intuition is what the authors believe can also advance the management of complex engineering, economic, and social problems. The idea is that any decision problem that can be solved by a human being can also be solved by any AlphaGo-like program. This proposal, which the authors advance as the AlphaGo thesis, is a decision-oriented version of the Church-Turing thesis, which states that a simple computer called a Turing machine can compute all functions computable by humans.

「この種の直感を生み出すことで、製作者達が信じているところの、複雑な工学、経済、社会問題の取り扱いを向上させることも同様に可能にします。人間によって解決可能などのような決定問題でも、アルファ碁に似たどのようなプログラムによってでも、同様に解決する事が可能であるという考え方です。著者達がアルファ碁論文として提出しているこの提言は、チューリングマシンと呼ばれる単純なコンピュータが、人間によって計算できる全ての関数を計算することが可能である事を提示している、チャーチ・チューリングの提唱の決定志向版です。」

人間が計算可能な関数を全て計算できるチューリング機械に対して、人間が決定可能な全ての複雑な問題を決定できるアルファ碁マシンという考え方は非常に面白いです。アルフォ碁機械は人間的な直感を持った、例えその直感が間違ったものだとしても、それもまた人間的であるとも言えます。人間の脳を模倣している以上は完璧という事はあり得ないはずです。

人工知能の未来

AlphaGo’s recent triumph therefore holds a lot of promise for the field of artificial intelligence. Although advances in deep learning that extend beyond the game of Go will likely be the result of decades more research, AlphaGo is a good start.

「アルファ碁の最近の勝利が、それ故に、人工知能分野の多くの期待を支えています。囲碁の試合の域を超えて広がる深層学習における進歩は、数十年のさらなる研究の賜物になりそうですが、アルファ碁は好調なスタートと言えます。」

深層学習は、自律走行車(自動運転車)の分野で、世界中の企業が早期実現のために躍起になって研究を重ねていますが、それでも使い物になるシステムが完成するまでには後数十年の研究が必要だと言われています。プログラムやアルゴリズムだけの問題だけではなく、もっと高速なCPU, GPU, DSP, FPGA(Field Programmable Gate Array), APU(Accelerated Processing Unit), TPU(Tensor Processing Unit)等のチップが必要で、メモリーそのものを内蔵する必要があると言われています。人間の脳を完全に模倣するには省電力である事が絶対で、自動車やロボットに内蔵できる小型高速低電力チップが不可欠なのです。さらに、ネットにつながっていなくても使えるように、ローカル環境でも動作可能にする必要もあります。

アルファ碁の成功がAIに与えた希望と期待は相当大きなもので、人工知能の未来が本物である事を証明したとも言えます。アルファ碁が行き着く先が、人工知能の行き着く先なのかもしれません。つまり、人工知能が人間をはるかに超越した存在になると言う事です。だからと言って、人工知能が人類を支配するということにはならないはずです。と思います。