Reddit(レディット)を読ませる事で、人工知能の頭脳を鍛えるという、無謀とも思える試みがなされているそうです。Redditには確かにためになることも書いてありますが、圧倒的に駄レスや駄スレが多いというのは掲示板やフォーラムでは仕方のない事でもあります。
2chも非常に有益な情報があるし、本当に有能な人の書き込みもありますが、それを全て帳消しにしてしまうレスが多いのが、何ともやりきれないところでもあります。玉石混交とはまさにこの事で、同じ人間で何故こうも違うのかと、愕然とさせられることが多々あります。同じ人間が良いレスと酷いレスを付けている可能性もあるかもしれませんが、そのような事は稀だと願わずにはいられません。
Redditを読んで賢くなる?
This Supercomputer Will Try to Find Intelligence on Reddit
Researchers at OpenAI are developing algorithms capable of learning language by reading the Web and controlling robots through practice.
「OpenAIの研究者達は、ウェブを読んだり、訓練を通して、ロボットをコントロールする事で、言葉を学習する能力を持つアルゴリズムを開発中です。」
人間と会話や文通できるAIが開発された場合、ロボットが人間の友達になれる可能性が出てくるので、友達がいない人間には朗報かもしれません。助手席に乗せればナビ代わりなり、料理中にレシピを教えてくれたり、バイリンガルなロボットなら通訳にもなります。
Is it possible that the secret to building machine intelligence lies in spending endless hours reading Reddit?
「人工知能を構築する秘密が、レディットを延々と読み続けて時間を潰すことにあるという事はあり得ますか?」
Redditが英語圏の人々の知恵の結晶だとすれば、そうなりますが、どうやって有益なレスとゴミレスを区別するのかが問題になってきます。良スレの中の良レスだけを選んで学習させる事が出来れば、Redditを読むことで、人工知能は賢くなれるのではないでしょうか。
Nvidia DGX-1
The new machine, called a DGX-1, is optimized for the form of machine learning known as deep learning, which involves feeding data to a large network of crudely simulated neurons and has resulted in great strides in artificial intelligence in recent years. The DGX-1 will let AI researchers train deep-learning systems more quickly using more data. As a rough comparison, computations that would take 250 hours on a conventional computer take about 10 hours on the DGX-1.
「DGX-1と呼ばれる新しいマシンは、昨今の人工知能分野における長足の進歩をもたらしている、ニューロンを大雑把に模倣した大規模ネットワークへのデータフィードを含む、ディープラーニング(深層学習)として知られている、マシンラーニング(機械学習)の1種向けに最適化されています。DGX-1は、AI研究者達がより多くのデータを使ってもっと素早く深層学習システムを訓練することを可能にします。大まかな比較だと、従来のコンピューターで250時間かかる計算を、DGX-1は約10時間で終えます。」
従来のコンピューターがどういったコンピュータなのか、全く分からないので何とも言えませんが、DGX-1は、普通のパソコンの25倍の処理能力のようです。これが凄いのかどうか分かりませんが、値段が1000万円以上するらしいので、コスパは悪いような気もします。
米NVIDIAが深層学習用スパコン「DGX-1」、1台1400万円で170テラFlops
Tesla P100はNVIDIAの最新アーキテクチャ「Pascal」を採用した初めてのGPUで、プロセッサ1個に153億個のトランジスタを集積。GPU1個につき演算コア(CUDAコア)を3584個と16ギガバイトのメモリーを搭載する。演算性能はFP64(倍精度)で5.3テラFlops、FP32(単精度)で10.6テラFlops、FP16(半精度)で21.2テラFlopsとなる
DGX-1はTesla P100を積んでいるようです。
Huang CEOがディープラーニング専用スパコンと呼ぶDGX-1は、高さ3Uの筐体にTesla P100を8個搭載し、1台で170テラFlops(半精度)の演算性能を有する。NVIDIAのHuang CEOは「1台のDGX-1で、Xeonサーバー250台分の性能に匹敵する」とアピールした。価格は12万9000ドル(約1400万円)で、1台だけで3.2キロワット(KW)もの電力を消費する。
高性能高価格のXeonサーバー250台分の性能に匹敵するようです。それで価格が1400万円ならコスパは良いのではないでしょうか。安価ななんちゃってスーパーコンピュータが欲しい人にはいいかもしれません。
強化学習
OpenAI is involved in a range of bleeding-edge AI research. Besides deep learning, its researchers are focused on developing algorithms capable of learning through extensive trial and error, a field of research known as reinforcement learning.
「OpenAIは、さまざまな最先端AIリサーチに関与しています。深層学習に加えて、OpenAIの研究者達は、強化学習として知られている研究分野である、徹底的な試行錯誤を通じて学習できるアルゴリズムを開発することに専念しています。」
Redditもいいですが、2chを四六時中読み漁ることで、どういった人工知能ができあがるのか非常に興味があります。言葉や文章を理解して、フォーラムや掲示板にレスを付けるAIが現れれば、それはそれで面白いと思います。
AIに強化学習させて家事をするロボットを作る試みがされているようですが、人工知能の20年後がどうなっているのか全く想像がつきません。自律走行車(自動運転車)、家事ロボット、友達ロボット、恋人ロボット、親ロボット、子供ロボット、医者ロボットなど、色々なロボットが実用化されているかもしれません。人間と同じ知性、知能、感情を持ったロボットが誕生すれば、人類は労働から解放されるかもしれません。