人工知能の第3の波
この記事を読むのに必要な時間は約 5 分です。
人工知能とロボットの未来 第2回
~最新の人工知能とは?~
2016年11月1日
人工知能は、1950年代から始まり、2度廃れた時期があったが、今あらためて注目を集めています。それは、「ディープラーニング」日本語名「深層学習」と呼ばれる機械学習技術の登場です。2012年、アメリカのGoogleが、コンピュータに猫を認識vさせたと発表しました。YouTubeの大量の画像をこのディープラーニング技術を使って読み込ませとところ、猫の特徴量を示すメットワークを構築したものが登場し、画像学習や音声認識などで、従来と比べて高い精度を実現した。
コンピュータが描いた猫(図1)
ディープラーニングとは?
ディープラーニングは、一言でいうと、過去のニューラルネットワークの発展版です。左のダイヤグラムは、過去のニューラルネットワークですが、人間の神経細胞同志が情報の伝達をするように、様々な情報から、猫の特徴をより分けていくようにしようとしましたが、3層以上にすると特徴の精度が上がらず、使いモノになりませんでした。
一旦人工知能の研究は下火になったのですが、そのあとも研究は継続されており、先述した、2012年のグーグルの発表をきっかけとして、研究が再燃した格好です。
機械学習にはさまざまな方法がありますが、とくに現在注目されているのは、機械が独自で学習していく教師なし機械学習と呼ばれるもので、グーグルの猫の特徴を機械が独自に学習したと言われるものです。ちょっとここで、ディープラーニングの基本アルゴリズムを紹介します。
そのアルゴリズムとは、自己符号化器と多層学習と呼ばれるものです。
自己符号化器(Auto Encoder)入力層と出力層は同じ学習させたい正解のデータを読み込ませ、真ん中の「隠れ層」のデータをあえて、入力層、出力層より少なくします。
例えば、1000個の正解データに対して、100個の隠れ層の特徴量で表現できるようにニューラルネットワークの重みを調整します。こうすることで、特徴量を圧縮していくことができます。
また、自己符号化器では、この特徴量圧縮を行う際に、少しデータ特徴の違うものも加えます。
そして、圧縮された特徴量を持つ隠れ層は、次の層においてまた入力層と出力層として用いられ、また間にある隠れ層は、少ないデータ量に設定し、次第に特徴量が圧縮されるといった具合です。
このように、自己符号化器を何層も積み重ねることで、分類させたいデータに対して、どのようなパラメータで学習すれば精度がよくなるのか、コンピュータ自身で最適化することを可能にしたのです。
この深層学習で何ができるのか、その実用化が猛烈な勢いで進んでいます。とくに画像認識の分野で、自動運転用や、音声認識で、スマホの音声検索、自動翻訳、ロボットの行動生成など期待されている。とくに、画像認識では、GPU(Graphics Processing Unit)のコンピュータの性能向上により、ニューラルネットの階層を20-30層と深くし、ニューロン数も百万個ほどに大規模化した場合でも、数時間~数日で学習できるようになりました。短期的には、パターン認識にこのディープラーニングがいち早く応用化されると思われます。
ただし、現時点のディープラーニング技術では、ちまたでいわれている、人間の仕事を置き換えると見るのは早合点だと思います。
図2 日経エレクトロニクス2015年6月号より出典
次回記事では、現在実用化の進む応用例について、説明進めていきたいと思います。
毛利元
■ビジネスハブ香港:香港及び華南、アセアンの情報ステーション
「ハブとしての香港」をコンセプトに、香港及び華南、アセアンの「生」の情報が見られます。http://ideaport.jp/businesshubhk
□お問い合わせ
ビジネスハブ香港の記事に関するお問い合わせは下記までお願い致します。http://ideaport.jp/contactbhh