AIと機械学習:深層学習、強化学習、転移学習

人工知能 AI

人工知能 AI (Artificial Intelligence)とは、人工的に人間と同様の知能を実現させる基礎技術です。人工知能AIに関係するものに、以下のものがあります:

機械学習 Machine Learning

  • 深層学習 Deep Learning, DL深層学習ベース処理 Deep Learning-based Processing
    • 画像・映像処理 Image and Video Processing
    • 音声認識・合成 Speech Recognition and Synthesis
    • 自然言語処理 Natural Language Processing, NLP自然言語処理タスク NLP tasks
      • 言語モデリング Language Modeling
      • テキスト生成 Generating Text
      • 機械翻訳 Machine Translation
      • イメージ記述生成 Generating Image Descriptions
      • 質疑応答 Question Answering
    • 言語表現モデル:機械翻訳トランスフォーマー Transformer
      • BERT Bidirectional Encoder Representations from Transformers
    • ディープニューラルネットワーク、Deep Neural Networks, DNNs(従来型)ディープニューラルネットワーク(Conventional) Deep Neural Networks
      • 畳み込みニューラルネットワークConvolutional Neural Networks, CNNs
      • アテンション機構 Attention Mechanism
      • 双方向モデル Bidirectional Model
  • 教師あり学習 /教師なし学習 Supervised Learning/Unsupervised Learning
    •  決定木 Decision Tree
    • ランダムフォレスト Random Forest, Randomized Trees
    • ニューラルネットワーク Neural Network
      • (従来型)ニューラルネットワーク(Conventional) Neural Networks
      • シンプル再帰型ニューラルネットワークSimple Recurrent Neural Networks, RNNs
      • LSTM, Long Short Term Memory
    • ベイズ学習 Bayesian Learning
    • アンサンブル学習 Ensemble Learning など
    • 半教師あり学習 Semi- supervised Learning
      • 能動学習 Active Learning など
    • 教師なし学習 Unsupervised Learning
      • クラスタリング clustering
      • 特徴・表現学習 Feature / Representation Learning
      • 多様体学習 Manifold Learning
      • 敵対的生成ネットワーク Generative Adversarial Networks, GANsなど
  • 強化学習 Reinforcement Learning
    • モンテカルロ法 Monte Carlo method, MC など
  • 転移学習  Transfer Learning
    • マルチタスク学習 Multitask Learning など

ロボット Robotics

  • 発達学習 Developmental Learning
  • ロボット学習 Robot Learning

データマイニング Data Mining

  • アナリティクス Analytics
  • データサイエンス Data Science
  • 情報検索  Information Search
  • ビッグデータ Big Data

なお、上記の分類はMECEではありません。関係性を示しています。実務ではこれらを組み合わせて適用しています。


人工知能AIでは、これらを組み合わせて適用されています。また、IoTによりあらゆるモノとつながり提供される膨大なデータ、ビッグデータを使うことで人工知能AIの強みが発揮されます。

以下、個々の概要を説明しています。


機械学習 マシンラーニング

機械学習 (Machine Learning)とは、人間が自然に行っている学習能力と同様の機能をコンピュータで実現しようとする人工知能の技術です。機械学習はデータをアルゴリズム(解を得るための具体的手順)により学習します。

1960年代の第一次AIでは、分析アルゴリズムが中心でした。これは論理的分析がテーマでした。

1980年代の第二次AIでは、エクスパートシステムが中心でした。専門家の知識データベースの活用がテーマでした。IBMのワトソンはこの成果です。

2000年代の第三次AIでは、機械学習が中心になっています。


ネイマンピアソン統計学

人工知能AIは、機械学習そして深層学習が中心となり発展しています。機械学習の基盤となっているのが学習です。

正統派統計学のネイマンピアソン統計学 Neyman-Pearson により一つの結論をこうだろうと出します。関数を学習することがテーマです。与えられたデータを忠実にあらわす関数を学習します。

ネイマンピアソン統計学は、データを忠実にあらわす関数を求めるアプローチをとっています。データにより結果を推定します。



深層学習 ディープラーニング

深層学習 (Deep Learning)とは、大量のデータを見てデータに含まれる特徴を段階的により深く(深層で)学習する機械学習です。

トロント大学のヒントン教授らによりニューラルネットワーク (Neural Network)の技術的なブレークスルーが起こされ精度の向上が進んでいます。ニューラルネットワークの構造を深く(狭義には4層以上の多層に)することで実現します。層の深いニューラルネットを特に深層ニューラルネットワークといいます。

バックプロパゲーションにより推論結果が正しいか見つめ直して、アルゴリズムでどこが悪くどこを修正したらよかったかを学習します。

複雑な問題を高い精度で解くことができます。画像認識、文字認識、音声認識などで成果が出ています。深層学習が人間以上の能力を発揮するようになってきたことから、深層学習あるいは機械学習をAIということもあります。

1980年代から機械学習が発達し、2010年代になり機械学習の中の深層学習が劇的に発達し、人工知能AIの機能向上が進んでいます。

深層学習は、教師あり学習、教師なし学習に加えて、強化学習、そして転移学習の進展が注目されています。


自然言語処理

自然言語処理  Natural Language Processing, NLPは、以下のような自然言語のタスクを処理するものです。

  • 言語モデリング Language Modeling
  • テキスト生成 Generating Text
  • 機械翻訳 Machine Translation
  • 会話認識 Speech Recognition
  • イメージ記述生成 Generating Image Descriptions
  • 質疑応答 Question Answering

アテンション機構

深層学習ベース自然言語処理 Deep Learning-based NLPが急激に発展しています。アテンション機構 (Attention Mechanism)を使ったリカレントニューラルネットワークRNN翻訳モデルが発展しています。

アテンション Attentionとは、人間が注意を向けた情報の解像度が高くそれ以外が低いという特徴をモデル化したものです。入力の特徴量のなかで注意すべき部分とそれに対応する知識を同時に学習します。入力する文章の単語の重みを計算し、その重みに基づいてメモリから出力するモデルです。アテンションにより特定の単語からそれに関連する情報を把握することに注目します。


BERT 深層学習ベース自然言語処理

アテンションメカニズム (Attention Mechanism)を使ったリカレントニューラルネットワークRNN翻訳モデルとしてトランスフォーマーTransformer (詳細)があります。

トランスフォーマーの一つとして、グーグルが汎用的な事前学習モデル BERT、Bidirectional Encoder Representations from Transformers (詳細)をオープンソース化しました。

BERTは、従来のモデルに比べて格段に自然言語処理の精度を向上させました。


リカレントニューラルネットワーク

リカレント(再帰型)ニューラルネットワークRecurrent Neural Networks, RNNsは、データを時系列に解析することのできるニューラル ネットワークです。

自然言語処理のタスクとして、文章の時系列データを扱うリカレントニューラルネットワークRNNが使われています。


ベイズ統計学

2010年代の現代のAIでは、深層学習が中心になっています。これまでのAIに加えて、ベイズ統計学により与えられたデータから推論することがテーマです。

ベイズ統計学は、各々の選択肢のありうる確率を出します。与えられたデータから結果を推定するアプローチをとっています。限られたデータから結果を推定し、データが増えるに従って推定結果の確率を向上させます。少ないデータでベイズ定理を使い正解を予測する方法をベイズ推定といいます。


計算統計学

計算統計学Computational Statisticsはコンピュータサイエンスと統計学の融合分野です。特に今日の人工知能AIの発展の特徴は、計算統計学の手法が、計算機を利用した複雑な統計的推論において広く応用されていることです。

複雑な物理系の方程式が計算されるようになっています。IT技術とは別の分野で起きています。


Python(パイソン)

Pythonは、今話題の人工知能AIやデータサイエンス、Web開発など幅広い分野で使われてるプログラミング言語です。読み書きの間違いを減らすために作られた言語です。

Pythonは、マックにはプリインストールしてあります。

Pythonには科学演算や機械学習で利用可能な機能をまとめたライブラリがあります。TensorFlowです。


TensorFlow(テンソルフロー)

TensorFlowとは、Googleが開発し公開しているオープンソースです。機械学習に用いるためのソフトウェアライブラリになっています。

ニューラルネットワークや深層学習ディープラーニング、機械学習のコーディングをするには、TensorFlowのライブラリーが多く利用されています。


MNIST

MNISTは28×28ピクセルの手書き数字のデータセットです。深層学習 Deep Learning のコーディングをする際、とりあえずベンチマークとして使います。


画像用半導体:GPU

画像用半導体GPU(Graphics Processing Unit)は歴史が長く、1970年代にパソコン用デバイスとして登場しました。GPUはCPUに比べて、計算に使うコアが最大で5000個まで増設でき、メモリーとデータのやりとりが速く処理できます。NVIDIAが開発しました。


深層学習用半導体:TPU

グーグルは、深層学習に特化した専用集積回路 TPU(Tensor Processing Unit)を開発しました。行列計算の回路です。

例えば、BERTの処理でGPUに比べて顕著に高速処理できます。


教師あり/なり学習

教師あり学習

教師あり学習 (Supervised Learning)とは、入力データと出力データの関係を学習するものです。

学習対象のデータに正解(ラベル)があらかじめ決まっている場合に、データと正解のペアをいわば教師からの助言として事前に与えて学習する方法です。ラベル付けされたデータの集合が提供された場合に適用できます。

この反対概念が、教師なし学習です。詳細を下記します。


半教師あり学習

半教師あり学習 (Semi-supervised Learning)とは、学習対象のデータにラベルのないデータ集合もある場合に、ラベルありデータだけで学習した場合より,より予測精度の高い学習をする方法です。

学習対象のデータと正解のペアのデータの作成コストが高く、ディープラーニング導入の障害になっています。これに対してラベルのないデータも対象とすることで障害を低くすることができ、予測モデルの精度を向上させることができます。


能動学習 アクティブラーニング

能動学習 (Active Learning)とは、自ら能動的に動き、課題や問題を発見し学習する方法です。与えられたデータから学ぶのとは異なります。教師データ作成のコストを抑えながらモデルの性能向上を測ることができます。

学校教育においても、新しい高大接続の学習指針で従来の受け身の授業ではなくてアクティブラーニングが取り入れられています。


教師なし学習

教師なし学習 (Unsupervised Learning)とは、データの構造を学習するものです。

学習対象のデータはありますがその正解があらかじめ決まっていない場合に、なにかしらの構造や法則を見出す方法です。ラベルがないデータがアルゴリズムに与えられ、そのデータの中にある構造を見つけ出します。

教師なし学習は、データの中にある構造を見つけ出すこと自身、あるいは特徴を学習すること(特徴学習)が目標になります。


特徴学習、表現学習

深層学習の本質は、特徴学習 (Feature Learning) あるいは表現学習 (Representation Learning) とされています。画像音声自然言語などの特徴量と呼ばれる数値を、抽出し学習する方法です。

  • 画像認識、映像認識
  • 文字認識、音声認識
  • 自然言語認識

多様体学習

多様体学習 (Manifold Learning) とは、多次元データの中からそれよりも低次元のデータを抽出する方法です。ユークリッド空間を一般化させた多様体を用います。


敵対的生成ネットワーク GAN

敵対的生成ネットワーク(Generative Adversarial Networks、GAN) とは、2つのネットワークが敵対的に競い学習することで、データを生成する、教師なし学習の一手法です。上記のモデルと異なり、敵対的生成ネットワークGANは、生成モデルです。

GANには、ニューラルネットワークを使った深層学習で畳み込みの(Deep Convolutional)GANであるDCGANがあります。深層学習により画像生成を飛躍的に向上させました。


強化学習 

強化学習 (Reinforcement Learning)とは、リワード(報酬)を最大化する行動を試行錯誤で学習するものです

学習対象のデータの正解がわからないが良さそうか悪そうかのリワードがわかる場合に、選択による報酬を手掛かりに学習する方法です。

自動車の運転やゲームの対戦のように動的に変化する環境で、報酬のデータがプログラムの行動のフィードバックとしてのみ与えられる場合に、適用されます。

強化学習の一種にモンテカルロ法があります。


モンテカルロ法

モンテカルロ法 (Monte Carlo Methods)とは、シミュレーションや数値計算を乱数を用いて行う方法です。カジノのモテカルロから命名されました。

機械学習では、行動によって得られた報酬経験データだけを頼りに状態価値、行動価値を推定する方法として適用されています。強化学習の一種になります。


転移学習 トランスファーラーニング

転移学習 (Transfer Learning) とは、ある領域で学習したこと(学習済みモデル)を別の領域に役立ち効率的に学習させる方法です。

機械学習では、強化学習が目覚ましい進化を遂げていますが、転移学習が人間の力に近づくには大きな可能性を持っています。機械学習の次のフロンティアです。

複数の領域での学習の場合には、マルチタスク学習があります。


マルチタスク学習

マルチタスク学習 (Multi Task Learning)とは、複数の領域を並行して学習して共通する要素を抽出して学習する方法です。


完全情報ゲームと不完全情報ゲーム

完全情報ゲームは、将棋,囲碁、チェス、オセロなど完全な情報が提供されるゲームです。完全情報ゲームは実世界では非現実的な設定です。

不完全情報ゲームは、麻雀、ポーカー、人狼、大貧民など対戦相手の持ち駒などの情報が提供されないゲームです。実世界は不完全情報です。不完全情報ゲームの方が現実的です。不完全情報ゲームで人工知能が上達すれば、実世界でも役に立つことになります。


ロボット

ロボットは、機械のロボットと、ソフトウェアベースのロボットがあります。

ソフトウェアベースのロボットには、業務の自動処理をするRPA、Robotic Process Automation があります。


発達学習、 ロボット学習 

発達学習 (Developmental Learning) あるいはロボット学習 (Robot Learning) は、機械学習とロボティクスとが交差した研究領域です。

認知的発達の一部として起こる学習です。学習アルゴリズムによりロボットに環境とロボットとが適応することを導きます。


AIの軍事利用

軍事におけるAIの導入が進んでいます。そこでは人間の判断のモデルとして OODAループが活用されています。マシンOODAループヒューマンOODAループとして定義され研究されています。


特化型人工知能(弱い人工知能

人工知能AIには、特化型人工知能汎用人工知能があります。

特化型人工知能 (Artificial Narrow Intelligence)とは、特定の機能に特化した知能を実現する技術です。弱いAI(Weak AI)とも言われています。

特化型AIには、以下のものがあります:

  • 自動運転
  • 自動通訳/翻訳
  • 自動配車
  • 自動農業
  • 自動介護
  • 個人秘書 パーソナルアシスタントなど

自動通訳/翻訳は、2025年頃に実現すると期待されています。


汎用人工知能(強い人工知能)

汎用人工知能 (AGI, Artificial General Intelligence)とは、特定の機能に特化しない、人間と同様の知能を実現させる技術です。意識をもつ人工知能です。強いAI (Strong AI)とも言われています。

汎用AIは、2030年頃に開発の目処が立つと期待されています。


人工知能AI開発のフレームワーク:OODAループ

人工知能の開発のフレームワークにOODAループが使われています。

例えばアップルのパーソナルアシスタントSiriを開発している Sentient社は、人工知能の開発にOODAループを人工知能開発のフレームワークとして活用しています。

OODAループ」の簡単な説明は、こちらを参照ください。


人工知能に人間が勝ち残る力:OODAループ

2045年にはコンピュータが人類の知性を超え、人間が人工知能に追いつけなくなる技術的特異点 シンギュラリティ(singularity) に至ると、グーグルのAI責任者レイモンド カーツワイル (Ray Kurzweil)が発言しました。

人工知能が仕事を奪ったり、人間に対して軍事の脅威になったりと人工知能の脅威が懸念されています。人工知能に対して人間が勝ち残る力を見極めて強化していくことが重要です。

人工知能に人間が勝ち残る力:OODAループの詳細については、こちらを参照ください。


著者:アイ&カンパニー 入江仁之
出典:本論文は2005年以来のOODAループ実装結果に拠る提言です。
脚注:本論文はフィードバックに基づき随時、更新しております。
©2015 – I & COMPANY or its affiliates. All rights reserved.