【G検定】チートシート
はじめに
-
ディープラーニングG検定に向けた情報整理を行う。
-
構成はシラバスに従い、該当項目には「📘」を付す。
-
参考図書
-
模擬テスト
1.📘人工知能(AI)とは(人工知能の定義)
AIの定義
-
専門家の間で共有されている定義はない。
-
人工知能であるかどうかは「人によって違う」。
-
定義の例
-
「推論、認識、判断など、人間と同じ知的な処理能力を持つ機械(情報処理システム)」
-
「周囲の状況(入力)によって行動(出力)を変えるエージェント(プログラム)」
-
🎩松尾豊
「人工的につくられた人間のような知能、ないしはそれをつくる技術」
-
🎩アーサー・サミュエル
「明示的にプログラムしなくても学習する能力をコンピュータに与える研究分野」
-
-
- 人間の知的処理を総合的に行えるAIで、SF等の作品に登場するAIの多くはこの汎用型AIであることが多い。
-
- 1つのタスクに特化したAIで、現在「AI」と呼ばれ、社会適応されている技術。
人工知能レベル
-
レベル1
シンプルな制御プログラム。ルールベース。
-
レベル2
古典的な人工知能。探索・推論を行う。知識データを利用する。
-
レベル3
-
レベル4
AI効果
-
人工知能の原理がわかると「単純な自動化である」とみなしてしまう人間の心理のこと。
ロボットとの違い
-
人工知能では「考える」という、目に見えないものを中心に扱っている。
-
人工知能ではロボットの「脳の部分」を扱っている。(脳だけ、というわけではない)
-
ロボットの研究者は人工知能の研究者というわけではない。
歴史
✅ 💻エニアック:ENIAC(Electronic Numerical Integrator and Computer)
-
1946年、アメリカ ペンシルバニア大学。
-
世界初の汎用電子式コンピュータ。
✅ ダートマス会議
-
1956年、アメリカで開催。
-
🎩ジョン・マッカーシー:アメリカの計算機科学者。ダートマス会議を主催し、初めて公で「人工知能(AI)」という言葉を使った。
-
世界初の人工知能プログラムといわれる💻ロジック・セオリストのデモを実施した。
✅ 第1次AIブーム
-
推論・探索 が中心。
-
トイ・プロブレム(おもちゃの問題) は解けても、現実の問題は解けないことが判明。
⇒ 失望へ
✅ 第2次AIブーム
-
💻エキスパートシステムが流行し、ナレッジエンジニアが必要とされた。
ナレッジエンジニアとは、 人工知能(AI)を応用したシステム構築を専門とする技術者(エンジニア)のことである。(引用)
-
日本
💻第五世代コンピュータという大型プロジェクトを推進、エキスパートシステム等に取り組んだ。
-
知識の蓄積・管理は大変!ということに気づく。
第五世代コンピュータとは、 通商産業省(現経済産業省)が1982年に立ち上げた国家プロジェクトの開発目標である。(引用)
⇒ 失望へ
✅ 第3次AIブーム
-
機械学習・特徴表現が中心。
-
ビッグデータによる機械学習、特徴量によるディープラーニング(深層学習) が流行。
2.📘人工知能をめぐる動向
2-1.📘探索・推論
探索・推論の手法
✅ 探索木
-
最短距離の解が必ずわかる。すべてを記憶するためメモリ容量が必要。
すべての場合分けを記憶しながら探索する方法。最短経路を必ず見つけられるが計算容量を使用する数が多い。
-
メモリは少なめでよいが、最短距離が必ずわかるわけではない。
一方向に掘り下げて解でなかった場合、前のステップに戻り、異なる方向を探索することを繰り返しながら買いを探す方法。計算容量を使用する数が少ない。
✅ ハノイの塔
-
以下のルールに従ってすべての円盤を右端の杭に移動させられれば完成。
-
3本の杭と、中央に穴の開いた大きさの異なる複数の円盤から構成される。
-
最初はすべての円盤が左端の杭に小さいものが上になるように順に積み重ねられている。
-
円盤を一回に一枚ずつどれかの杭に移動させることができるが、小さな円盤の上に大きな円盤を乗せることはできない。
-
✅ ロボットの行動計画
-
-
オフラインプランニング・静的プランニング
周囲の状況が既知で、その構造がよく理解されている場合に、行動の計画や戦略をあらかじめ組み立てて(計算して)おくこと。
-
オンラインプランニング・動的プランニング
未知の環境において、周囲の状況が明らかになるにつれて行動の計画や戦略を修正すること。
-
リプランニング
計画・戦略を修正すること。
-
-
-
Stanford Research Institute Problem Solver
-
自動計画に関する人工知能の一種。
-
「前提条件」「行動」「結果」の3つの組み合わせで1つの動作を定義する自動計画を記述する手法。
-
-
- 構造化されてないテキストデータから、新しい情報を抽出する分析手法。大量のデータから情報を抽出することで、文章中の単語の使用頻度や傾向、相関関係など、様々な特徴を分析する際に用いられる。
✅ ボードゲーム
-
1996年、💻**IBM DeepBlue(ディープブルー)。「力任せの探索」だったが、チェスの世界チャンピオンを破った。
力まかせ探索(Brute-force search)またはしらみつぶし探索(Exhaustive search)は、 単純だが非常に汎用的な計算機科学の問題解決法であり、 全ての可能性のある解の候補を体系的に数えあげ、 それぞれの解候補が問題の解となるかをチェックする方法である。(引用)
-
2012年、💻ボンクラーズ が将棋において永世棋聖に勝利。
-
2013年、💻ponanza が将棋において現役プロ棋士に勝利。
-
2016年、💻AlphaGo(アルファ碁)が韓国のプロ棋士に勝利。
ディープラーニングが使われた。
DeepMind社が開発した深層強化学習を用いた囲碁プログラム。
-
2017年、💻elmo が世界コンピュータ将棋選手権において ponanza に勝利。elmo 同士の対戦を行うことで学習を行った。
✅ コスト
-
効率よく探索するため、時間や費用といったコストの概念を取り入れている。
-
ヒューリスティックな知識を利用して探索を短縮することができる。
※ヒューリスティック:経験則の、試行錯誤的な
✅ Mini-Max法(ミニマックス法)
-
ゲーム戦略で利用される。
-
想定される「最大の損害」が最小になるように決断を行う戦略のこと。
-
自分の番はスコア最大、相手の番はスコア最小になるような戦略をとる。
-
この手法は全探索を行うため効率が悪い。
✅ α-β法(アルファ・ベータ法:alpha-beta法))
-
Mini-Max法の応用アルゴリズム。
-
読む必要のない手を打ち切ることで高速化を図っている。
-
αカットは関心範囲の最小値のカット、βカットは最大値のカットを行う。
-
Mini-Max法において、無駄な探索をカットする手法の1つ。枝刈りの方法にはαカットとβカットが存在する。
✅ モンテカルロ法
-
ボードゲームにおいて最善手を評価する方法の1つ。次の一手を決める際に、打てる手それぞれで何回もプレイアウトし、勝率が高かった手を選ぶという手法。
-
特徴:
プレイアウト(ゲームを一度終局までもっていく)の結果、どの方法が一番勝率が高いかを評価する。
-
デメリット:
ブルートフォース(力任せな方法)のため、組合せが多いと計算しきれない。
2-2.📘知識表現
知識表現
✅ 💻ELIZA(イライザ)
-
1964年から1966年にかけて🎩ジョセフ・ワイゼンバウムによって開発された対話型ロボット。
-
「人工無能」の元祖。精神科セラピストを演じた。
-
パターンに合致したら返答する「ルールベース」である。
-
イライザ効果:あたかも本物の人間と話しているように錯覚すること。
-
その後開発された💻PARRYと会話した記録が残されており(RFC439)、中でもICCC1972が有名。
✅ エキスパートシステム
- 専門家の知識を入れ込み、その意思決定能力を誰もが使える形にするもの。知識ベースと推論エンジンにより構成される。
✓ 💻DENDRAL
-
1960年代、スタンフォード大学 🎩エドワード・ファイゲンバウム。
-
未知の有機化合物を特定する。質量分析法で分析する。
質量分析法とは、 分子をイオン化し、そのm/zを測定することによってイオンや分子の質量を測定する分析法である。(引用)。
✓ 💻マイシン(MYCIN)
-
1970年、スタンフォード大学。
-
ルールベースで血液中のバクテリアの診断支援を行った。
-
正解確率の高い細菌名のリスト、信頼度、推論理由、推奨される薬物療法コースを示した。
-
精度は専門医の80%に対し、69%であった。
-
エキスパートシステムの1つで、伝染性の血液疾患を診断し、適した薬を処方するプログラム。
✅ 意味ネットワーク
-
semantic network
-
人間の記憶の一種である意味記憶の構造を表すためのモデル。
-
単語同士の意味関係をネットワークによって表現する。
-
概念を表す節(ノード)と、概念の意味関係を表す辺(エッジ)からなる、有向グラフまたは無向グラフである。
-
知識を線で結びその関連性を表したもの。現在でもAIプロダクトの解釈性を高める為に使われることがある。セマンティックネットワークともいう。
無向グラフのエッジには方向性がありません。 エッジは "双方向" の関係を示します。 有向グラフのエッジには方向性があります。エッジは "一方向" の関係を示します。(引用)
✅ Cycプロジェクト:サイクプロジェクト
-
1984年、🎩ダグラス・レナート。
-
すべての一般知識を取り込もうという活動。
-
2001年からはOpenCycとして公開されている。
-
1984年からスタートした「すべての一般常識をコンピューターに取り込もう」というプロジェクト。
オントロジー(ontology)
-
🎩トム・グルーバーが提唱。
-
知識を体系化する方法論で、「概念化の明示的な仕様」(知識を記述するための仕様)と定義されている。
-
知識の形式表現であり、あるドメインにおける概念間の関係のセットである。
-
is-a 関係(上位概念、下位概念、推移律)、part-of 関係を用いる。
-
意味ネットワーク等で用いられる知識の結び付け方の規則。
✅ セマンティックウェブ
-
W3C の🎩ティム・バーナーズ=リーによって提唱されたプロジェクト。
-
ウェブページの意味を扱うことができる「標準」や「ツール群」の開発により、ワールド・ワイド・ウェブの利便性を向上させようというもので、オントロジーを利用する。
-
プロジェクトの目的は、ウェブページの閲覧という行為(データ交換)に対し、意味の疎通を付け加えることにある。
-
情報リソースに意味を付与することで、コンピュータで高度な意味処理を実現したり、文書の意味に即した処理が行えるようにする。
✅ ヘビーウェイトオントロジー(重量オントロジー)
-
人間が厳密にしっかりと考えて知識を記述していくアプローチ。
-
構成要素や意味的関係の正統性については、哲学的な考察が必要。
✅ ライトウェイトオントロジー(軽量オントロジー)
-
コンピュータにデータを読み込ませ、自動で概念間の関係性を見つけるアプローチ。
-
完全に正でなくても使えればOKと考える。
-
ウェブマイニング、データマイニングで利用される。
ウェブマイニング(web mining)とは、 ウェブサイトの構造やウェブ上のデータを利用して行うデータマイニングのことである。(引用) データマイニング(Data mining)とは、 統計学、パターン認識、人工知能等のデータ解析の技法を大量のデータに網羅的に適用することで知識を取り出す技術のことである。(引用)
✅ 💻ワトソン
-
IBM Watson
-
Question-Answering(質問応答)型。
-
2011年、アメリカのクイズ番組である「ジェパディ!」で優勝した。
-
ライトウェイトオントロジーに該当する。
✅ 💻東ロボくん
-
2011年~2016年、国立情報学研究所。
-
プロジェクトリーダーは🎩新井紀子。(著書『AI vs.教科書が読めない子どもたち』)
-
読解力に問題があり、何かしらのブレイクスルーが必要と判断され、開発は凍結された。
-
その後、新井氏は人間側の読解力の問題に注目し、さまざまな活動を行っている。(TEDがわかりやすい)
2-3.📘機械学習
-
ビッグデータを活用する。
-
統計的自然言語処理を行う。
-
応用例:レコメンデーションエンジン、スパムフィルター
レコメンデーションシステム
- おすすめを提示するシステム。
✅ 協調ベースフィルタリング
-
ユーザーの購買履歴からおすすめを表示するアプローチ。
-
ユーザーの行動をもとにレコメンドする。
✅ 内容ベースフィルタリング
-
アイテムの特徴をもとにおすすめを表示するアプローチ。
-
検索キーワードに関連する類似アイテムをレコメンドする。
-
アイテムの特長ベクトルをもとにレコメンドである。
2-4.📘深層学習(ディープラーニング)
深層学習 関連手法
✅ 単純パーセプトロン
-
シンプルなニューラルネットワーク。
-
ステップ関数(関数への入力値が0未満の場合には常に出力値が0、入力値が0以上の場合には常に出力値が1となるような関数。)で表現できるがニューラルネットワークでは利用できない。
✅ ディープラーニング
- ニューラルネットワークを多層にしたもの。結果の解釈性、説明性に優れている。
✅ バックプロパゲーション
-
誤差逆伝播学習法
-
ニューラルネットワークの学習におけるアルゴリズム。
✅ 自己符号化器(オートエンコーダ)
-
入力したものと同じものを出力して学習する。
-
ニューラルネットワークによる教師なし学習の代表的な応用であり,出力が入力に近づくようにニューラルネットを学習させる.主に次元削減のために利用されることが多く,活性化関数に恒等写像を用いた場合の 3 層の自己符号化器は主成分分析(PCA)と同様の結果を返す.自己符号化器を多層化すると,ディープニューラルネット同様に勾配消失問題が生じるため,複雑な内部表現を得ることは困難であった.この問題に対して 2006 年頃にHintonらは,単層の自己符号化器に分割し入力層から繰り返し学習させる層ごとの貪欲法を積層自己符号化器に適用することで,汎用的な自己符号化器の利用を可能とした.また,自己符号化器の代表的な応用例としてノイズ除去、ニューラルネットの事前学習、異常検知がある.
深層学習 実装例
✅ 💻SuperVision
-
2012年、トロント大学、🎩ジェフリー・ヒントン。
-
ILSVRC(Imagenet Large Scale Visual Recognition Challenge)2012 で勝利した。
-
エラー率は26%台から15.3%へ劇的に改善。
-
その後、2015年に人間の認識率(約5.1%)を抜いた。
-
AlexNet(畳み込みニューラルネットワーク、CNN)を採用。
-
前年度まではサポートベクターマシンが主流だったが、ここからCNNに切り替わったことになる。
3.📘人工知能分野の問題
3-1.📘トイプロブレム(おもちゃの問題)
- ルールが決まっている問題(迷路、オセロなど)は解けても、現実世界に存在する複雑な問題は解けないという問題。
3-2.📘フレーム問題
-
1969年、🎩ジョン・マッカーシーと🎩パトリック・ヘイズが提唱。
-
人工知能における重要な難問の一つ。
-
有限の情報処理能力しかないロボットには、現実に起こりうる問題全てに対処することができない。
-
🎩ダニエル・デネット:
考えすぎて何も解決できないロボットを例示し、フレーム問題の難しさを伝えた。
3-3.📘強いAI・弱いAI
-
🎩ジョン・サールが提唱。
-
強いAI:
人間のような心、自意識を持つAI。
-
弱いAI:
便利な道具であればよいという考え方によるAI。
汎用AI、特化型AI
✅ 汎用AI
- フレーム問題を打ち破るAIのことで、人間のように様々な課題に対処することができる。
✅ 特化型AI
- フレーム問題を打ち破っていないAIのこと。
強いAIに関する主張
✅ 中国語の部屋
-
哲学者🎩ジョン・サールによって発表された論文内で、チューリングテストの結果は何の指標にもならないという批判がされた。その論文内で発表された思考実験の名前。
-
強いAIは実現不可能だという思考実験。
中国語を理解できない人を小部屋に閉じ込めて、 マニュアルに従った作業をさせるという内容。 チューリング・テストを発展させた思考実験で、意識の問題を考えるのに使われる。(引用)
✅ 🎩ロジャー・ペンローズ
-
イギリス生まれの数学者、宇宙物理学・理論物理学者。
-
「量子効果が絡んでいるため強いAIは実現できない」と主張した。
3-4.📘身体性
-
知能の成立には身体が不可欠であるという考え方。
-
物理的な身体により外部環境との相互作用を行うことができる。
-
しかし、GoogleやFacebookの研究スピードでは、身体性の研究をすっ飛ばして概念獲得や意味理解ができてしまう可能性もある。
-
AI が実世界における抽象概念を理解し、知識処理を行う上では、身体性を通じた高レベルの身体知を獲得し、次に身体知を通じて言語の意味理解を促し、抽象概念・知識処理へと至るのではないかということが議論されている。
3-5.📘シンボルグラウンディング問題
-
認知科学者の🎩スティーブン・ハルナッドにより議論されたもので、「記号とその対象がいかにして結び付くか」という問題
-
記号(シンボル)と現実世界の意味はどのようにして結びつけられるのかという問題。
-
外部世界を内部化(記号化、シンボル化)した時点で、外界との設置(クラウディング)が切れてしまうという問題。
✅ 知識獲得のボトルネック
-
人間が持っている知識は膨大であり、それらを獲得することは困難である。
-
特にエキスパートシステムの開発において問題となった。
✅ ニューラル機械翻訳
-
NMT、Neural Machine Translation
-
ニューラルネットワーク、ディープラーニングを利用した機械翻訳。
-
日本語の翻訳品質を飛躍的に高めた。
-
従来の方式にはルールベース機械翻訳(RMT)、統計的機械翻訳(SMT)がある。
「ルールベース機械翻訳(RMT:Rule Based Machine Translation)」は、 登録済みのルールを適応することで原文を分析し、訳文を出力する機械翻訳の方法です。 「統計的機械翻訳(SMT:Statistical Base Machine Translation)」は、 コンピュータに学習用の対訳データを与え、統計モデルを学習させることで訳文を出力させる方法です。(引用)
✓ seq2seq(sequence-to-sequence)
-
入力となる時系列データから、時系列データを生成するタスク。代表的な構造にはRNN Encorder-Decorderモデルがある。
-
再帰型ニューラルネットワーク(RNN)を使った文の生成モデル。
-
時系列データを入力し、時系列データを出力する。
-
別の言語に置き換えたり(翻訳)、質問を回答に置き換えたり(質問・回答)できる。
3-6.📘特徴量設計
-
モデルの性能は、注目すべきデータの特徴(特徴量)の選び方により決定づけられるが、それを人間が見つけ出すのは難しい。
-
機械学習自身に発見させるアプローチを特徴表現学習という。
- 特徴量の加工・抽出までは学習器が行うこと。ディープラーニングは特長表現学習を行う手法である。
3-7.📘チューリングテスト
-
🎩アラン・チューリングにより考案された。
-
ある機械が知的かどうか(人工知能であるかどうか)を判定するためのテスト。
-
ある対話式の機械に対し、「人間的」かどうかを判定する為のテスト。イギリスの数学者、アラン・チューリングが提案した。合格基準の一つに判定者の30%以上が対話相手を人間かコンピューターか判別つかないと判定することであり、2014年にロシアのチャットボット「ユージーン・グーツマン」が、13歳の少年という設定で初めて合格したとされる。
✅ ローブナーコンテスト
-
チューリングテストの合格を目指すコンテスト。
3-8.📘シンギュラリティ(技術的特異点)
-
🎩レイ・カーツワイルの著書で提唱された。
-
「収穫加速の法則」により「強いAI」が実現され、人間には予測不可能な変化が起こるとされている。
✓ 収穫加速の法則
-
レイ・カーツワイルが提唱した経験則。
-
一つの重要な発明が他の発明と結び付くことで、次の重要な発明の登場までの期間を短縮する。これによりイノベーションの速度が加速され、科学技術は直線的ではなく指数関数的に進歩するというもの。
✓ シンギュラリティに関する発言等
-
シンギュラリティは2045年に到来する
2045年には人間が自分自身よりも賢い人工知能を作り出すことにより起きる技術的特異点のこと。
-
🎩ヒューゴ・デ・ガリス
シンギュラリティは21世紀の後半に来る
-
🎩オレン・エツィオーニ
シンギュラリティの終末論的構想は馬鹿げている
-
🎩ヴィーナー・ヴィンジ
機械が人間の役に立つふりをしなくなること
-
🎩スティーブン・ホーキング
AIの完成は人類の終焉を意味するかもしれない
-
🎩イーロン・マスク
危機感を持ち非営利のAI研究組織 OpenAI を設立。
OpenAI Gym(強化学習のシミュレーション環境)を発表。
4.📘機械学習の具体的手法
4-1.📘代表的な手法
✅ 教師あり学習
- 正解データを適切に予測できるように、正解データとその他の変数のセットを学習する枠組み。この時、正解データは目的変数、その他の変数は説明変数もしくは特徴量と呼ばれる。また、予測値が連続な場合を回帰、不連続な場合を分類という。
✓ 回帰問題
-
線や平面、超平面で関数をデータにフィッティングさせることで回帰を行う手法
-
あるデータに対して関連する情報(メタデータ)を注釈として付与すること。転じて、AI業界では、機械学習のモデルに学習させるための教師データ(正解データ、ラベル)を作成することを指す。
-
回帰分析の種類
-
単回帰分析 : ひとつの説明変数により、ひとつの目的変数を予測する。
-
重回帰分析 : 複数の説明変数から、ひとつの目的変数を予測する。
- 多重共線性 : 説明変数の選択において、相関係数の絶対値が最大値に近い特徴量のペアを選ぶと、予測の精度が悪化する性質。
-
-
線形モデルとは、説明変数を含む項の線形結合で,説明変数を含んだ数式の出力値は被説明変数と呼ばれる.この線形結合で,特に説明変数も被説明変数も一次元のデータの場合は,\(y = {b_0} + {b_1} * x\)と表される.こういったモデルを単回帰モデルと呼んだりもする.この数式において,各項の係数(例えば \({b_0}\), \({b_1}\))をパラメータと呼び,このモデルを用いてテストデータを学習し,測定した実データを推定する.注意点として、被説明変数が連続の値を取り扱う場合回帰と呼ばれるが,離散の値を取り扱われる場合は分類と呼ばれ,それぞれ名称が異なる.ただ,実際のデータを扱うときに、説明変数が 1 次元であることはほとんどなく,2 次元以上になることが一般的である.このような場合、説明変数の次元数分だけ,係数パラメータを増やして,モデルを拡張する必要がある.このように説明変数が 2 つ以上の場合を重回帰モデルと呼び,各項の係数パラメータを偏回帰係数という.またモデルによって出力された値と実際の測定値の誤差を残差という.この残差を用いて係数パラメータを推定する代表的なアルゴリズムに最小二乗法と最尤推定法がある.
-
最小二乗法
モデルの予測値と実データの差が最小になるような係数パラメータを求める方法
-
最尤推定法
ある係数パラメータが与えられたときに、モデルが実データを予測する確率(尤度)を最大化するような係数パラメータを求める方法
-
-
ラッソ回帰:Lasso回帰 (lasso regression)
- 直線回帰に正則化項(L1ノルム)を加えた回帰分析。
-
リッジ回帰:Ridge回帰 (ridge regression)
- 直線回帰に正則化項(L2ノルム)を加えた回帰分析。
-
参考資料
-
ノルム : いろいろなものの「大きさ」を表す。
-
✓ 分類問題
-
ロジスティック回帰 (logistic regression)
-
線形回帰の考え方を拡張し、目的変数が2クラスを取る場合等に使われる分類手法。
-
活性化関数として シグモイド関数 を使い、重回帰分析により二値分類を行う。
-
シグモイド関数:Sigmoid functionは 対数オッズ(ロジット) の逆関数である。(ロジット変換(正規化))活性化関数に用いられる関数の1つ。入力xの値を0~1の範囲の値に変換する。主に隠れ層(中間層)や二項分類問題を解くモデルの出力層で用いられる。
-
対数をとる前の オッズ とは、ある事象が起こる確率 p と起こらない確率 1−p の比のこと。
-
最小化を行う関数として 尤度関数 が用いられる。
-
-
-
多クラスロジスティック回帰
- 活性化関数に ソフトマックス関数 を利用し、多クラス分類を行う。
-
-
弱学習器に決定木を用いたアンサンブル手法(バギング)で回帰と分類に用いられる。決定木同様、解釈性の高さが特徴。また特徴量のランダムサンプリングも行っている。
-
ブートストラップサンプリングにより、アンサンブル学習を行う。
-
バギングに該当する。
-
バギング
- データ全体からランダムに一部データを用いて、複数のモデルを作る(学習する)方法。並列処理になる。
-
ブースティング (boosting)
-
- アンサンブル学習であるブースティングの一種。前の弱学習器の損失の勾配を用いて、次の弱学習器を作成する。
-
-
- ベイズの定理を使って、それぞれのクラスに分類される確率を計算し最も確率の高いクラスを結果として出力する、分類問題を解くためのモデル。
-
- セキュリティシステムなどに使用されている。
-
- 回帰と分類が行える手法。分類においては、特徴量空間において距離が近い順に任意のk個を取得し、多数決でデータが属するクラスを推定する。
-
- 求めたい要素からもっとも近い既存データが属する集団に分類する、機械学習のアルゴリズムの1つ。すべての要素までの距離を計算しなければならない為、データ量が大きくなるにつれ、膨大な数の計算が必要となる。その為、計算機の性能により、データ量が制限されてしまう欠点がある。
-
- 木構造を用いて回帰や分類を行う手法で解釈性の高さが特徴。
-
ニューラルネットワーク
-
キーワード:
ニューロン、神経回路、単純パーセプトロン、多層パーセプトロン、入力層、出力層、重み、隠れ層、活性化関数、シグモイド関数、誤差逆伝播法
-
ロジスティック回帰はニューラルネットワークの一種。(単純パーセプトロンと同等)
-
ニューラルネットワークの学習は、損失関数(コスト関数)の最適化により行われる。そして、その損失関数は学習の目的に応じて決定する.。く使われる損失関数として,回帰問題には平均二乗誤差関数、分類問題には交差エントロピー誤差関数がある。また分布を直接学習する際にはKLダイバージェンスが用いられることもある。さらに、損失関数にパラメータの二乗ノルムを加えるとL2正則化となる。
-
✅ 教師なし学習
-
正解を参照せずに変数同士の構造やパターンを抽出する枠組み。クラスタリングや次元削減等は教師なし学習に該当する。
-
-
教師なし学習で非階層型クラスタリングを行う手法。
-
課題:クラスタリングを行う処理の初期値の取り方により結果が異なる。(偏りが生じる)
-
kNN法はクラス分類(教師あり学習)の手法なので注意!
-
-
- 階層的クラスタリング、階層クラスタリング。分類型と凝縮型に分かれ、凝縮型では距離の近いものを1つのクラスタとして順にデータをまとめていく手法。最終結果を樹形図(デンドログラム)で表すことができる。
-
-
k-means++
- k-meansの課題である初期値の取り方を工夫することにより、結果に偏りが生じることを抑制する。
-
-
教師なし学習の次元削減の手法で、データのばらつきを最も顕著に表現できるように、すなわち分散を最大化するように第一主成分を選択する。
-
相関のある多数の変数から、特徴をよく表している成分(主成分)を特定し要約することで次元を削減する。
-
寄与率:各成分の重要度を表す。
-
-
- 手元のデータを複数のブロック(fold)に分割し、その内の1つを評価用として使い、残りを学習データとすることを、評価用データを入れ替えてすべてに対し行う手法。
-
- それぞれ回帰で使用される評価手法で、「root」「絶対値」「log」がついてることによって様々な特徴がある。
✅ 半教師あり学習
- 少量のラベルありデータを用いることで大量のラベルなしデータをより学習に活かせることができる学習方法。
✅ 強化学習
-
正解を与える代わりに、将来の報酬や利益を最大化するように、特定の状況下における行動を学習する枠組み。
-
エージェントの目的は収益(報酬・累積報酬)を最大化する方策を獲得すること。
-
エージェントが行動を選択することで状態が変化し、最良の行動を選択する行為を繰り返す。
-
状態 →(方策により)行動 → 収益を獲得 → 次の状態 →・・・
-
行動を学習するエージェントとエージェントが行動を加える対象である環境を考え,行動に応じて環境はエージェントに状態と報酬を返す.行動と状態/報酬の獲得を繰り返し,最も多くの報酬をもらえるような方策を得ることが強化学習の目的である.
4-2.📘データの扱い
-
ホールドアウト検証
-
データを訓練データとテストデータに分割(例えば7:3)し利用する。
-
訓練データでの学習によりモデルを構築し、テストデータで検証を行う。
-
交差検証の一種と説明されることもあるが、データを交差させないため交差検証ではない。
-
モデルを学習する際に、データセットを訓練データと検証データに分割し、訓練データで学習したモデルを検証データで評価する手法である。
-
-
k-分割交差検証
-
テストデータをk個に分割し、ひとつをテストデータ、その他を訓練データとする。
-
テストデータを順次入れ替えることで、少ないテストデータでもより安定したモデルを選択できる。
-
-
訓練データ、検証データ、テストデータ
-
訓練データによる学習でモデルを作成する。
-
検証データによりハイパーパラメータ等を調整する。
-
テストデータにより評価を行う。
-
-
- 機械学習のモデルが持つパラメータの中で人が調整をしないといけないパラメータ、設定のこと。バイアスは含まれない。
-
- モデルの精度を向上させる為に全てのパラメータの組み合わせを試す手法。適切だと考えられるパラメータを複数用意し、それらの値の組み合わせを全通り総当たりで行い、最も良いハイパーパラメータを探す方法である。
-
ランダムサーチ
- 考えられるパラメータの範囲を決め、ランダムにパラメータを組み合わせて学習させ、最も良いハイパーパラメータを探す方法である。
-
クロスバリデーション
- モデルを学習する際に、データセットを分割し、訓練データと検証データを交代させて精度を測る手法である。
✅ 欠損値処理
✓ リストワイズ法
-
欠損があるサンプルをそのまま削除する方法。
-
欠損に偏りがある場合はデータの傾向を変えてしまうので注意が必要。
✓ 回帰補完
✅ カテゴリデータ
✓ マッピング
- 順序を持つデータの場合、数値の辞書型データにマッピングする。
✓ ワンホットエンコーディング
- 順序を持たないデータの場合、各カテゴリごとにダミー変数を割り当てる。
4-3.📘応用・評価指標
✅ 混同行列
-
正解率 : 陽性・陰性を含めた全正解数に対する、予測での正解数。全体の精度を上げたい場合の評価項目。
-
適合率 : 予測での陽性数に対する、実際の陽性数(陽性だ!と思ったものがどれくらい合っているか)。偽陽性を削減したい場合の評価項目。正と予測したデータの内、実際に正であるものの割合。\(TP/(TP+FP)\)
-
再現率 : 実際の全陽性に対する、予測での陽性正解数(すべての陽性に対し、予測でどれくらい陽性が再現できているか)。偽陰性を削減したい場合の評価項目。適合率と再現率は相反関係にある。実際に正であるデータの内、正であると予測されたものの割合。\(TP/(TP+FN)\)
-
F値 : 適合率と再現率の中庸を取るような指標であり、両者の調和平均を取ることで算出。
✅ オーバーフィッティング、アンダーフィッティング
-
アンダーフィッティング
-
訓練が不十分で、訓練データ・テストデータの両方に対して精度が低い状態。
-
学習をさらに進めることで改善することがある。
-
✅ 正則化
-
訓練誤差ではなく、汎化誤差を小さくする(汎化性能を高める)ための手法。正則化項を導入することでオーバーフィッティグを防止する。
-
機械学習の学習において汎化誤差をできるだけ小さくするための手法の総称である.ディープニューラルネットワーク(DNN)の学習で一般に用いられる正則化の手法に荷重減衰がある。
-
L1正則化:ラッソ正則化(Lasso Normalization)。不要なパラメータを削減できる(ゼロにする)。この特徴をスパース性という。スパース正則化の一種。
-
L2正則化:リッジ回帰(Ridge Normalization)。Lassoと違い特徴量の選択は行わないが、パラメータのノルムを小さく抑えることができる(パラメータのノルムにペナルティを課す)。重み減衰(Weight Decay)ともいう。
-
Elastic Net:L1正則化、L2正則化を組み合わせたもの。
- Lasso回帰とRidge回帰の折衷案で「Lasso回帰のモデルに取り込める説明変数の数に制限がある」という問題点をカバーできる手法。
5.📘ディープラーニングの概要
5-1.📘ニューラルネットワークとディープラーニング
✅ 単純パーセプトロン
-
線形分類しかできない。
✅ 多層パーセプトロン
-
多層化することで、非線形分類が出来るようになった。
✅ ディープラーニング
-
概念としては1960年代には既に存在していた。
-
ディープニューラルネットワークを用いたもので、ニューロンをいくつもつなげており、複雑な関数を近似できる。
-
検証方法として、通常はデータ量が多いため、ホールドアウト検証でよい(十分である)。
-
結果の解釈性、説明性に優れている。
-
ディープニューラルネットワーク(DNN)の学習の目的は損失関数、コスト関数、誤差関数を最小化することであり,この最適化のために勾配降下法が利用される.しかし,勾配降下法にはパラメータの勾配を数値的に求めると計算量が膨大になってしまう問題があり、このような問題を避けるために誤差逆伝播法が利用される.またディープラーニングには過学習の問題もある.過学習とは訓練誤差は小さいにも関わらず、汎化誤差が小さくならないことであり,これらの問題を克服するために様々な手法の開発が進められている.
-
問題:
-
オーバーフィッティング(過学習)しやすい。(但し、精度に特別バラつきが出やすいというわけではない。)
-
勾配消失問題を起こしやすい。
-
事前に調整すべきパラメータ数が非常に多い。
-
✅ 用語
-
バッチサイズ
-
イテレーションで用いるデータセットのサンプル数。
-
全データをバッチサイズで切り分ける。
-
-
エポック
-
参考
5-2.📘既存のニューラルネットワークにおける問題
-
課題
- 隠れ層の層数を増やすと、誤差逆伝播時に誤差が最後(入力層付近)まで正しく反映されない。
-
原因
-
シグモイド関数の導関数(微分式)の最大値は0.25のため、層を進ごとに伝播させる誤差の値がどんどんと小さくなってしまう。ディープニューラルネットワークにおいて層が深いと、誤差逆伝播法のときに誤差がどんどん小さくなり学習が収束しない問題がある。(勾配消失問題)
- 0.25×0.25×0.25… と計算していくと値が小さくなっていく。
-
-
対処
- あらかじめ良い重みの初期値を計算する「事前学習」や,活性化関数に「正規化線形関数」を利用する方法などがある。
5-3.📘ディープラーニングのアプローチ
✅ オートエンコーダ(autoencoder、自己符号化器)
-
🎩2006年頃にジェフリー・ヒントン(Geoffrey Everest Hinton)が提唱。教師なし学習の代表。
-
入力と出力が同じになるニューラルネットワーク。(=正解ラベルが入力と同じ)
-
次元削減が行える。
-
層ごとの貪欲法
自己符号化器を多層化すると、勾配消失問題が生じ、複雑な内部表現を得ることは困難だった。これに対して2006年頃にHintonらは、単層の自己符号化器に分割し入力層から繰り返し学習する層ごとの貪欲法を積層自己符号化器に適用した。
✅ 積層オートエンコーダ
- オートエンコーダを積み重ねて、逐次的に学習させる(事前学習)ことで重みを調整する
✅ ファインチューニング
-
学習済みのネットワークを利用して。新しい問題に対するネットワークの作成に利用する際に、利用した学習済みモデルに含まれるパラメータも同時に調整する方法。
-
積層オートエンコーダにロジスティック回帰層(あるいは線形回帰層)を追加し、仕上げの学習を行う。
✅ 深層信念ネットワーク
-
🎩ジェフリー・ヒントンが提唱。
-
確定的モデルに分類される。(深層ボルツマンマシンは確率的モデルに分類される)
-
隠れ層の数が多いニューラルネットワークで、効率の良い近似学習手法を提案した。
-
具体的には、教師なし学習による事前学習(制限付きボルツマンマシン)により効率的な学習を実現。
-
※ボルツマンマシン(参考)
ヒントンらによって開発された、確率的に動作するニューラルネットワーク。ネットワークの動作に温度の概念を取り入れ、最初は激しく徐々に穏やかに動作する(擬似焼きなまし法)ように工夫している。
✅ 現状
- 事前学習は計算コストが非常に高いので今は使われておらず、活性化関数を工夫することで解決している。
5-4.📘CPU と GPU
✅ CPU と GPU
-
CPU:Central Processing Unit、中央演算処理装置
-
(GPUと相対的に)少ないコア数で、複雑な計算を直列処理する。
-
コア単位の性能は高い。
-
-
GPU:Graphics Processing Unit
-
リアルタイム画像処理に特化した演算装置。近年は機械学習などでも利用される。
-
多くのコアで、単純な計算を並列処理する。
-
コア単位の性能は低い。
-
-
GPGPU:General-Purpose computing on GPU。
- 画像以外の目的に最適化されたGPU。
-
開発メーカー
-
-
GPUの開発をリード。ディープラーニングには不可欠。
-
2006年、GUGPUの開発基盤であるCUDAを発表。
-
2020年、Arm(英国のコンピューティング・アーキテクチャ開発企業)を買収。
-
2020年現在、GPUマーケットシェアの8割程度を占める。
-
-
-
ATI Technologiesを吸収合併し、GPUの開発にあたってきた。
-
2020年現在、GPUマーケットシェアの2割程度である。
-
-
Google
-
TPU:Tensor Processing Unit、テンソル計算に最適化されたもの。
-
分散並列技術であるDist BeliefもGoogleより2012年に提案されたものである。
-
-
5-5.📘ディープラーニングにおけるデータ量
✅ バーニーおじさんのルール (Uncle Bernie’s rule)
-
モデルを構築するためには、パラメータ数の10倍のデータ数が必要であるという経験則。
-
バーニーおじさんは、スタンフォード大学の教授である。
✅ 次元の呪い
-
データの次元が増えることにより、様々な不都合が生じる法則のこと。
-
具体的には、データの次元(例えば特徴の数)が大きくなると、データ分析における計算量が指数関数的に増大してしまう問題のことを指す。
-
対策のためには、次元数を減らす必要がある。
✅ その他の機械学習に関する定理
✓ ノーフリーランチ定理
-
組み合わせ最適化の領域での定理。
コスト関数の極値を探索するあらゆるアルゴリズムは、 全ての可能なコスト関数に適用した結果を平均すると同じ性能となる
-
あらゆる問題に対して万能なアルゴリズムは存在しない、ということ。
✓ みにくいアヒルの子定理
-
機械学習で、「普通のアヒル」と「みにくいアヒル」を見分けることはできない。
-
「認知できる全ての客観的な特徴」に基づくと、全ての対象は「同程度に類似」している。客観的に見ればどれも同じということ。 区別するためには、何らかの前提知識によって特徴量に重要性をつけなければならない。
✓ モラベックのパラドックス
-
機械にとっては、高度な推論より1歳児レベルの知能・運動スキルを身に着ける方が難しい。
高度な推論よりも感覚運動スキルの方が多くの計算資源を要する
ディープラーニング その他
ディープラーニングのフレームワーク
-
Tensorflow
-
Google社が開発。OSS。
-
数値解析、機械学習、ニューラルネットワークに対応。
-
プログラムによりネットワークを記述する。
-
※設定ファイルによりネットワークを記述 : Caffe, CNTK
-
-
Keras
-
Google社が開発。OSS。
-
Tensorflow上で動作し、ディープニューラルネットワークに対応。
-
プログラムによりネットワークを記述する。
-
-
Chainer
-
Preferred Networks が開発。
-
Define-by-Runという形式を採用しており、データを流しながらニューラルネットワークを構築する。
-
※構築後の実行はDefine-and-Runといわれる。
-
※プログラムによりネットワークを記述する。
-
2019年12月、開発を終了しPyTorchに移行すると発表。
-
-
-
Facebookが開発。
-
Chainerから派生。Define-by-Run 方式。
-
🎩ヨシュア・ベンジオ
-
ディープラーニングの父のひとりといわれる。
-
人間の知識では気づくことが出来ない共通点のことを「良い表現」としている。
-
複数の説明変数の存在
-
時間的空間的一貫性
-
スパース性
-
-
ディープラーニングのアプローチとして以下に着目している。
-
説明変数の階層的構造
-
タスク間の共通要因
-
要因の依存の単純性
-
6.📘ディープラーニングの手法
6-1.📘活性化関数
-
ニューラルネットワークにおいて、入力値から出力値を決定するための関数。
-
出力層は、回帰では恒等関数、多クラス分類ではソフトマックス関数が一般的に使用されてきた。
-
ソフトマックス関数(softmax関数):各ユニットの出力の総和を1に正規化する機能があり、確率を表現する。
- シグモイド関数を一般化したものであり、複数個の入力を受け取り、受け取った数と同じ個数の出力を総和が1となるように変換して出力する。主に出力層で使われる。
-
-
隠れ層ではさまざまな工夫ができ、tanh関数やReLU関数などが使われる
-
中間層の活性化関数として、従来は双曲線余弦関数などが一般的に利用されてきた.しかし,これらの活性化関数を利用すると勾配消失問題が起きやすいという問題があったため、近年は,入力が 0 を超えていれば入力をそのまま出力に渡し、0 未満であれば出力を 0 とするステップ関数や複数の線形関数の中での最大値を利用するMaxoutなどが利用されている。
✅ シグモイド関数
-
値の範囲は 0~1 。
-
微分の最大値は 0.25 。
- 層が深くなる(つまり「0.25×0.25×・・・」と積算を繰り返していく)と値がどんどんと小さくなるため、勾配を表す値も小さくなり消失してしまうという課題がある。
✅ tanh関数(ハイパボリックタンジェント関数):双曲線正接関数
-
値の範囲は -1~1 。(シグモイド関数よりも広い)
-
微分の最大値は 1 。
- 値が大きいため、シグモイド関数よりも勾配が消失しづらいという特徴を持つ。
-
活性化関数に用いられる関数の1つ。入力xの値を-1~1の範囲の値に変換する。主に隠れ層(中間層)で用いられる。
✅ ReLU関数(Rectified Linear Unit):正規化線形関数
-
活性化関数に用いられる関数の1つ。sigmoid関数やtanh関数よりも勾配消失が起きにくい。ただし、すべての問題に対して最適というわけではない。
-
特徴
-
現在、最もよく使われている。ニューラルネットワークにおける活性化関数のデファクトスタンダード。
-
x値が1より大きい場合、微分値が1になるため、勾配消失しにくい。
-
x値が0以下の場合、微分値が0になるため、学習がうまくいかない場合もある。
-
-
派生関数
-
Leaky ReLU: 0以下にわずかな傾き(0.01)を持たせることで微分値0を回避。
-
Parametric ReLU:0以下の傾きを固定値とせず、学習の対象としている。
-
Randomized ReLU:0以下の傾きをランダム値で設定する。
-
どれが一番よいと一概には言えない。
-
✅ 誤差関数
- モデルの予測値と実際の値(正解データ)との誤差を表した関数。
✅ 過学習
6-2.📘学習率の最適化
-
学習は、損失関数を最小にするためのパラメータを探索することが目標。
-
微分(偏微分)により関数の最小値を求めたいが、多次元なので難しい。(計算量が多くなってしまう)
✅ 勾配降下法
-
微分値(傾き)を下っていくことでパラメータを最適化する。(パラメータごとに行う)
-
関数の勾配に当たる微分係数に沿って降りていくことで、最小値を求める手法。大域最適解に必ず収束するわけではないので注意が必要。
-
-
イテレーション(iteration):計算の繰り返し数。
- 勾配降下法におけるパラメータの更新回数。2000個の学習データについて、バッチサイズ500個でミニバッチ学習する場合、(勾配降下法等による)重み更新を4イテレーション繰り返すと1エポック(epoch)。
-
学習率:勾配に沿って一度にどれくらい下る(移動するか)を表す。
-
手法の具体例
-
バッチ勾配降下法:すべての学習データを使って勾配降下を行う。
-
ミニバッチ勾配降下法:学習データから複数(バッチサイズ)を選択し誤差計算&パラメータ更新を繰り返す。
-
確率的勾配降下法(SGD):学習データから確率的にデータを選択し、誤差計算&パラメータ更新を行う。 Stochastic Gradient Descent。パラメータxを更新する為の勾配を求める際、全データの中からランダムに抜き出したデータを利用する(ミニバッチ学習)。
-
-
✅ 勾配降下法の問題と改善
-
局所最適解にはまり、大域最適解が求められない場合がある。
- 学習率の値を大きくすることで抜け出せるが、適宜値を小さくしていく必要がある。(値が大きいままだと飛び出して行ってしまう)
-
2次元の場合は停留点、3次元の場合は 鞍点(あんてん) にはまることもある。
✓ モーメンタム(Momentum、慣性)
-
以前に適用した勾配の方向を、現在のパラメータ更新にも影響させる。(慣性を効かせる)
-
SGDに慣性的な性質を持たせた手法。最小値まで辿り着く経路がSGDと比べて無駄の少ない動きとなっていると共に、停滞しやすい領域においても学習がうまくいきやすくなるといったメリットがある。
-
勾配降下で進む方向が、大きくブレにくくなる。(図の青い線)
✓ AdaGrad
-
稀なパラメータに対しては大きな更新、頻繁なパラメータに対しては小さな更新を行う。
-
具体的には、勾配を二乗した値を蓄積し、すでに大きく更新されたパラメータほど更新量(学習率)を小さくする。
-
課題 : 更新量が飽和したパラメータは更新されなくなる。
✓ Adadelta
✓ RMSprop
✓ Adam
6-3.📘更なるテクニック
- 更に精度を高めるためのテクニックがさまざまある。
✅ ドロップアウト(Dropout)
-
ランダムにニューロンをドロップアウトさせることで、ディープラーニングのオーバーフィッティング対策を行う。
-
ニューラルネットワークの学習の際、一定の確率でランダムにノードを無視して学習を行う手法で過学習を防ぐ効果がある。
-
これにより、アンサンブル学習を行っているのと同じような状況になる。
✅ アーリーストッピング(early stopping)
-
学習を早めに打ち切ることで、ディープラーニングのオーバーフィッティング対策を行う。
-
アンダーフィットからオーバーフィットに切り替わる途中で学習を止める、という単純なもの。
-
どんな手法でも使えるため、非常に強力である。
-
早期終了、早期打ち切り。学習の際、主に過学習が起きる前に学習を早めに切り上げて終了すること。
✅ データの正規化・重みの初期化
✓ データの正規化
データの途中処理ではなく、始めの工夫も必要かつ有効である。
-
- データの特徴量を 標準積分布(平均0、分散1) に変換する処理。
-
【注意】
- 上記3つは言葉と意味を混同しやすいので注意!
-
局所コントラスト正規化
- 減算正規化と除算正規化の処理を行う。画像処理で利用される。OpenCVなどの画像処理に特化したライブラリで行うことが可能。
-
- 各層で伝わってきたデータに対し、正規化を行う手法。
✓ 重みの初期化
-
ディープニューラルネットワークでは伝播を経て分布が崩れるため、データの正規化手法が有効に働かない場合がある。
-
重みの初期値を工夫することで解決をはかることができる。
-
重み初期化の工夫として、乱数にネットワークの大きさを合わせた適当な係数をかけることにより、データ分布の崩れにくい初期値が考案されている。
-
Xavierの初期値:シグモイド関数、tanh関数で有効。
-
Heの初期値:ReLU関数で有効。
-
✓ ベイズ最適化
- ハイパーパラメータを含めた最適化問題とすることで、効率的なチューニングができる。
✓ スパースなデータ
- 疎なデータ。スパース性を用いて計算量を削減するといった工夫がなされる。
✅ バッチ正規化
-
各層に伝わってきたデータを、その層でまた正規化するアプローチ。(最初に正規化をするだけでなく、層ごとに正規化を繰り返す)
-
データの正規化、重みの初期化と比較し、より直接的な手法となる。
-
非常に強力な手法で学習がうまくいきやすく、オーバーフィッティングしにくい。
-
学習が進むにつれて入力が変化する内部共変量シフトに対応することができる。(出力の分布の偏りを抑制する)
-
2015年に提案
-
内部共変量シフト:
入力の分布が学習の途中で大きく変わってしまう問題。
-
類似手法として、以下の正規化法がある
-
レイヤー正規化
-
インスタンス正規化
-
グループ正規化
-
✅ End to End Learning(一気通貫学習)
-
入力から出力までを一括で行う、ディープラーニングにおける重要な方法論。
-
以前は処理を分割していた(せざるを得なかった)が、ディープラーニングにより一括処理ができるようになった。
6-4.📘CNN(畳み込みニューラルネットワーク)
-
主に画像処理の分野で高い効果を上げているニューラルネットワーク。畳み込みやプーリングといった処理が行われる。
-
畳み込みニューラルネットワークに特有の構造として,畳み込み層とプーリング層がある。これらは画像から特徴量を抽出するために用いられる。逆に特徴量(特徴マップ)から画像を生成する際には、それらと逆の操作を行う。代表的な構造として,畳込み層の逆操作である逆畳込み層やプーリングの逆操作であるアンプーリング層がある。これらの構造を用いるタスクの例として画像セグメンテーションがある。
-
特徴
-
画像(2次元)をそのまま入力にできる。
-
人間がもつ視覚野の神経細胞(単純型細胞 S細胞、複雑型細胞 C細胞)を模している。
-
順伝播型ニューラルネットワークの一種で、時系列データの分析でも使える。
-
-
ネオコグニトロン
-
🎩福島邦彦が考案。
-
上記を組み込んだ最初のモデルで多層構造になっている。
-
学習方法は add-if silentであり 、微分(勾配計算)を用いない。
-
-
LeNet
-
その後の1998年、🎩ヤン・ルカン(Facebookに招かれた研究者、「MNIST:アメリカの国立標準技術研究所によって提供されている手書き数字のデータベース」の作成者)によって考案されたモデル。
-
ネオコグニトロンと基本的には同じ。
-
畳み込み層 と プーリング層(サブサンプリング層) による複数組合せ構造。
-
誤差逆伝播法 が使われる。
-
✅ 畳み込み層
-
フィルタ(カーネル) により画像の特徴を抽出する操作。
-
畳み込み処理前に画像に余白となるような部分を追加し、畳み込み処理後の特徴マップのサイズを調整するもの。
上記の例では(4, 4)のサイズの入力データに対して、幅1のパディング(網掛けの部分)を適用している。
入力データが(4, 4)のサイズに(3, 3)のフィルターを適用すると、出力サイズは(2, 2)となるが、幅1のパディングを適用することで出力サイズは(4, 4)となる。
\[OH = {\frac{H + 2P -FH}{S}} + 1\] \[OW = {\frac{W + 2P -FW}{S}} + 1\]※入力サイズ:\((H,W)\)、フィルターサイズ:\((FH,FW)\)、出力サイズ:\((OH,OW)\)、パディング:\(P\)、ストライド:\(S\)
-
フィルタを移動させる刻み。畳み込み処理においてカーネルを移動させる幅のこと。
-
フィルタを通して特徴マップを得る、フィルタの各値が重みにあたる。
-
畳み込みは移動不変性の獲得に貢献、位置ずれの強いモデルが作れる。
-
パラメータ数は全結合層よりも少ない。重み共有により有用な特徴量を画像の位置によって大きく変化させないためである。
✅ プーリング層
-
決められた演算を行うだけの層。(ダウンサンプリング、サブサンプリング)
-
そのため、学習すべきパラメータはない。
-
画像や特徴マップ等の入力を小さく圧縮する処理
✓ maxプーリング
- 2×2ごとに画像(特徴マップ)の最大値を抽出していく。最大プーリング。
✓ avgプーリング
- 平均値をとる。平均プーリング。
✓ Lpプーリング
- 周りの値をp乗してその標準偏差をとる。
✅ 全結合層
-
分類のためには出力を1次元にする必要があ。全結合層によりデータをフラットにする。
-
最近の傾向:
-
全結合層を用いない方法が増えており、1つの特徴マップに1つのクラスを対応させる Global Average Pooling(GAP) がほとんどになっている。
-
分類したいクラスと特徴マップを1対1対応させ、各特徴マップに含まれる値の平均を取ることで誤差を計算できるようにする手法。
-
-
✅ データ拡張(Data Augmentation)
-
画像に人工的な加工を行うことでデータの種類を増やすこと。
-
課題:
- 同じ物体でも「明るさ」「角度」「大きさ」などにより見え方が異なる。
-
対応:
-
データ拡張(データの水増し)を行う。
→ ずらす、反転、拡大・縮小、回転、歪め、切り取り、コントラスト変更 など
-
-
注意点:
- データ拡張により意味の変わってしまう画像がある。(ex.いいねマークを逆さまにすると違う意味)
✅ CNNの発展形
-
AlexNetの場合(基準として)
(畳み込み+プーリング)×3層 の構造をとる。
-
AlexNetよりも深いモデルになっている。
-
課題①
- 層を深くすると計算が大変
-
工夫①
-
課題②
- 超深層になると誤差の逆伝播がしづらくなるため、逆に性能が落ちる。
-
工夫②
-
Skip Connection : 層を飛び越えた結合を加える。
-
Skip Connection を導入したモデル、伝播しやすくアンサンブル学習にもなる。
入力層から出力層まで伝播する値と入力層の値を足し合わせたモデルである。
入力層まで勾配値がきちんと伝わるようになり、1000 層といったかなり深い構造でも学習が可能となった。
2015 年の ILSVRC では人間の成績を上回る成果をあげている。
ILSVRCで2015年1位。最大152層から構成されているネットワーク。層を飛び越えた結合(Skip connection)があることが特徴。
残差を学習することで深いネットワークの学習を容易にした。
クラス分類は層を沢山重ねた深い層であってもうまく学習ができるように出力を入力と入力からの差分の和としてモデリングしたネットワークの枠組みであり、 ResNet が提案され高い精度の識別性能を誇っている。
-
ILSVRCのモデル推移
-
DenseNet : 2016年に発表されたモデルで、前方の各層からの出力すべてが後方の層への入力として用いられるのが特徴で、Dense Blockと呼ばれる構造を持つ。
-
EfficietnNet : 2019年にGoogle社から発表されたモデルで、これまで登場していたモデルよりも大幅に少ないパラメータ数でありながら、SoTA(State of The Art)を達成。モデルの深さ、広さ、入力画像の大きさをバランス良く調整しているのが特徴。
-
6-5.📘再帰型ニューラルネットワーク(RNN)
-
リカレントニューラルネットワーク。過去の入力による隠れ層(中間層)の状態を現在の入力に対する出力を求める為に使う構造を持ったニューラルネットワーク。
-
時間依存の情報が含まれる系列データの処理に長けているニューラルネットワークである.RNN は、時間軸に沿って深いネットワーク構造を持つため勾配消失問題が起きやすいという特徴を持っていたが,RNN の一種である LSTM ではメモリー・セル、入力ゲート、忘却ゲートを含む LSTM Block を組み込むことで,長期間の系列情報に対しても勾配消失せずに学習を行うことができる.
-
特徴
-
時間情報を反映できるモデル。隠れ層に時間情報(過去の情報)を持たせることができる。
-
特徴は前回の中間層の状態を隠れ層に入力する再帰構造を取り入れたこと。
-
BackPropagation Through-Time(通時的誤差逆伝播:BPTT) : 時間軸に沿って誤差を反映していく。過去の時系列を遡りながら、誤差を計算していく手法。
-
自然言語処理でもよく用いられる。
-
再帰型ニューラルネットワークで、閉路がある。
-
-
-
勾配消失問題
ディープニューラルネットワーク(DNN)において層が深いと、誤差逆伝播法のとき、入力層に近づくにつれ誤差がどんどん小さくなり学習が収束しない問題がある
-
現在の入力に対し過去の情報の重みは小さくなくてはならないが、将来の為に大きな重みを残しておかなければならないという矛盾が、新しいデータの特徴を取り込む時に発生すること。
-
現在の入力に対し過去の情報の重みは小さくなくてはならないが、将来の為に大きな重みを残しておかなければならないという矛盾が、現在の状態を次時刻の隠れ層(中間層)へ出力する時に発生すること。
-
ネットワークにループ構造が含まれるため、中間層が1層でも勾配消失問題が起こる。
-
-
解決策
- LSTM手法を使う。
✅ LSTM(Long Short-Term Memory)
-
Long short-term memoryの略。「CEC(Constant Error Carousel)という情報を記憶する構造」と「データの伝搬量を調整する3つのゲートを持つ構造」を持つRNNを改良したモデル。
-
時系列データにおいてはデファクトスタンダード。Google翻訳でも利用されている。
-
🎩ユルゲン・シュミットフーバーと、ケプラー大学の🎩ゼップ・ホフレイターによる提案。
-
過去から未来に向けて学習し、遠い過去の情報でも出力に反映できる。
-
活性化関数の工夫ではなく、隠れ層の構造を変えることで解決する。
-
LSTMブロック機構を適用
-
CEC(Constant Error Carousel) : 誤差を内部にとどまらせ勾配消失を防ぐセル。
-
ゲート : 入力、出力、忘却の3つ。
-
各重み衝突に対応しつつ、誤差過剰を防止する忘却を持たせる。
-
-
機械翻訳や画像からのキャプション生成(画像の説明文生成)などにも利用できる。
-
課題
- ゲートが多いため計算量が多い
✅ GRU(Gated Recurrent Unit):ゲート付き回帰型ユニット
-
LSTMの計算量を少なくした手法。
-
リセットゲートと交信ゲートという2つのゲートを用いた構造のブロックから構成されるモデル。
✅ RNNの発展形
✓ Bidirectional RNN(双方向RNN(BiRNN))
-
未来から過去方向にも学習できるモデル。
-
2つのRNNが組み合わさった構造をしており、一方はデータを時系列通りに学習し、もう一方は時系列を逆順に並び替えて学習を行うモデル。
✓ RNN Encoder-Decoder
-
他モデルの問題
-
入力は時系列だが出力が一時点になってしまう。
-
特徴
-
出力も時系列である(sequence-to sequence)。
-
モデルはエンコーダとデコーダからなる。
-
✓ Attention
-
入力データの一部分に注意するような重みづけを行うことで重要な情報を取り出せるようにした手法。様々な種類がある。
-
他モデルの問題
-
どの時点の情報がどれだけ影響力を持っているかまではわからない。
-
特徴
- 時間の重みをネットワークに組み込んでいる。
-
Attention GAN
- 文章から画像を生成することができる。
その他の応用
✅ 転移学習
-
学習済みのネットワークを利用して、新しい問題に対するネットワークの作成に利用する際に、付け足した(または置き換えた)層のみを学習する方法。
-
学習済みのモデルを用いて追加学習を行う。
-
過学習を抑制することが出来る。
✅ 蒸留
-
学習済みの大規模モデルの入力と出力を使って新たに学習させる方法。
-
少ない計算資源で従来と同程度のモデルを作ることが出来る。
6-6.📘深層強化学習
✅ DQN(Deep Q-learning)
-
強化学習の手法であるQ学習と深層学習の組合せ。CNNの一種である。
-
Q関数(=行動価値関数)の最大化を目指す。
-
DeepMind ブロック崩しで採用された。
-
改良モデル:Double DQN, Dueling Network, Categorical DQN, Rainbow
-
応用事例:AlophaGo(アルファ碁)
6-7.📘深層生成モデル
ディープラーニングは生成タスクにも応用されている。
✅ 画像生成モデル
- 2015 年に google 社が通常の画像をまるで夢に出てくるかのような不思議な画像に変換して表示する Deep Dream というプログラムを発表し話題を呼んだ。
✓ VAE(Variable AutoEncoder)
-
変分オートエンコーダ、変分自己符号化器
-
オートエンコーダに完了を加えたモデルであり、新しいデータを生成することができるモデル。画像を生成する潜在変数の分布を学習し、入力画像を平均と分散に変換する。
-
変分ベイズ推定法の一種。
-
入力を統計分布に変換(平均と分散を表現)する。
-
ランダムサンプリングしたものをデコードすると新しいデータが生成できる。
✓ GAN(Generative Adversarial Network)
-
敵対的生成ネットワーク
-
ニューラルネットワークで深層生成モデルを構成する際の代表的なアーキテクチャの1つ。ジェネレータとディスクリミネータという敵対する目的を持つモデルを交互に学習していく。
-
🎩イアン・グッドフェローが提唱。
-
2種類のネットワーク(ジェネレータ:生成、ディスクリミネータ:識別)で競わせる。
-
画像生成への応用が顕著である。
-
これ自体はモデルでなくアーキテクチャを指す。
-
これを実装したモデルがDCGAN(Deep Convolutional GAN)。
-
🎩ヤン・ルカンは「機械学習において、この10年で最もおもしろいアイデア」とコメント
7.📘ディープラーニングの研究分野
7-1.📘画像認識
✅ ILSVRC(Imagenet Large Scale Visual Recognition Challenge)
-
画像認識のコンペティション、課題は位置課題、検出課題の2つ。
-
ImageNetと呼ばれるデータを使った画像認識の分類精度を競う競技会。
-
スタンフォード大学がインターネットから収集した画像群。
-
1400万枚を超える自然画像を収録したデータベース。
-
物体名は2万種以上。
-
✅ AlexNet
-
2012年、ILSVRCで優勝したSuperVisionでのモデル。
-
特徴は、ReLU、SRN、データ拡張、2枚のGPU利用。
-
パラメータ数は6千万個にものぼった。(ディープラーニングのパラメータは多い)
-
ILSVRCで2012年1位。ILSVRCにて初めて深層学習の概念を取り入れたモデル。ジェフリー・ヒントン教授らのチームによって発表された。
✅ R-CNN(Regional CNN)
-
関心領域の切り出し(一課題)は従来の手法を用いて行う。
-
Region CNN(領域ベースCNN)。2014年に発表されたCNNを用いた物体検出モデル。
※ バンディングボックス(物体検出。関心領域を表す矩形領域のこと)を求める回帰問題となる。
-
画像に写っている物体をバウンディングボックスと呼ばれる矩形(くけい)の領域で位置やクラスを認識するタスク。
-
-
検出課題についてはCNNを用いる。
-
上記組合せは、時間のかかる手法である。
✅ 高速RCNN(fast RCNN、Faster R-CNN)
-
関心領域の切り出しと物体認識を高速に行う手法。
-
最初から最後まで深層学習でできるようになった。
-
2015年にMicrosoft社が開発した物体検出アルゴリズム。
✅ faster RCNN
-
高速RCNNが改良され、ほぼ実時間で処理できるようになったモデル。
-
16フレーム/秒程度で処理可能。
✅ YOLO(You Only Look at Once)
-
検出と識別を同時に行うことで、遅延時間の短縮を実現したモデル。
-
物体検出手法の1つ。検出と識別を同時に行うのが特徴。
✅ SSD(Single Shot Detector)
-
YOLOより高速である。
-
Faster RCNNと同等の精度を実現。
-
物体検出の手法で、特徴の1つに小さなフィルタサイズのCNNを特徴マップに適応することで、物体のカテゴリと位置を推定することが挙げられる。
✅ セマンティックセグメンテーション
-
R-CNNのような矩形切り出しではなく、より詳細(画素単位)な領域分割を得るモデル。
-
完全畳み込みネットワーク(FCN)のモデルがあり、すべての層が畳み込み層で構成される。(単体では画像認識を行えない)
-
同じカテゴリに属する物体はすべて同一ラベルになる。
-
画像に写っているものをピクセル単位で領域やクラスを認識するタスク。物体領域を種類ごとに抽出する。
✅ インスタンスセグメンテーション
-
同じカテゴリに属する物体でもすべて別ラベルにできる。
-
画像に写っているピクセル単位で領域やクラスを認識するタスク。個別の物体領域を抽出する。
✅ SegNet
- 2017年に提案されたセマンティックセグメンテーションを行う手法の1つ。入力画像から特徴マップの抽出を行うEncoderと、抽出した特徴マップと元の画像のピクセル位置の対応関係をマッピングするDecoderで構成される。
✅ U-Net
- セマンティックセグメンテーションを行う手法の1つ。全層畳み込みニューラルネットワークの一種で、畳み込まれた画像をdecodeする際にencodeで使った情報を用いるのが特徴。
✅ Bag of Words
- Bag-of-Words(Bow)。どの単語が含まれるかに注目して単語をベクトル化する方法。
✅ 完全畳み込みネットワーク(FCN)
- 全ての層が畳み込み層。
✅ 画像データの前処理
-
リサイズ、トリミング
-
グレースケール化:
カラー画像を白黒画像に変換して計算量を削減する。
-
平滑化:
細かいノイズの影響を除去する。
-
ヒストグラム平均:
画素ごとの明るさをスケーリングする。
✅ 物体セグメンテーション
- 対象とする物体とその周囲の背景を境界まで切り分けるようなタスクを行うもの。
✅ 画像キャプション生成
- 画像内に表示されている女性を認識し,「青い服を着てスマートフォンをいじっている」などのようにその対象が何をしているかを表示させることができるようになりつつある。
7-2.📘自然言語処理
✅ 関連ワード
✓ 言語モデル
-
「単語の意味は、その周辺の単語によって決まる」という分布仮説がある。
✓ 分散表現
-
記号を計算機上で扱うための方法論。
-
単語を高次元の実数ベクトルで表現する技術。
-
単語分布図
-
-
単語を固定長のベクトルで表現する。
✓ 構文解析
- 文章(テキスト文字列)を形態素に切分け、その間の関連(修飾-被修飾など)といったような統語論的(構文論的)な関係を図式化するなどして明確にする(解析する)手続き。
✓ 照応解析
- 照応詞(代名詞や指示詞など)の指示対象を推定したり、省略された名詞句(ゼロ代名詞)を補完する処理のこと。
✓ 談話解析
- 文章中の文と文の間の役割的関係や話題の推移を明らかにするものである。形態素解析、構文解析、意味解析などの1文内の言語要素を対象にした解析とは異なる。
✓ 形態素解析
-
文を単語に分解し品詞を特定する。
-
形態素と呼ばれる言語で意味を持つ最小単位まで分割し、解析する手法。また、単純に単語を分割するだけでなくそれぞれの形態素の品詞等の判別も行う。
-
日本語は英語のようにスペースで区切られていない。分析のためには、単語を区切る必要がある。(参考)
「すもももももももものうち」 すもも(名詞,一般)/も(助詞,係助詞)/もも(名詞,一般)/も(助詞,係助詞)/もも(名詞,一般)/の(助詞,連体化)/うち(名詞,非自立)
✓ N-gram
-
単語ではなく、文字数で分割する手法。(N-gramの作り方:Qiita)
-
形態素解析よりも単純で、任意の連続したN文字単位で区切る。(参考)
たこ焼きが食べたい N=1 unigram unigram: た-こ-焼-き-が-食-べ-た-い N=2 bigram bigram: たこ-こ焼-焼き-きが-が食-食べ-べた-たい N=3 trigram trigram: たこ焼-こ焼き-焼きが-きが食-が食べ-食べた-べたい
✅ bag-of-words
-
文章に単語が含まれているかどうかを考えて、テキストデータを数値化(ベクトル化)する。
-
文の構成などは考えず、単語の出現のみに注目する。(参考)
✅ TF-IDF(Term Frequency - Inverse Document Frequency)
-
文章に含まれる単語の重要度を特徴量とする。
-
文書の中から、その文書の特徴語を抽出する時に使う値。
-
Term Frequency(TF)と、Inverse Document Frequency(IDF)の2つの情報から単語の重要度を算出する方法。大雑把言うと、レアな単語が何回も出てくるようなら、文書を分類する際にその単語の重要度を上げるというもの。
-
TF:単語の文書内の出現頻度。一つの文書内で出現する回数が多ければ重要である可能性が高い
\[\textrm{tf}(t,d)=\frac{n_{t,d}}{\sum_{s \in d}n_{s,d}}\]-
\(\textrm{tf}(t,d)\):文書 \(d\) 内のある単語 \(t\) のTF値
-
\(n_{t,d}\):ある単語 \(t\) の文書 \(d\) 内での出現回数
-
\(\sum_{s \in d}n_{s,d}\):文書 \(d\) 内のすべての単語の出現回数の和
-
-
IDF:ある単語が出てくる文書頻度の逆数。多くの文書に出現している単語は重要である可能性が低い。
\[\textrm{idf(t)}=\log{\frac{N}{df(t)}}+1\]-
\(\textrm{idf(t)}\):ある単語 \(t\) のIDF値
-
\(N\) : 全文書数
-
\(df(t)\):ある単語 tt が出現する文書の数
-
✅ トピックモデル
- 文書や単語に潜む潜在的なカテゴリを説明するモデル。
- 上の図の例のように、文章データ群があった際に、これは「政治、国会」についての話だなとか、「ノーベル賞、論文」についての話だな、各文章の主題(トピック)を判断するために、トピックモデルを構築します。
✅ LDA(潜在的ディリクレ配分法)Latent Dirichlet Allocation
- 文書集合から各文書におけるトピックの混合比率を推定する手法の1つ。各トピックから単語が生成される確率もトピックと同時に推定する。
✅ 隠れマルコフモデル(HMM)
-
HMM、Hidden Markov Model
-
直前の結果のみから次の結果が確率的に求まるという「マルコフ性」を仮定して、事象をモデル化する手法。観測されない隠れた状態を持つマルコフ過程。
✅ word2vec
-
単語の分散表現を獲得する、ニューラルネットワークを用いた推論ベースの手法。
-
ベクトル空間モデル、単語埋め込みモデルともいわれる。
-
2013年、Googleにより開発。
- 日本語モデルは東北大学や企業が公開している。(参考)
-
中間層の活性値を単語の意味ベクトルとみなす。
- 中間層の活性化関数の「重み」を分散表現とする。(参考)
-
王様-男性+女性=女王 のような計算ができる、というのが有名。
-
CBOWとスキップグラムの2つの手法がある。
✅ doc2vec
- 文章の分散表現を獲得する、ニューラルネットワークを用いた推論ベースの手法。
✓ CBOW(Countinuous Bag-of-Words)
-
周辺の単語を与えて、ある単語を予測する。
- 入力層が二つあり、中間層を経て出力層へとたどり着きます。
-
上記例はコンテクストは「毎朝」「を」、ニューラルネットワークが予想したい単語が「コーヒー」である例です。
-
図の中間層は各入力層の全結合による変換後の値が「平均」されたものになります。一つ目のの入力層が\(h_{1}\)二つ目の入力層が\(h_{2}\)に変換されたとすると中間層のニューロンは\(\frac{1}{2}(h_{1}+h_{2})\)になります。
-
入力層から中間層への変換は、全結合層(重みは\(W_{in}\))によって行われます。この時は全結合層の重み\(W_{in}\)は\(8×3\)の形状の行列になっていますが、この重みこそがCBOWを用いて作る単語の分散表現になります。
-
この時適切な重みを持ったニューラルネットワークでは「確率」を表すニューロンにおいて正解ニューロンが高くなっていることが期待できます。CBOWの学習では正解ラベルとニューラルネットワークが出力した確率の交差エントロピー誤差を求め、それを損失としてその損失を少なくしていく方向に学習を進めます。
-
CBOWモデルの損失関数は下記のように表されます。
(モデルを作成するに当たって用いるコンテクストを前後1単語とした場合)
- 上記損失関数をできるだけ小さくしていく方向で学習していくことで、その時の重みを単語の分散表現として獲得することができます。
✓ スキップグラム(Skip-gram)
-
ある単語を与えて、その周辺の単語を予測する。
-
CBOWでのコンテクストとターゲットを逆転させたようなモデル。
-
skip-gramの入力層はひとつで出力層はコンテクストの数だけ存在します。それぞれの出力層で個別に損失を求め、それらを足し合わせたものを最終的な損失とします。
-
また、skip-gramモデルの損失関数は下記の式で表されます。
(モデルを作成するに当たって用いるコンテクストを前後1単語とした場合)
\[\textrm{L}=-\frac{1}{T}\displaystyle\sum_{t=1}^T (\log{P}(w_{t-1} \mid w_{t})+\log{P}(w_{t+1} \mid w_{t}))\] -
skip-gramモデルはコンテクストの数だけ推測を行うためその損失関数は各コンテクストで求めた損失の総和を求める必要があります。
✅ fastText
-
🎩トマス・ミコロフらが開発。
-
単語表現に文字の情報も含めることができる。
-
訓練データにない単語が作れるようになる。
-
WikipediaとCommon Crawlによる157言語の訓練データがある
✅ ELMo
- 文章表現を得るモデル。
✅ マルチタスク言語処理
-
マルチタスク学習は単一のモデルで複数の課題を解く機械学習の手法。
-
自然言語では品詞づけ・文節判定・係り受け・文意関係(補強・反対・普通)・文関係の度合いを同時に学習させる。(参考)
✅ ニューラル画像脚注付け
-
NIC、Neural Image Captioning。
-
画像認識モデルの全結合直下層の情報を、言語生成用リカレントニューラルネットワークの中間層の初期値として用いる。
✅ ニューラルチューリングマシン
-
Neural Turing Machine:NTM
-
チューリングマシンをニューラルネットワークにより実現する試み。
-
微分可能であり、最急降下法による効率的な学習が可能。
✅ 💻Tay
-
Microsoft社が2016年に、19歳の女性の話し方を模倣するように設計されたチャットボット。
-
Twitter上で不適切な誘導を受け、不適切な行動を繰り返しサービスが停止された。
-
Gigazine-Microsoftの人工知能が「クソフェミニストは地獄で焼かれろ」「ヒトラーは正しかった」など問題発言連発で炎上し活動停止
✅ BERT
-
Bidirectional Encoder Representations from Transformers。
-
Google AI Languageの研究者が最新論文で発表した。
-
Google社が2018年に発表した双方向Transformerを使ったモデルで、事前学習に特徴がある。
-
参考 BERT解説:自然言語処理のための最先端言語モデル | AI専門ニュースメディア AINOW
Transformer
- Google社が2017年に発表した「Attention Is All You Need」という論文で登場した言語モデル。
マスクされた言語モデル(Masked Language Model:MLM)
- BERTにも用いられている事前学習のタスクで、文中の複数個所の単語をマスクし、本来の単語を予測する。
Next Sentence Prediction(NSP)
- BERTにも用いられている事前学習のタスクで、2文が渡され、連続した文かどうか判定する。
Gap Sentences Generation(GSG)
- PEGASUSというモデルにも用いられている事前学習のタスクで、複数個所の文をマスクし、本来の分を予測する。またマスク部分の決定はランダム以外の方法で決定する。
GPT-2
- OpenAIが2019年に発表したTransformerベースのテキスト生成モデル。800万のWEBページを学習している。高精度な為に開発陣が「あまりにも危険過ぎる」と危惧するあまり論文公開が延期される事態にまで発展したことで話題に。
音素
-
語の意味を区別する音声の最小単位。音声認識では、音素から単語への予測が行われることがある。
-
音素状態認識
音声の周波数スペクトル、すなわち音響特徴量をインプットとして、音素状態のカテゴリに分類する。
Cepstrum ケプストラム
- 音声認識で使われる特徴量の1つ。音声信号に対し、フーリエ変換を行った後、対数を取り、もう一度フーリエ変換を行い、作成する。
メル尺度
- 人間の音声知覚の特徴を考慮した尺度で、メル尺度の差が同じ時、人が感じる音高の差が同じになる。
メル周波数ケプストラム係数(MFCC)
- 音声認識の領域で使われることの多い特徴量の1つ。ケプストラムにメルメル周波数を考慮したもの。
マルコフ過程
- 確率モデルの1つ。マルコフ性(ある時刻の状態がその直前の状態によってのみ決まる特性で無記憶性ともいう)を持つ確率過程(時間とともに変化する確率変数)。
7-3.📘音声処理
✅ WaveNet
-
Google DeepMind社により開発。
-
音声合成と音声認識ができる。
-
自然な発話により、音声合成のブレイクスルーとして注目された。
-
2016年にDeepMind社によって開発された音声合成・音声認識に使われるモデル。PixelCNNというモデルをベースにしている。
✅ それまでの音声認識
- 1990年代では、隠れマルコフモデル(HMM) による音の判別モデルと、Nグラム法による語と語のつながりを判別する言語モデルでできていた。
7-4.📘ロボティクス (強化学習)
-
動作制御にはモンテカルロ法やQ学習が応用されている。
-
DQN(Deep Q Networks) アタリのゲームに対して応用された。
-
Q学習において、状態と行動の価値をこれまで得た報酬で近似するQ関数を、ニューラルネットワークで表現する手法。
-
-
アルファ碁 モンテカルロ木探索で成果を挙げた。
-
ある状態から行動選択を繰り返して報酬和を計算するということを複数回行った後、報酬和の平均値をある状態の価値とする価値推定方法。
-
-
アルファ碁ゼロ セルフプレイにより学習を進め、アルファ碁を凌駕した。
-
RAINBOWモデル 強化学習の性能を改善するための3つのモデルをすべて適用したもの。
-
- 現時点の方策で計算した報酬の期待値と方策を見比べて、どのように方策を変化させれば報酬の期待値が大きくなるかを直接計算する方法。
-
Deep Q NetworkをベースにDueling Network、Double DQN、Noisy Net、Categorical DQN等のアルゴリズムを全部載せしたアルゴリズム。
-
報酬の期待値を状態や行動の価値計算に反映する方法。
-
- 価値ベースの強化学習手法。状態sと行動aの組み合わせの価値を、状態sと行動aを選んだ後に得られる報酬和の期待値で表現する。
-
SARSA(参考)
-
モデルベース
-
-
- 行動を選択するActorと、Q関数を計算することで行動を評価するCriticを、交互に学習するアルゴリズム。
-
- 一連の行動による報酬和で方策を評価して、チョコ右折方策を改善する方策勾配法系のアルゴリズム。
-
- AlphaGoを改良したプログラム。人間の棋譜を一切使わずに、Alpha Zero自身の自己対戦によって棋譜を生成して、ゼロからニューラルネットワークを学習。
-
- GAN等を用いて人物の画像や映像を合成する技術。既存の画像と映像を、元となる画像または映像に重ね合わせて、非常に自然に合成をすることが可能。
✅ 強化学習の課題
-
学習時間
- 理論的には無限に学習できるが、実際は有限なため損耗し学習継続が困難になることがある。
-
マルチエージェント応用
-
複数のエージェントで相互学習を開始すると、初期段階での知識が不十分なため学習過程において不安定化が見られる。
-
対応のため、逆強化学習やDQNなどが適用されている。
-
7-5.📘マルチモーダル
-
五感や体性感覚(平衡感覚、空間感覚など)の複数の感覚情報を組み合わせて処理すること。
-
機械学習においては、複数の異なる情報を用いて学習することを、マルチモーダル学習という。
8.📘ディープラーニングの応用に向けて
8-1.📘産業への応用
- 整理難のため一部のみ記載。
✅ モビリティ
-
自動運転
-
内閣官房IT総合戦略室等、2020年無人自動走行による移動サービス。
-
2022年高速道路でのトラック隊列走行の商用化を目指す。
-
あわせて各種検討が行われている。(安全基準、交通ルール、保険等の責任関係、制度設計)
-
-
自動運転レベル
レベル 概要 運転操作の主体 レベル0:運転自動化なし ドライバーが全ての運転操作を実行。 ドライバー レベル1:運転支援 システムがアクセル・ブレーキ操作またはハンドル操作のどちらかを部分的に行う。 ドライバー レベル2:部分運転自動化 システムがアクセル・ブレーキ操作またはハンドル操作の両方を部分的に行う。 ドライバー レベル3:条件付運転自動化 決められた条件下で、全ての運転操作を自動化。ただし運転自動化システム作動中も、システムからの要請でドライバーはいつでも運転に戻れなければならない。 システム(システム非稼働時はドライバー) レベル4:高度運転自動化 決められた条件下で、全ての運転操作を自動化。 システム(システム非稼働時はドライバー) レベル5:完全運転自動化 条件なく、全ての運転操作を自動化。 ドライバー - 直接レベル3以上の運転自動化を目指すアプローチを採っているプレイヤーはIT企業である.また後者のアプローチを採る企業として著名なのは、google 社傘下のウェイモ(Waymo)社である.
-
ロボットタクシー
- 移動サービス(ロボットタクシー)の開発が進められている。
✅ 応用路線
-
Google 社・Facebook 社
- 言語データによる RNN や映像データからの概念・知識理解を目指す。
-
UC Berkeley
- 実世界を対象に研究を進め知識理解を目指す。
-
DeepMind 社
-
🎩デミス・ハサビスにより設立。
-
オンライン空間上でできることをターゲットにして知識理解を目指す。
-
8-2.📘法律
✅ 法
- 制約になり得るが、イノベーションの自由を支えるものでもある。
✅ プライバシー・バイ・デザイン
-
Privacy by Design:PbD
-
仕様検討段階からプライバシー侵害の予防を指向する。 他に、セキュリティ・バイ・デザイン や バリュー・バイ・デザイン がある。
✅ データの収集
-
以下を考慮する必要がある。
-
著作権法
-
不正防止競争防止法
-
個人情報保護法
-
個別の契約
-
その他の理由
成果(データ)をラボの外に出さなくても問題になるケースがある。(取得自体が問題になるケースも)
-
✅ 日本の著作権法
- 日本では「情報解析を行うために著作物を複製してもよい」とされており、世界的に見ても先進的である。
✅ オープンイノベーションの弊害
-
複数企業による研究開発が進んでいるが、トラブルも散見される。
-
認識のズレやプロジェクト管理の甘さから高額訴訟に至るケースもある。
-
システム開発の協力義務を念頭に、プロジェクトを注意深く推進することが求められる。
✅ AI・データの利用に関する契約ガイドライン
-
2018年、経済産業省が策定。
-
開発プロセスは以下の4段階
-
アセスメント
-
PoC
-
開発
-
追加学習
-
-
契約類型は以下の3つ
-
データ提供型
-
データ創出型
-
データ共用型
-
✅ 知的財産法
-
一定の条件を満たせば知的財産として保護される。
-
事前にケースを整理しておくとよい。
✅ 次世代知財システム検討委員会報告書
-
次世代知財システム検討委員会による。
-
報告書として取り纏められている。
✅ 利用者保護
-
当初目的以外でデータ利用する場合は再度レビューを行うこと。
-
利用目的はできる限り特定すること(個人情報保護法 15条1項)
-
利用目的変更では事前の本人同意が必要(16条1項)
-
本人の通知と公表を行う(18条1項)
- 個人データの漏洩防止など安全管理措置を講じること(20条)
-
従業員の監督義務(21条)、委託先の監督義務(22条)
-
データ内容の正確性の確保などに関する努力義務(19条)
-
EU一般データ保護規則(GDPR)にも注意。
- EUを含む欧州経済領域内にいる個人の個人データを保護する為のEUにおける統一的ルールである、域内で取得した「氏名」や「クレジットカード番号」等の個人データを域外に移転することを原則禁止している。EU域内でビジネスを行い、EU域内にいる個人の個人データを取得する日本企業に対しても、幅広く適用される。
✅ ドローンでの利用(参考)
✓ 許可が必要になる飛行場所
-
空港周辺
-
150m以上の上空
-
人家の密集地域(人口集中地区、DID地区)
✓ 承認が必要になる飛行方法
-
夜間飛行
-
目視外飛行
-
第三者やその所有物(家や車)の30m未満の距離での飛行
-
催し場所での飛行
-
危険物の輸送
-
物件投下
8-3.📘倫理
✅ IEEE P7000シリーズ
-
「倫理的に調和された設計」レポート。
-
倫理的な設計を技術段階、開発段階に取り込む試み。
✅ データセットの偏り
-
データセットによっては偏り・過少代表・過大代表などが生じる。
-
データベースに登録されていないことによる偏りも生じる可能性がある。
-
現実世界の偏りが増幅されることで、問題が生じる場合がある。
✅ カメラ画像利活用ガイド
-
経済産業省、総務省、IOT推進コンソーシアムによる。
-
企業が配慮すべきことをまとめている。
✅ 自律型致死性兵器(LAWS:Lethal Autonomous Weapon Systems)
✅ 人工知能学会 9つの指針
-
人類への貢献
-
法規制の遵守
-
他者のプライバシーの尊重
-
公正性
-
安全性
-
誠実な振る舞い
-
社会に対する責任
-
社会との対話と自己研鑽
-
人工知能への倫理遵守の要請
✅ 日本ディープラーニング協会の見解
-
ディープラーニングは決して万能なわけではない。
-
ディープラーニング以外の手法を使う方が有効な場合もある。
→ ディープラーニング自体が目的化してはならない。
-
ex.ワシントンDC「IMPACT」
-
教師のスコアリングにより解雇を行ったが、現場のニーズや実情に合致していなかった。
日本ディープラーニング協会
- 一般社団法人。Japan Deep Learning Association(JDLA)。G検定及びE検定の開催団体。
✅ 目標間のトレードオフ
-
協調フィルタリングにより、フィルタ・バブル(好みの情報にしか触れられなくなる)が生じる。
-
個別性と社会性のトレードオフになる。
-
FAT(Fairness, Accoutability, and Transparency:公平性・説明責任・透明性)という研究領域やコミュニティがある。
✅ Adversarial Example(Adversarial attacks) (参考)
-
ディープラーニングにおける重要な課題の一つ。
-
分類器に対する脆弱性攻撃のようなもの。
-
学習済みのディープニューラルネットモデルを欺くように人工的に作られたサンプルで、人の目には判別できない程度のノイズを加えることで作為的に分類器の判断を誤らせる。
-
絶対的に安全な技術はないことを認識しておくこと。
✅ クライシス・マネジメント(危機管理)
-
火消し(危機を最小限に抑える)、復旧(再発防止)が主眼。
-
エスカレーションの仕組みづくりが重要。防災訓練を行うこと。
-
危機管理マニュアルの有効性を検証する。
✅ 透明性レポート
-
プライバシーヤセキュリティについては、積極的に社会と対話する必要がある。
-
いくつかの個別企業では透明性レポートを公開している。
-
顧客・社会に向けて、収集したデータやその扱い等について開示したもの。
✅ 指針作り
-
Google
- AI技術開発の原則を公開、「AI at Google: our principles」。
-
Partnership on AI(PAI)
-
Amazon、Google、Facebook、IBM、Microsoftなどで組織された。
-
AIにおける公平性、透明性、責任などへの取組みを提示。
-
-
アシロマAI原則
-
2017年2月、世界中のAI研究者らが集まり発表。
-
AIの短期的、長期的な課題について公開。
-
「AIによる軍拡競争は避けるべきである」ことが明示された。
-
プラットフォーム等
Kaggle
- データサイエンティストのコンペティションプラットフォームであり、様々な企業や研究者データを投稿し、世界中のデータサイエンティストが自身のモデルの精度等を競っている。様々なデータに対する解法や考察等も存在し、閲覧することができる。
Coursera
- 機械学習等の分野をオンラインで学ぶことができる教育プラットフォーム。
MOOCs
- Courseraのような大規模なオンライン講座群のことで、Massive Open Online Coursesの略。
arXiv(アーカイヴ)
- 機械学習等の論文をアップロード・ダウンロードすることができるプラットフォームで、最新の研究等の情報を閲覧することができる。
フィルターバブル現象
- 商品のレコメンドシステムや検索エンジンにおいて、自分が見たいものや欲しい情報のみに包まれてしまう現象で、インターネット活動家であるイーライ・パリサーが2011年に出版した著書名から名前が付けられた。
人工知能学会
- 一般社団法人。人工知能に関する研究の進展と知識の普及を図り,もって学術・技術ならびに産業・社会の発展に寄与することを目的として設立された学会。
Ledge.ai
- 株式会社レッジが運営する「発想と実装の間をつなぐ」がコンセプトのAI/人工知能特化型Webメディア。
AINOW
- ディップ株式会社が運営するAI(人工知能)について知り・学び・役立てることができる国内最大級のメディア。
AI 機械学習 Wiki
- 機械学習自動化ソフトウェアのDataRobotが運営する用語集サイト。あらゆるスキルレベルのビジネスおよび分析の専門家向けの機械学習、データサイエンス、人工知能(AI)に関する用語の検索が可能。
Aidemy
- 株式会社アイデミーが運営するテックカレッジ。お薦めは「機械学習概論」と「ディープラーニング基礎」。
Chainer チュートリアル
- Chainerはニューラルネットワークの計算および学習を行うためのオープンソースのソフトウェアライブラリ。
Able Programming
- 機械学習やディープラーニングに関する動画を投稿しているYouTubeチャンネル。
その他
✅ 日本
✓ 新産業構造ビジョン
✓ 「人間中心のAI社会原則」及び「AI戦略2019(有識者提案)」
-
ディープラーニングの活用を進めていく必要性の高まりに対して,日本国内においてはそうした先端 IT 技術に精通した人材不足が懸念されている。
-
例えば、経済産業省が定めた先端 IT 人材がどのような人材需給状況にあるかの推定によると,2020 年には需給ギャップが広がり人材の不足は4.8万人に及ぶと言われている。
-
こうした人材不足を解消するべく、様々な方法で AI に理解のある人材育成が試みられている。そのような試みの一つとして,MOOCs は期待を寄せられている。著名な例としては、AI 研究の第一人者で,2014 年から 2017 年にかけて Baidu の AI 研究所所長を務めた🎩アンドリュー・ング(Andrew Ng)が創業した Coursera などは入門から上級まで様々なレベルの AI 講義が開かれており,多くの受講者を惹きつけるに至っている。
✅ 中国
✓ 中国製造2025
-
2025年までの中国製造業発展のロードマップ。
-
AI技術に関する取組み強化が明言されている。
-
ドイツのインダストリー4.0の影響を受けて作成されたと言われている。
✓ インターネットプラスAI3年行動実施方案
-
2016年、人工知能産業の促進に向けてインターネットプラスAI3年行動実施方案が発表された。
-
AI技術を重点領域で活用することで世界に通用するトップ企業を育成することを目的としている。
✅ 英国
✓ RAS2020戦略
- 2015年3月、政府はロボット工学・自律システム(RAS)分野の発展を支援すると表明。
✅ ドイツ
✓ デジタル戦略2025
-
2017年3月、ツィプリス大臣は連邦政府が2016年3月に策定した「デジタル戦略2025」を発表。
-
2025年までにドイツがいかにしてデジタル化を具体化していくか取り組むべき10の施策について提案している。
✅ アメリカ(米国)
-
2016年10月
PREPARING FOR THE FUTURE OF ARTIFICIAL INTELLIGENCE
を発行し、AI実業家や学生に対して倫理感が必要であることを主張している。 -
2016年
THE NATIONAL ARTIFICIAL INTELLIGENCE RESEARCH and DEVELOPMENT STRATEGIC PLAN
を発行し、判断結果の理由をユーザに説明できるAIプログラムを開発することが必要であることを主張した。 -
2016年12月
ARTIFICIAL INTELLIGENCE AUTOMATION, AND THE ECONOMY
で、AIの普及が最大で300万件越えの雇用に影響を与える可能性があるなど、これから表面化するであろうリスクへの対応策を事前に協議している。 -
ネバダ州では自動運転の走行や運転免許が許可制にて認められた。
✅ Coursera
-
🎩 アンドリュー・ング(Andrew Ng) による。(「GoogleBrain」にも携わり、Baidu研究所に勤務する)
-
初級から上級までAIに関する講義が行われている。
✅ XAI
- 解釈性の高いもしくは説明可能なAIのこと。米国DARPA(Defence Advanced Research Projects Agency: 国防高等研究計画局)が主導する研究プロジェクトが発端となり、XAI(Explainable AI)と呼ばれる。
✅ 匿名加工情報
- 個人方法を加工することで特定の個人を識別することができないようにし、当該個人情報を復元不可にした情報。
参考
以下のサイトからの情報をもとに個人でまとめました。
Subscribe via RSS