続・わかりやすい パターン認識 −教師なし学習入門−

定番「わかりやすい パターン認識」の続編!ベイズ統計学の基礎から、最新のノンパラメトリックベイズモデルまでやさしく解説した唯一の書籍!

このような方におすすめ

音声・画像処理関連の研究を行う研究者、技術者、大学院生
ビッグデータ解析に関心のある研究者、技術者
  • 著者石井 健一郎 上田 修功 共著
  • 定価3,520 (本体3,200 円+税)
  • A5 320頁 2014/08発行
  • ISBN978-4-274-21530-8
  • 定価
  • ポイント0
  • 数量

※本体価格は変更される場合があります。
※通常2〜3日以内で発送いたします。

  • 概要
  • 主要目次
  • 詳細目次

初学者にはとっつきにくいパターン認識の基本を丁寧な図解と数式展開で解説して好評を得てきた、1998年発行「わかりやすい パターン認識」の続編です。前作で取り上げることのできなかった教師なし学習を主に取り上げてわかりやすくまとめました。教師なし学習を理解することで、より広い対象の音声・画像処理技術、ビッグデータなどを扱うことができるようになります。また、ノンパラメトリックベイズモデルについてわかりやすく解説した日本語の書籍は本書のみで、機械学習やパターン認識をこれから志す研究者、学生の方にもおすすめです。

https://www.ohmsha.co.jp/book/9784274215308/
第1章 ベイズ統計学
第2章 事前確率と事後確率
第3章 ベイズ決定則
第4章 パラメータ推定
第5章 教師付き学習と教師なし学習
第6章 EMアルゴリズム
第7章 マルコフモデル
第8章 隠れマルコフモデル
第9章 混合分布のパラメータ推定
第10章 クラスタリング
第11章 ノンパラメトリックベイズモデル
第12章 ディリクレ過程混合モデルによるクラスタリング
第13章 共クラスタリング
付録A 補足事項
(凸計画問題と最適化,イェンゼンの不等式,ベクトルと行列に関する基本公式,KLダイバージェンス,ギブスサンプリング,ウィシャート分布と逆ウィシャート分布,,ベータ・ベルヌーイ過程)
第1章 ベイズ統計学
 1・1 試行と事象
 1・2 ベイズの定理
 1・3 頻度から確信度ヘ
 1・4 逆確率 -結果から原因を-
 1・5 三つの扉問題
 〔1〕 扉Aが当たりの場合
 〔2〕 扉Bが当たりの場合
 〔3〕 扉Cが当たりの場合

第2章 事前確率と事後確率
 2・ 1 事後確率の計算
 〔1〕 コインを1度だけ投げる場合
 〔2〕 コインをn回投げる場合
 2・2 ベイズ更新
 2・3 ベイズ更新の実験

第3章 ベイズ決定則
 3・1 パターン認識
 3・2 事後確率最大化
 3・3 事前確率の効果
 3・4 ベイズ誤り確率

第4章 パラメータ推定
 4・1 学習とパラメータ推定
 4・2 最尤推定
 4・3 ベイズ推定
 4・4 ベータ分布
 4・5 共役事前分布
 4・6 ベイズ推定における推定値の特定
 4・7 ベイズ推定の実験
 〔1〕 観測回数の効果
 〔2〕 事前分布の効果
 4・8 最尤推定とベイズ推定との比較
 4・9 ディリクレ分布
 
第5章 教師付き学習と教師なし学習
 5・1 学習のための二つの観測方法
 5・2 最尤推定に必要な数学
 5・3 教師付き学習
 〔1〕 パラメータπiの推定
 〔2〕 パラメータθikの推定
 5・4 教師なし学習
 〔1〕 パラメータπiの推定
 〔2〕 パラメータθikの推定
 〔3〕 推定結果の妥当性
 〔4〕 教師付き学習との関係
 〔5〕 教師なし学習アルゴリズムの演算
 5・5 教師なし学習の実験

第6章 EMアルゴリズム
 6・1 教師なし学習に伴う問題
 6・2 log-sumからsum-logヘ
 6・3 Q関数の特性
 6・4 Q関数の最大化
 〔1〕 R1の最大化
 〔2〕 R2の最大化
 6・5 EMアルゴリズムと補助関数法
 〔1〕 非負値行列因子分解とEMアルゴリズム
 〔2〕 補助関数法

第7章 マルコフモデル
 7・1 マルコフ性とマルコフモデル
 7・2 マルコフモデルのパラメータ推定
 〔1〕 Laの最大化
 〔2〕 Lbの最大化
 〔3〕 Lρの最大化

第8章 隠れマルコフモデル
 8・1 隠れマルコフモデルとは
 8・2 前向き・後向きアルゴリズム
 8・3 ビタービアルゴリズム
 8・4 バウム・ウェルチアルゴリズム
 〔1〕 Q(θ゜,A)の最大化
 〔2〕 Q(θ゜,B)の最大化
 〔3〕 Q(θ゜,ρ)の最大化
 8・5 隠れマルコフモデルによる識別系
 8・6 隠れマルコフモデルの実験
 〔1〕 前向きアルゴリズムの実験
 〔2〕 ビタービアルゴリズムの実験
 〔3〕 バウム・ウェルチアルゴリズムの実験
 〔4〕 識別実験

第9章 混合分布のパラメータ推定
 9・1 混合分布に対するパラメトリックな学習
 9・2 教師付き学習によるパラメータ推定
 9・3 教師なし学習によるパラメータ推定
 〔1〕 最適なパラメータ
 〔2〕 教師付きの場合との対比
 〔3〕 EMアルゴリズムとの関係
 9・4 混合正規分布のパラメータ推定
 9・5 混合正規分布のパラメータ推定実験
 〔1〕 一次元正規分布
 〔2〕 多次元正規分布
 〔3〕 クラスタリングについて

第10章 クラスタリング
 10・1 クラスタリングとは
 10・2 K-means法
 〔1〕 δkに関する最小化
 〔2〕 Piに関する最小化
 10・3 K-means法の実験
 〔1〕 使用データおよびベイズ識別関数による決定境界
 〔2〕 K-means法による決定境界
 10・4 K-means 法とEMアルゴリズム
 10・5 凸クラスタリング法
 10・6 凸クラスタリング法の実験
 10・7 クラスタ数の推定

第11章 ノンパラメトリックベイズモデル
 11・1 分割の確率モデル
 11・2 ホップの壺モデル
 11・3 中華料理店過程
 11・4 事前確率のための確率モデル
 11・5 ディリクレ分布から分割ルールヘ
 11・6 ディリクレ過程の数学
 〔1〕 ディリクレ過程の定義
 〔2〕 確率分布G(θ)の形状
 〔3〕 棒折り過程

第12章 ディリクレ過程混合モデルによるクラスタリング
 12・1 ディリクレ過程混合モデルとその学習法
 〔1〕 クラスタリング法1:所属クラスタとそのパラメータの決定
 〔2〕 クラスタリング法2:所属クラスタのみ決定
 12・2 ノンパラメトリックベイズモデルの実験
 〔1〕 基底分布の設定
 〔2〕 クラスタリング法1の実験
 〔3〕 クラスタリング法2の実験

第13章 共クラスタリング
 13・1 関係データに対する共クラスタリング
 13・2 無限関係モデル(IRM)
 13・3 IRMの学習

付録A 補足事項
 A・1 凸計画問題と最適化
 〔1〕 凸集合と凸関数
 〔2〕 正定値および半正定値
 〔3〕 へッセ行列
 〔4〕 最適化問題
 A・2 イェンゼンの不等式
 A・3 ベクトルと行列に関する基本公式
 A・4 KLダイバージェンス
 A・5 ギブスサンプリング
 A・6 ウィシャート分布と逆ウィシャート分布
 〔1〕 ウィシャート分布
 〔2〕 逆ウィシャート分布
 A・7 ベータ・ベルヌーイ過程