Home
 

Home > コンピュータ・一般書 > プログラミング・開発 > Pythonではじめる機械学習 scikit-learnで学ぶ特徴量エンジニアリングと機械学習の基礎

Pythonではじめる機械学習 scikit-learnで学ぶ特徴量エンジニアリングと機械学習の基礎

・著者:Andreas C. Muller、Sarah Guido/中田 秀基978-4-87311-798-0
・定価:3,672 円(本体3,400 円+税)
・B5変 392頁

・ISBN

・発売日


かごに入れる

※本体価格は変更される場合があります。
※通常2〜3日以内で発送いたします。

合計5000円(税別)以上のご注文の場合、配送料は無料となります。

数学の知識がなくても読み進められる、理論だけでなく実践面も重視した機械学習の入門書!

 

バックグラウンドに数学的な知識がなくても理解できるように書かれた、Pythonを使った機械学習の入門書。Pythonの機械学習用ライブラリの大定番、scikit-learnの開発に関わる著者が、scikit-learnを使った機械学習の方法を、ステップバイステップで解説します。最初に実践について述べて後から理論を補強するスタイルで、理解しやすいように工夫されています。理論面と実践面のバランスが良く、モデルの評価と改善について多くの紙面を割くなど、類書にはない特徴を備えています。

2017/05
★このような方におすすめ
データサイエンティスト、学生、機械学習に興味がある人。
主要目次

ページトップへ戻る
詳細目次
目次
まえがき

1章 はじめに
    1.1 なぜ機械学習なのか?
        1.1.1 機械学習問題へのアプローチ械学習で解決可能な問題
        1.1.2 タスクを知り、データを知る
    1.2 なぜ Pythonなのか?
    1.3 scikit-learn
        1.3.1 scikit-learnのインストール
    1.4 必要なライブラリとツール
        1.4.1 Jupyter Notebook
        1.4.2 NumPy
        1.4.3 SciPy
        1.4.4 matplotlib
        1.4.5 pandas
        1.4.6 mglearn
    1.5 Python 2 vs. Python 3
    1.6 本書で用いているバージョン
    1.7 最初のアプリケーション:アイリスのクラス分類
        1.7.1 データを読む
        1.7.2 成功度合いの測定:訓練データとテストデータ
        1.7.3 最初にすべきこと:データをよく観察する
        1.7.4 最初のモデル: k-最近傍法
        1.7.5 予測を行う
        1.7.6 モデルの評価
    1.8 まとめと今後の展望

2章 教師あり学習
    2.1 クラス分類と回帰
    2.2 汎化、過剰適合、適合不足
        2.2.1 モデルの複雑さとデータセットの大きさ
    2.3 教師あり機械学習アルゴリズム
        2.3.1 サンプルデータセット
        2.3.2 k-最近傍法
        2.3.3 線形モデル
        2.3.4 ナイーブベイズクラス分類器
        2.3.5 決定木
        2.3.6 決定木のアンサンブル法
        2.3.7 カーネル法を用いたサポートベクタマシン
        2.3.8 ニューラルネットワーク(ディープラーニング)
    2.4 クラス分類器の不確実性推定
        2.4.1 決定関数( Decision Function)
        2.4.2 確率の予測
        2.4.3 多クラス分類の不確実性
    2.5 まとめと展望

3章 教師なし学習と前処理
    3.1 教師なし学習の種類
    3.2 教師なし学習の難しさ
    3.3 前処理とスケール変換
        3.3.1 さまざまな前処理
        3.3.2 データ変換の適用
        3.3.3 訓練データとテストデータを同じように変換する
        3.3.4 教師あり学習における前処理の効果
    3.4 次元削減、特徴量抽出、多様体学習
        3.4.1 主成分分析( PCA)
        3.4.2 非負値行列因子分解( NMF)
        3.4.3 t-SNEを用いた多様体学習
    3.5 クラスタリング
        3.5.1 k-meansクラスタリング
        3.5.2 凝集型クラスタリング
        3.5.3 DBSCAN
        3.5.4 クラスタリングアルゴリズムの比較と評価
        3.5.5 クラスタリング手法のまとめ
    3.6 まとめと展望

4章 データの表現と特徴量エンジニアリング
    4.1 カテゴリ変数
        4.1.1 ワンホットエンコーディング(ダミー変数)
        4.1.2 数値でエンコードされているカテゴリ
    4.2 ビニング、離散化、線形モデル、決定木
    4.3 交互作用と多項式
    4.4 単変量非線形変換
    4.5 自動特徴量選択
        4.5.1 単変量統計
        4.5.2 モデルベース特徴量選択
        4.5.3 反復特徴量選択
    4.6 専門家知識の利用
    4.7 まとめと展望

5章 モデルの評価と改良
    5.1 交差検証
        5.1.1 scikit-learnでの交差検証
        5.1.2 交差検証の利点
        5.1.3 層化 k分割交差検証と他の戦略
    5.2 グリッドサーチ
        5.2.1 単純なグリッドサーチ
        5.2.2 パラメータの過剰適合の危険性と検証セット
        5.2.3 交差検証を用いたグリッドサーチ
    5.3 評価基準とスコア
        5.3.1 最終的な目標を見失わないこと
        5.3.2 2クラス分類における基準
        5.3.3 多クラス分類の基準
        5.3.4 回帰の基準
        5.3.5 評価基準を用いたモデル選択
    5.4 まとめと展望

6章 アルゴリズムチェーンとパイプライン
    6.1 前処理を行う際のパラメータ選択
    6.2 パイプラインの構築
    6.3 パイプラインを用いたグリッドサーチ
    6.4 汎用パイプラインインターフェイス
        6.4.1 make_pipelineによる簡便なパイプライン生成
        6.4.2 ステップ属性へのアクセス
        6.4.3 GridSearchCV内のパイプラインの属性へのアクセス
    6.5 前処理ステップとモデルパラメータに対するグリッドサーチ
    6.6 グリッドサーチによるモデルの選択
    6.7 まとめと展望

7章 テキストデータの処理
    7.1 文字列として表現されているデータのタイプ
    7.2 例題アプリケーション:映画レビューのセンチメント分析
    7.3 Bag of Wordsによるテキスト表現
        7.3.1 トイデータセットに対する BoW
        7.3.2 映画レビューの BoW
    7.4 ストップワード
    7.5 tf.idfを用いたデータのスケール変換
    7.6 モデル係数の調査
    7.7 1単語よりも大きい単位の Bag-of-Words (n-グラム )
    7.8 より進んだトークン分割、語幹処理、見出し語化
    7.9 トピックモデリングと文書クラスタリング
        7.9.1 LDA(Latent Dirichlet Allocation)
    7.10 まとめと展望

8章 おわりに
    8.1 機械学習問題へのアプローチ
        8.1.1 人間をループに組み込む
    8.2 プロトタイプから運用システムへ
    8.3 運用システムのテスト
    8.4 独自 Estimatorの構築
    8.5 ここからどこへ行くのか
        8.5.1 理論
        8.5.2 他の機械学習フレームワークとパッケージ
        8.5.3 ランキング、推薦システム、その他の学習
        8.5.4 確率モデル、推論、確率プログラミング
        8.5.5 ニューラルネットワーク
        8.5.6 大規模データセットへのスケール
        8.5.7 名誉を得る
    8.6 結論

索引
ページトップへ戻る