機械学習とは
  • はじめに
  • 識別とは
  • 識別の流れ
  • ラベルについて
  • 回帰とは(ここでは扱わない)
  • 教師あり,教師なし,半教師あり
  • ディープラーニング(深層学習)とは
Jupyter notebookの設定(Pythonプログラミングの環境設定)
  • 環境設定について
  • anacondaの紹介
  • macOS:ダウンロードとインストール
  • macOS:起動と終了
  • macOS:アップデート
  • macOS:ターミナルでの操作
  • windows:ダウンロードとインストール
  • windows:起動と終了
  • windows:アップデート
  • windows:コマンドプロンプトでの操作
  • linux:ダウンロードとインストール
  • linux:起動と終了
  • linux:アップデート
  • linux:ダウングレード
  • linux:GUIのAnaconda navigator
  • linux:anacondaを使わずaptとpipでインストールするなら
  • オプション:dockerを使うなら
  • オプション:どうしてもクラウドというならSageMathCloud
最初の例題:学習から識別まで
  • ipython notebookの簡単な使い方
  • レクチャー用のnotebookのダウンロードはこちら(ソースコードはここにあります)
  • 参考ウェブサイト
  • 2次元のデータで識別の例 03_01
  • 癌のデータを識別:学習とテストを半々に 03_02
  • アヤメのデータを識別:学習とテストを半々に,したらダメ 03_03
  • アヤメのデータを識別2:学習とテストをランダムに半分に 03_03
  • アヤメのデータを識別3:ランダムに分けて何度も 03_04
学習データとテストデータの準備
  • 学習データとテストデータの分け方概論
  • 学習データとテストデータが同じ場合 04_01
  • Hold-out 04_02
  • Hold-out 2: stratified 04_03
  • cross validation, stratified 10-fold CV 04_04
  • Leave One Out, Leave-p-out, Leave-one-gruop-out 04_05
  • 学習データ・検証データとテストデータ 04_06
データから特徴量へ
  • データから特徴量へ
  • 欠損値の扱い・データクリーニング 05_01
  • 特徴抽出:テキストデータと特徴量 05_02
  • 特徴抽出:画像データと特徴量 05_02
  • 特徴選択 05_03
  • 特徴変換:PCA 05_04
  • 特徴変換:PCAと次元削減 05_04
  • 特徴変換:非線形(多項式)変換 05_04
  • 標準化 05_05
  • スケーリング 05_05
  • 正規化 05_05
  • PCA白色化 05_05
  • ZCA白色化 05_05
テストデータの評価方法
  • 2クラス問題のconfusion matrix 06_01
  • 2クラス問題で重要なTP, TN, FP, FN 06_01
  • 多クラス問題のconfusion matrix 06_01
  • PCAで文字認識 06_01
  • precisionとrecall 06_02
  • f-measure,f値 06_02
  • precision, recall, f-measureをいっぺんに 06_02
  • 多クラス分類のprecisionとrecall 06_02
  • ROC AUC 06_03
  • ランダムならどうなるROC 06_03
  • average precision, AP 06_03
  • 多クラス問題のmAP 06_03
いろいろな識別器
  • 2クラス識別と多クラス識別 07_01
  • 多クラス識別:One-vs-Rest (ロジスティック回帰) 07_01
  • 多クラス識別:One-vs-Rest (SVM) 07_01
  • 多クラス識別:One-vs-One (SVM) 07_01
  • 多クラス識別:ovrとovoの補足 07_01
  • kNN:最近傍識別器 (NN),k近傍識別器 (kNN) 07_02
  • kNN:KNNの亜種:radius NN 07_02
  • kNN:スケーリングしてKNN 07_02
  • パーセプトロン 07_03
  • パーセプトロン:平面・直線の数式
  • パーセプトロン:学習則
  • パーセプトロン:損失関数
  • パーセプトロン:損失関数をインタラクティブに 07_03
  • パーセプトロン:ランダムな動作 07_03
  • パーセプトロン:癌データの認識 07_03
  • パーセプトロン:まとめ 07_03
  • ロジスティック回帰 07_04
  • ロジスティック回帰:癌データの認識 07_04
  • ロジスティック回帰:2次元データで確率の予測 07_04
  • ロジスティック回帰:別の2次元データでも確率を 07_04
  • SVM:サポートベクターマシン,SVC 07_05
  • SVM:マージン,サポートベクトル,確率 07_05
  • SVM:非線形カーネル(rbf, poly) 07_05
  • SVM:癌データの認識 07_05
  • MLP:多層パーセプトロン 07_06
  • MLP:層を変えてみる 07_06
  • MLP:癌データの認識 07_06
  • ランダムフォレスト:2次元データの認識 07_07