- はじめに
 - 識別とは
 - 識別の流れ
 - ラベルについて
 - 回帰とは(ここでは扱わない)
 - 教師あり,教師なし,半教師あり
 - ディープラーニング(深層学習)とは
 
- 環境設定について
 - anacondaの紹介
 - macOS:ダウンロードとインストール
 - macOS:起動と終了
 - macOS:アップデート
 - macOS:ターミナルでの操作
 - windows:ダウンロードとインストール
 - windows:起動と終了
 - windows:アップデート
 - windows:コマンドプロンプトでの操作
 - linux:ダウンロードとインストール
 - linux:起動と終了
 - linux:アップデート
 - linux:ダウングレード
 - linux:GUIのAnaconda navigator
 - linux:anacondaを使わずaptとpipでインストールするなら
 - オプション:dockerを使うなら
 - オプション:どうしてもクラウドというならSageMathCloud
 
- ipython notebookの簡単な使い方
 - レクチャー用のnotebookのダウンロードはこちら(ソースコードはここにあります)
 - 参考ウェブサイト
 - 2次元のデータで識別の例 03_01
 - 癌のデータを識別:学習とテストを半々に 03_02
 - アヤメのデータを識別:学習とテストを半々に,したらダメ 03_03
 - アヤメのデータを識別2:学習とテストをランダムに半分に 03_03
 - アヤメのデータを識別3:ランダムに分けて何度も 03_04
 
- 学習データとテストデータの分け方概論
 - 学習データとテストデータが同じ場合 04_01
 - Hold-out 04_02
 - Hold-out 2: stratified 04_03
 - cross validation, stratified 10-fold CV 04_04
 - Leave One Out, Leave-p-out, Leave-one-gruop-out 04_05
 - 学習データ・検証データとテストデータ 04_06
 
- データから特徴量へ
 - 欠損値の扱い・データクリーニング 05_01
 - 特徴抽出:テキストデータと特徴量 05_02
 - 特徴抽出:画像データと特徴量 05_02
 - 特徴選択 05_03
 - 特徴変換:PCA 05_04
 - 特徴変換:PCAと次元削減 05_04
 - 特徴変換:非線形(多項式)変換 05_04
 - 標準化 05_05
 - スケーリング 05_05
 - 正規化 05_05
 - PCA白色化 05_05
 - ZCA白色化 05_05
 
- 2クラス問題のconfusion matrix 06_01
 - 2クラス問題で重要なTP, TN, FP, FN 06_01
 - 多クラス問題のconfusion matrix 06_01
 - PCAで文字認識 06_01
 - precisionとrecall 06_02
 - f-measure,f値 06_02
 - precision, recall, f-measureをいっぺんに 06_02
 - 多クラス分類のprecisionとrecall 06_02
 - ROC AUC 06_03
 - ランダムならどうなるROC 06_03
 - average precision, AP 06_03
 - 多クラス問題のmAP 06_03
 
- 2クラス識別と多クラス識別 07_01
 - 多クラス識別:One-vs-Rest (ロジスティック回帰) 07_01
 - 多クラス識別:One-vs-Rest (SVM) 07_01
 - 多クラス識別:One-vs-One (SVM) 07_01
 - 多クラス識別:ovrとovoの補足 07_01
 - kNN:最近傍識別器 (NN),k近傍識別器 (kNN) 07_02
 - kNN:KNNの亜種:radius NN 07_02
 - kNN:スケーリングしてKNN 07_02
 - パーセプトロン 07_03
 - パーセプトロン:平面・直線の数式
 - パーセプトロン:学習則
 - パーセプトロン:損失関数
 - パーセプトロン:損失関数をインタラクティブに 07_03
 - パーセプトロン:ランダムな動作 07_03
 - パーセプトロン:癌データの認識 07_03
 - パーセプトロン:まとめ 07_03
 - ロジスティック回帰 07_04
 - ロジスティック回帰:癌データの認識 07_04
 - ロジスティック回帰:2次元データで確率の予測 07_04
 - ロジスティック回帰:別の2次元データでも確率を 07_04
 - SVM:サポートベクターマシン,SVC 07_05
 - SVM:マージン,サポートベクトル,確率 07_05
 - SVM:非線形カーネル(rbf, poly) 07_05
 - SVM:癌データの認識 07_05
 - MLP:多層パーセプトロン 07_06
 - MLP:層を変えてみる 07_06
 - MLP:癌データの認識 07_06
 - ランダムフォレスト:2次元データの認識 07_07
 



					
					
						









