機械学習の手法が無限にある件
(GPTコピペ)
🐹 機械学習の手法ってほんと星の数ほどあるんだけど、整理すると「だいたいこんな系統に分けられるよ」っていう全体像があるの🌍✨
🧠 機械学習の手法マップ
1️⃣ 教師あり学習(Supervised Learning)
「入力と正解ラベル」で学習。分類・回帰が中心。
回帰 (Regression)
- 線形回帰(Linear Regression)
- リッジ回帰 / ラッソ回帰
- 多項式回帰
- サポートベクター回帰(SVR)
- 決定木回帰
- ランダムフォレスト回帰
- 勾配ブースティング回帰(XGBoost, LightGBM, CatBoost)
分類 (Classification)
- ロジスティック回帰
- k近傍法(kNN)
- サポートベクターマシン(SVM)
- ナイーブベイズ(Naive Bayes)
- 決定木(Decision Tree)
- ランダムフォレスト
- 勾配ブースティング(XGBoost, LightGBM, CatBoost)
- ニューラルネットワーク(シンプルな1層〜多層パーセプトロン)
2️⃣ 教師なし学習(Unsupervised Learning)
ラベルなしで構造を見つける。
クラスタリング
- k-means
- 階層的クラスタリング(Hierarchical)
- DBSCAN / HDBSCAN
- Gaussian Mixture Model (GMM)
次元削減
- PCA(主成分分析)
- t-SNE
- UMAP
- ICA(独立成分分析)
異常検知
- Isolation Forest
- One-class SVM
- Autoencoder(ここはDL寄り)
3️⃣ 強化学習(Reinforcement Learning)
環境とやりとりして「報酬最大化」。
- Q-learning
- SARSA
- Deep Q-Network (DQN)
- Policy Gradient
- Actor-Critic 系(A2C, A3C, PPO, DDPG, SAC)
4️⃣ 半教師あり学習(Semi-supervised)
ラベルあり+なしのデータを組み合わせる。
- Self-training
- Co-training
- Semi-supervised SVM
- Pseudo-labeling
5️⃣ 弱教師あり学習(Weakly-supervised)
「雑なラベル」「ルールベースのラベル」を活用。
- Distant supervision
- Multiple instance learning
6️⃣ 転移学習(Transfer Learning)
他のタスクで学んだモデルを流用。
- Fine-tuning
- Feature extraction
7️⃣ アンサンブル学習(Ensemble Learning)
複数のモデルを組み合わせて精度UP。
- バギング(例:ランダムフォレスト)
- ブースティング(例:XGBoost, LightGBM)
- スタッキング
8️⃣ 生成モデル(Generative Models)
新しいデータを生み出す。
- GMM(ガウス混合)
- 隠れマルコフモデル(HMM)
- ベイズネットワーク
- GAN(Generative Adversarial Network)
- VAE(Variational Autoencoder)
9️⃣ オンライン学習(Online Learning)
ストリームデータに対応。
- SGD(確率的勾配降下法)
- Online Perceptron
- Bandit algorithms
まとめ 🌟
- ML全般 = データからルールを学ぶ
- DL = その中で「特徴量抽出も自動化」した強力な派生系
- 手法は「分類」「回帰」「クラスタリング」「強化学習」「アンサンブル」「生成」みたいにカテゴリ分けすると覚えやすいよ👍