This is an English-Japanese lexicon for Machine Learning and Deep Learning terminology, based on the translation work for the Machine Learning and Deep Learning cheatsheets created by @afshinea for Stanford's CS 229 Machine Learning and CS 230 Deep Learning. We have included the Japanese cheat sheet translations that were created and reviewed by a team of MLT members for each topic.
Yoshiyuki Nakai, Yuta Kanzawa, Hideaki Hamano, Tran Tuan Anh, Takatoshi Nao, Kamuela Lau, Rob Altena, Wataru Oniki and Suzana Ilic.
| English | 日本語 |
|---|---|
| Adaptive learning rates | 適応学習率 |
| Analytical gradient | 解析的勾配 |
| Architecture | アーキテクチャ |
| Backpropagation | 誤差逆伝播法 |
| Batch normalization | バッチ正規化 |
| Binary classification | 二項分類 |
| Calculation | 計算 |
| Chain rule | 連鎖律 |
| Coefficients | 係数 |
| Color shift | カラーシフト |
| Contrast change | コントラスト(鮮やかさ)の修正 |
| Convolution layer | 畳み込み層 |
| Cross-entropy loss | 交差エントロピー誤差 |
| Dampens oscillations | 振動を抑制する |
| Data augmentation | データ拡張 |
| Data processing | データ処理 |
| Deep learning | 深層学習 |
| Derivative | 微分 |
| Dropout | Dropout (ドロップアウト) |
| Early stopping | Early stopping (学習の早々な終了) |
| Epoch | エポック |
| Error | 損失 |
| Evaluation | 評価 |
| Finding optimal weights | 最適な重みの探索 |
| Flip | 反転 |
| Forward propagation | 順伝播 |
| Fully connected layer | 全結合層 |
| Gradient checking | 勾配チェック |
| Gradient descent | 勾配降下法 |
| Gradient of the loss | 損失の勾配 |
| Hyperparameter | ハイパーパラメータ |
| Improvement to SGD | SGDの改良 |
| Information loss | 情報損失 |
| Learning algorithm | 学習アルゴリズム |
| Learning rate | 学習率 |
| Loss function | 損失関数 |
| Mini-batch | ミニバッチ |
| Momentum | Momentum(運動量) |
| Neural network training | ニューラルネットワークの学習 |
| Noise addition | ノイズの付加 |
| Non-linear layer | 非線形層 |
| Numerical gradient | 数値的勾配 |
| Optimizing convergence | 収束の最適化 |
| Output | 出力 |
| Overfitting | 過学習 |
| Parameter tuning | パラメータチューニング |
| Parametrize | パラメータ化する |
| Pre-trained weights | 学習済みの重み |
| Prevent overfitting | 過学習を避けるために |
| Random crop | ランダムな切り抜き |
| Regularization | 正規化 |
| Root Mean Square propagation | 二乗平均平方根のプロパゲーション |
| Rotation | 回転 |
| Transfer learning | 転移学習 |
| Type | 種類 |
| Updating weights | 重み更新 |
| Validation loss | バリデーションの損失 |
| Weight regularization | 重みの正規化 |
| Weights initialization | 重みの初期化 |
| Xavier initialization | Xavier初期化 |
| English | 日本語 |
|---|---|
| Activation | 活性化 |
| Activation functions | 活性化関数 |
| Activation map | 活性化マップ |
| Anchor box | アンカーボックス |
| Architecture | アーキテクチャ |
| Average pooling | 平均プーリング |
| Bias | バイアス |
| Bounding box | バウンディングボックス |
| Computational trick architectures | 計算トリックアーキテクチャ |
| Convolution | 畳み込み |
| Convolution layer | 畳み込み層 |
| Convolutional Neural Networks | 畳み込みニューラルネットワーク |
| Deep Learning | 深層学習 |
| Detection | 検出 |
| Dimensions | 次元 |
| Discriminative model | 識別モデル |
| Face verification/recognition | 顔認証/認識 |
| Feature map | 特徴マップ |
| Filter hyperparameters | フィルタハイパーパラメタ |
| Fine tuning | ファインチューニング |
| Flatten | 平滑化 |
| Fully connected | 全結合 |
| Generative Adversarial Net | 敵対的生成ネットワーク |
| Generative model | 生成モデル |
| Gram matrix | グラム行列 |
| Image classification | 画像分類 |
| Inception Network | インセプションネットワーク |
| Intersection over Union | 和集合における共通部分の割合 (IoU) |
| Layer | 層 |
| Localization | 位置特定 |
| Max pooling | 最大プーリング |
| Model complexity | モデルの複雑さ |
| Neural style transfer | ニューラルスタイル変換 |
| Noise | ノイズ |
| Non-linearity | 非線形性 |
| Non-max suppression | 非極大抑制 |
| Object detection | オブジェクト検出 |
| Object recognition | 物体認識 |
| One Shot Learning | One Shot学習 |
| Padding | パディング |
| Parameter compatibility | パラメータの互換性 |
| Pooling | プーリング |
| R-CNN | R-CNN |
| Receptive field | 受容野 |
| Rectified Linear Unit | 正規化線形ユニット (ReLU) |
| Residual Network (ResNet) | 残差ネットワーク (ResNet) |
| Segmentation | セグメンテーション |
| Siamese Network | シャムネットワーク |
| Softmax | ソフトマックス |
| Stride | ストライド |
| Style matrix | スタイル行列 |
| Style/content cost function | スタイル/コンテンツコスト関数 |
| Training set | 学習セット |
| Triplet loss | トリプレット損失 |
| Tuning hyperparameters | ハイパーパラメータの調整 |
| You Only Look Once (YOLO) | YOLO |
| English | 日本語 |
|---|---|
| 1-hot representation | 1-hot 表現 |
| A Conditional language model | 条件付き言語モデル |
| A language model | 言語モデル |
| Amount of attention | 注意量 |
| Attention model | アテンションモデル |
| Beam search | ビームサーチ |
| Bidirectional RNN | 双方向 RNN |
| Binary classifiers | バイナリ分類器 |
| Bleu score | ブルースコア(機械翻訳比較スコア) |
| Brevity penalty | 簡潔さへのペナルティ |
| CBOW | CBOW |
| Co-occurence matrix | 共起行列 |
| Conditional probabilities | 条件付き確率 |
| Cosine similarity | コサイン類似度 |
| Deep RNN | ディープ RNN |
| Embedding Matrix | 埋め込み行列 |
| Exploding gradient | 勾配爆発 |
| Forget gate | 忘却ゲート |
| GloVe | グローブ |
| Gradient clipping | 勾配クリッピング |
| GRU | ゲート付き回帰型ユニット |
| Length normalization | 言語長正規化 |
| Length normalization | 文章の長さの正規化 |
| Likelihood | 可能性 |
| Long term/ dependencies | 長期依存性関係 |
| LSTM | 長・短期記憶 |
| Machine translation | 機会翻訳 |
| Motivation and notations | 動機と表記 |
| Multiplicative gradien | 掛け算の勾配 |
| N-gram | n-gram |
| Naive greedy search | 単純な貪欲法 |
| Negative sampling | ネガティブサンプリング |
| Notations | ノーテーション |
| Output gate | 出力ゲート |
| Perplexity | パープレキシティ |
| Relevance gate | 関連ゲート |
| Skip-gram | スキップグラム |
| Skip-gram | スキップグラム |
| Softener | 緩衝パラメータ |
| t-SNE | t-SNE |
| Target/context likelihood model | ターゲット/コンテキスト尤度モデル |
| Update gate | 更新ゲート |
| Vanishing gradient | 勾配喪失 |
| Weighting function | 重み関数 |
| Word Embedding | 単語埋め込み |
| Word2vec | Word2vec |
| English | 日本語 |
|---|---|
| Adaptive boosting | 適応的ブースティング |
| Batch gradient descent | バッチ勾配降下法 |
| Bayes' rule | ベイズの定理 |
| Bernoulli | ベルヌーイ |
| Bernoulli distribution | ベルヌーイ分布 |
| Bias | バイア |
| Binary trees | 二分木 |
| Boosting | ブースティング |
| Boosting step | ブースティングステップ |
| Canonical parameter | 正準パラメータ |
| Categorical variable | カテゴリ変数 |
| Chernoff bound | チェルノフ上界 |
| Class | クラス |
| Classification | 分類 |
| Classification and Regression Trees (CART) | 分類・回帰ツリー (CART) |
| Classifier | 分類器 |
| Closed form solution | 閉形式の解 |
| Coefficients | 係数 |
| Confusion matrix | 混同行列 |
| Continuous values | 連続値 |
| Cost function | コスト関数 |
| Cross-entropy | クロスエントロピー |
| Cross validation | 交差検証 / クロスバリデーション |
| Decision boundary | 決定境界 |
| Decision trees | 決定ツリー |
| Discriminative model | 判別モデル |
| Distribution | 分布 |
| Empirical error | 経験誤差 |
| Ensemble methods | アンサンブル学習 |
| Error rate | 誤答率 |
| Estimation | 推定 |
| Exponential distributions | 般的な指数分布族 |
| Exponential family | 指数分布族 ― 正準パラメータ |
| Feature engineering | 特徴量エンジニアリング |
| Feature mapping | 特徴写像 |
| Features | 特徴 |
| Framework | フレームワーク |
| Function | 関数 |
| Gaussian | ガウス |
| Gaussian Discriminant Analysis | ガウシアン判別分析 |
| Gaussian kernel | ガウシアンカーネル |
| Generalized Linear Models | 一般化線形モデル |
| Generative Learning | 生成学習 |
| Generative model | 生成モデル |
| Geometric | 幾何 |
| Good performance | 的に良い性能 |
| Gradient boosting | 勾配ブースティング |
| Gradient descent | 勾配降下法 |
| Highly uninterpretable | 解釈しにくい |
| Hinge loss | ヒンジ損失 |
| Hoeffding inequality | ヘフディング不等式 |
| Hold out | ホールドアウト |
| Hypothesis | 仮説 |
| Independent | 独立 |
| Input | 入力 |
| Interpretable | 解釈しやすい |
| k-nearest neighbors (k-NN) | k近傍法 (k-NN) |
| Kernel | カーネル |
| Kernel mapping | カーネル写像 |
| Kernel trick | カーネルトリック |
| Lagrange multipliers | ラグランジュ乗数 |
| Lagrangian | ラグランジアン |
| Learning Theory | 学習理論 |
| Least Mean Squares | 最小2乗法 |
| Least squared error | 最小2乗誤差 |
| Likelihood | 尤度 |
| Linear classifier | 線形分類器 |
| Linear discriminant analysis | 線形判別分析(LDA) |
| Linear models | 線形モデル |
| Linear regression | 線形回帰 |
| Link function | リンク関数 |
| Locally Weighted Regression | 局所重み付き回帰 |
| Log-likelihood | 対数尤度 |
| Logistic loss | ロジスティック損失 |
| Logistic regression | ロジスティック回帰 |
| Loss function | 損失関数 |
| Matrix | 行列 |
| Maximizing the likelihood | 尤度を最大にする |
| Minimum distance | 最短距離 |
| Misclassification | 誤分類 |
| Missing value | 欠損値 |
| Multi-class logistic regression | 多クラス分類ロジスティック回帰 |
| Multi-label classification | 多ラベル分類 / マルチラベル分類 |
| Multidimensional generalization | 高次元正則化 |
| Naive Bayes | ナイーブベイズ |
| Natural parameter | 自然パラメータ |
| Non-linear separability | 非線形分離問題 |
| Non-parametric approaches | ノン・パラメトリックな手法 |
| Normal equations | 正規方程式 |
| Normalization parameter | 正規化定数 |
| Numerical variable | 数値変数 |
| Optimal margin classifier | 最適マージン分類器 |
| Optimal parameters | 最適なパラメータ |
| Optimization | 最適化 |
| Optimization problem | 最適化問題 |
| Ordinary least squares | 最小2乗回帰 |
| Output | 出力 |
| Parameter | パラメータ |
| Parameter update | パラメータ更新 |
| Poisson | ポワソン |
| Prediction | 予測 |
| Probability | 確率 |
| Probability distributions of the data | データの確率分布 |
| Probably Approximately Correct (PAC) | 確率的に近似的に正しい (PAC) |
| Random forest | ランダムフォレスト |
| Random variable | ランダムな変数 |
| Randomly selected features | ランダムに選択された特徴量 |
| Recommendation | レコメンデーション |
| Regression | 回帰 |
| Sample mean | 標本平均 |
| Shattering | 細分化 |
| Sigmoid function | シグモイド関数 |
| Softmax regression | ソフトマックス回帰 |
| Spam detection | スパム検知 |
| Stochastic gradient descent | 確率的勾配降下法 |
| Supervised Learning | 教師あり学習 |
| Support Vector Machine (SVM) | サポートベクターマシン |
| Text classification | テキスト分類 |
| To maximize | 最大化する |
| To minimize | 最小化する |
| To predict | 予測する |
| Training data | 学習データ |
| Training error | 学習誤差 |
| Tree-based methods | ツリーベース学習 |
| Union bound | 和集合上界 |
| Update rule | 更新ルール |
| Upper bound theorem | 上界定理 |
| Vapnik-Chervonenkis (VC) dimension | ヴァプニク・チェルヴォーネンキス次元 (VC) |
| Variables | 変数 |
| Variance | 分散 |
| Weights | 重み |
| English | 日本語 |
|---|---|
| Agglomerative hierarchical | 凝集階層 |
| Average linkage | 平均リンケージ |
| Bell and Sejnowski ICA algorithm | ベルとシノスキーのICAアルゴリズム |
| Calinski-Harabaz index | Calinski-Harabazインデックス |
| Centroids | 重心 |
| Clustering | クラスタリング |
| Clustering assessment metrics | クラスタリング評価指標 |
| Complete linkage | 完全リンケージ |
| Convergence | 収束 |
| Diagonal | Diagonal |
| Dimension reduction | 次元削減 |
| Dispersion matrices | 分散行列 |
| Distortion function | ひずみ関数 |
| E-step | E-ステップ |
| Eigenvalue | 固有値 |
| Eigenvector | 固有ベクトル |
| Expectation-Maximization | 期待値最大化法 |
| Factor analysis | 因子分析 |
| Gaussians initialization | ガウス分布初期化 |
| Hierarchical clustering | 階層的クラスタリング |
| Independent component analysis (ICA) | 独立成分分析 |
| Jensen's inequality | イェンセンの不等式 |
| K-means clustering | K平均法 |
| Latent variables | 潜在変数 |
| M-step | M-ステップ |
| Means initialization | 平均の初期化 |
| Orthogonal matrix | 実直交行列 |
| Posterior probabilities | 事後確率 |
| Principal components | 主成分 |
| Principal component analysis (PCA) | 主成分分析 |
| Random variables | ランダムな変数 |
| Silhouette coefficient | シルエット係数 |
| Spectral theorem | スペクトル定理 |
| Unmixing matrix | 非混合行列 |
| Unsupervised learning | 教師なし学習 |
| Ward linkage | ウォードリンケージ |
| English | 日本語 |
|---|---|
| Axiom | 公理 |
| Bayes' rule | ベイズの定理 |
| Boundary | 境界 |
| Characteristic function | 特性関数 |
| Chebyshev's inequality | チェビシェフの不等式 |
| Chi-square statistic | カイ二乗統計量 |
| Combinatorics | 組合せ |
| Conditional Probability | 条件付き確率 |
| Continuous | 連続 |
| Cumulative distribution function (CDF) | 累積分布関数 |
| Cumulative function | 累積関数 |
| Discrete | 離散 |
| Distribution | 分布 |
| Event | 事象 |
| Expected value | 期待値 |
| Generalized expected value | 一般化した期待値 |
| Jointly Distributed Random Variables | 同時分布の確率変数 |
| Leibniz integral rule | ライプニッツの積分則 |
| Marginal density | 周辺密度 |
| Mutual information | 相互情報量 |
| Mutually exclusive events | 互いに排反な事象 |
| Order | 順番 |
| Partition | 分割 |
| Pearson correlation coefficient | 相関係数 (ピアソンの積率相関係数) |
| Permutation | 順列 |
| Probability | 確率 |
| Probability density function (PDF) | 確率密度関数 |
| Probability distribution | 確率分布 |
| Random variable | 確率変数 |
| Result | 結果 |
| Sample space | 標本空間 |
| Sequence | 数列 |
| Spearman's rank correlation coefficient | スピアマンの順位相関係数 |
| Standard deviation | 標準偏差 |
| Standard error | 標準誤差 |
| Statistics | 統計 |
| Subset | 部分集合 |
| Type | 種類 |
| Variance | 分散 |
| Weighted mean | 加重平均 |
| English | 日本語 |
|---|---|
| Antisymmetric | 反対称 |
| Calculus | 微積分 |
| Column | 列 |
| Column-vector | 列ベクトル |
| Diagonal | 対角成 |
| Element | 要素 |
| Function | 関数 |
| Invertible | 可逆 |
| Linear Algebra | 線形代数 |
| Matrix | 行列 |
| Norm | ノルム |
| Notation | 表記法 |
| Row | 行 |
| Scalar | スカラー |
| Square matrix | 正方行列 |
| Sum | 和 |
| Symmetric | 対称 |
| Symmetric decomposition | 対称分解 |
| Trace | 跡 |
| Vector | ベクトル |
| Vector space | ベクトル空間 |