最近在看論文,因為論文都是全英文的,所以需要論文查看的軟件,在macOS上找到一款很好用的軟件叫做知雲文獻翻譯
知雲文獻翻譯
界面長這樣,可以長段翻譯,總之很不錯
它的下載地址是:https://www.yuque.com/xtranslator/zy/

百度翻譯API申請
使用自己的api有兩個好處:
一、更加穩定
二、可以自定義詞庫,我看的是醫療和機器學習相關的英文文獻,可以自定義
api申請
先進入api申請官網:https://api.fanyi.baidu.com/
在上方控制台、根據流程申請后
可以在這里看到自己的ID和密鑰

填入就可以了

自定義術語庫

我看的是機器學習的文獻,因此在術語庫里添加,導入文件(我會把文本放在后面


導入后完成,有部分詞語不翻譯,比如MNIST這樣的專有詞語,就會報錯,忽略掉就可以了

開啟術語庫就行了
術語庫的資料來源:https://www.aminer.cn/ml_taxonomy
機器學習術語庫
Supervised Learning|||監督學習
Unsupervised Learning|||無監督學習
Semi-supervised Learning|||半監督學習
Reinforcement Learning|||強化學習
Active Learning|||主動學習
Online Learning|||在線學習
Transfer Learning|||遷移學習
Automated Machine Learning (AutoML)|||自動機器學習
Representation Learning|||表示學習
Minkowski distance|||閔可夫斯基距離
Gradient Descent|||梯度下降
Stochastic Gradient Descent|||隨機梯度下降
Over-fitting|||過擬合
Regularization|||正則化
Cross Validation|||交叉驗證
Perceptron|||感知機
Logistic Regression|||邏輯回歸
Maximum Likelihood Estimation|||最大似然估計
Newton’s method|||牛頓法
K-Nearest Neighbor|||K近鄰法
Mahanalobis Distance|||馬氏距離
Decision Tree|||決策樹
Naive Bayes Classifier|||朴素貝葉斯分類器
Generalization Error|||泛化誤差
PAC Learning|||概率近似正確學習
Empirical Risk Minimization|||經驗風險最小化
Growth Function|||成長函數
VC-dimension|||VC維
Structural Risk Minimization|||結構風險最小化
Eigendecomposition|||特征分解
Singular Value Decomposition|||奇異值分解
Moore-Penrose Pseudoinverse|||摩爾-彭若斯廣義逆
Marginal Probability|||邊緣概率
Conditional Probability|||條件概率
Expectation|||期望
Variance|||方差
Covariance|||協方差
Critical points|||臨界點
Support Vector Machine|||支持向量機
Decision Boundary|||決策邊界
Convex Set|||凸集
Lagrange Duality|||拉格朗日對偶性
KKT Conditions|||KKT條件
Coordinate ascent|||坐標下降法
Sequential Minimal Optimization (SMO)|||序列最小化優化
Ensemble Learning|||集成學習
Bootstrap Aggregating (Bagging)|||裝袋算法
Random Forests|||隨機森林
Boosting|||提升方法
Stacking|||堆疊方法
Decision Tree|||決策樹
Classification Tree|||分類樹
Adaptive Boosting (AdaBoost)|||自適應提升
Decision Stump|||決策樹樁
Meta Learning|||元學習
Gradient Descent|||梯度下降
Deep Feedforward Network (DFN)|||深度前向網絡
Backpropagation|||反向傳播
Activation Function|||激活函數
Multi-layer Perceptron (MLP)|||多層感知機
Perceptron|||感知機
Mean-Squared Error (MSE)|||均方誤差
Chain Rule|||鏈式法則
Logistic Function|||邏輯函數
Hyperbolic Tangent|||雙曲正切函數
Rectified Linear Units (ReLU)|||整流線性單元
Residual Neural Networks (ResNet)|||殘差神經網絡
Regularization|||正則化
Overfitting|||過擬合
Data(set) Augmentation|||數據增強
Parameter Sharing|||參數共享
Ensemble Learning|||集成學習
Dropout|||
L2 Regularization|||L2正則化
Taylor Series Approximation|||泰勒級數近似
Taylor Expansion|||泰勒展開
Bayesian Prior|||貝葉斯先驗
Bayesian Inference|||貝葉斯推理
Gaussian Prior|||高斯先驗
Maximum-a-Posteriori (MAP)|||最大后驗
Linear Regression|||線性回歸
L1 Regularization|||L1正則化
Constrained Optimization|||約束優化
Lagrange Function|||拉格朗日函數
Denoising Autoencoder|||降噪自動編碼器
Label Smoothing|||標簽平滑
Eigen Decomposition|||特征分解
Convolutional Neural Networks (CNNs)|||卷積神經網絡
Semi-Supervised Learning|||半監督學習
Generative Model|||生成模型
Discriminative Model|||判別模型
Multi-Task Learning|||多任務學習
Bootstrap Aggregating (Bagging)|||裝袋算法
Multivariate Normal Distribution|||多元正態分布
Sparse Parametrization|||稀疏參數化
Sparse Representation|||稀疏表示
Student-t Prior|||學生T先驗
KL Divergence|||KL散度
Orthogonal Matching Pursuit (OMP)|||正交匹配追蹤算法
Adversarial Training|||對抗訓練
Matrix Factorization (MF)|||矩陣分解
Root-Mean-Square Error (RMSE)|||均方根誤差
Collaborative Filtering (CF)|||協同過濾
Nonnegative Matrix Factorization (NMF)|||非負矩陣分解
Singular Value Decomposition (SVD)|||奇異值分解
Latent Sematic Analysis (LSA)|||潛在語義分析
Bayesian Probabilistic Matrix Factorization (BPMF)|||貝葉斯概率矩陣分解
Wishart Prior|||Wishart先驗
Sparse Coding|||稀疏編碼
Factorization Machines (FM)|||分解機
second-order method|||二階方法
cost function|||代價函數
training set|||訓練集
objective function|||目標函數
expectation|||期望
data generating distribution|||數據生成分布
empirical risk minimization|||經驗風險最小化
generalization error|||泛化誤差
empirical risk|||經驗風險
overfitting|||過擬合
feasible|||可行
loss function|||損失函數
derivative|||導數
gradient descent|||梯度下降
surrogate loss function|||代理損失函數
early stopping|||提前終止
Hessian matrix|||黑塞矩陣
second derivative|||二階導數
Taylor series|||泰勒級數
Ill-conditioning|||病態的
critical point|||臨界點
local minimum|||局部極小點
local maximum|||局部極大點
saddle point|||鞍點
local minima|||局部極小值
global minimum|||全局最小點
convex function|||凸函數
weight space symmetry|||權重空間對稱性
Newton’s method|||牛頓法
activation function|||激活函數
fully-connected networks|||全連接網絡
Resnet|||殘差神經網絡
gradient clipping|||梯度截斷
recurrent neural network|||循環神經網絡
long-term dependency|||長期依賴
eigen-decomposition|||特征值分解
feedforward network|||前饋網絡
vanishing and exploding gradient problem|||梯度消失與爆炸問題
contrastive divergence|||對比散度
validation set|||驗證集
stochastic gradient descent|||隨機梯度下降
learning rate|||學習速率
momentum|||動量
gradient descent|||梯度下降
poor conditioning|||病態條件
nesterov momentum|||Nesterov 動量
partial derivative|||偏導數
moving average|||移動平均
quadratic function|||二次函數
positive definite|||正定
quasi-newton method|||擬牛頓法
conjugate gradient|||共軛梯度
steepest descent|||最速下降
reparametrization|||重參數化
standard deviation|||標准差
coordinate descent|||坐標下降
skip connection|||跳躍連接
convolutional neural network|||卷積神經網絡
convolution|||卷積
pooling|||池化
feedforward neural network|||前饋神經網絡
maximum likelihood|||最大似然
back propagation|||反向傳播
artificial neural network|||人工神經網絡
deep feedforward network|||深度前饋網絡
hyperparameter|||超參數
sparse connectivity|||稀疏連接
parameter sharing|||參數共享
receptive field|||接受域
chain rule|||鏈式法則
tiled convolution|||平鋪卷積
object detection|||目標檢測
error rate|||錯誤率
activation function|||激活函數
overfitting|||過擬合
attention mechanism|||注意力機制
transfer learning|||遷移學習
autoencoder|||自編碼器
unsupervised learning|||無監督學習
back propagation|||反向傳播
pretraining|||預訓練
dimensionality reduction|||降維
curse of dimensionality|||維數災難
feedforward neural network|||前饋神經網絡
encoder|||編碼器
decoder|||解碼器
cross-entropy|||交叉熵
tied weights|||綁定的權重
PCA|||PCA
principal component analysis|||主成分分析
singular value decomposition|||奇異值分解
SVD|||SVD
singular value|||奇異值
reconstruction error|||重構誤差
covariance matrix|||協方差矩陣
Kullback-Leibler (KL) divergence|||KL散度
denoising autoencoder|||去噪自編碼器
sparse autoencoder|||稀疏自編碼器
contractive autoencoder|||收縮自編碼器
conjugate gradient|||共軛梯度
fine-tune|||精調
local optima|||局部最優
posterior distribution|||后驗分布
gaussian distribution|||高斯分布
reparametrization|||重參數化
recurrent neural network|||循環神經網絡
artificial neural network|||人工神經網絡
feedforward neural network|||前饋神經網絡
sentiment analysis|||情感分析
machine translation|||機器翻譯
pos tagging|||詞性標注
teacher forcing|||導師驅動過程
back-propagation through time|||通過時間反向傳播
directed graphical model|||有向圖模型
speech recognition|||語音識別
question answering|||問答系統
attention mechanism|||注意力機制
vanishing and exploding gradient problem|||梯度消失與爆炸問題
jacobi matrix|||jacobi矩陣
long-term dependency|||長期依賴
clip gradient|||梯度截斷
long short-term memory|||長短期記憶
gated recurrent unit|||門控循環單元
hadamard product|||Hadamard乘積
back propagation|||反向傳播
attention mechanism|||注意力機制
feedforward network|||前饋網絡
named entity recognition|||命名實體識別
Representation Learning|||表征學習
Distributed Representation|||分布式表征
Multi-task Learning|||多任務學習
Multi-Modal Learning|||多模態學習
Semi-supervised Learning|||半監督學習
NLP|||自然語言處理
Neural Language Model|||神經語言模型
Neural Probabilistic Language Model|||神經概率語言模型
RNN|||循環神經網絡
Neural Tensor Network|||神經張量網絡
Graph Neural Network|||圖神經網絡
Graph Covolutional Network (GCN)|||圖卷積網絡
Graph Attention Network|||圖注意力網絡
Self-attention|||自注意力機制
Feature Learning|||表征學習
Feature Engineering|||特征工程
One-hot Representation|||獨熱編碼
Speech Recognition|||語音識別
DBM|||深度玻爾茲曼機
Zero-shot Learning|||零次學習
Autoencoder|||自編碼器
Generative Adversarial Network(GAN)|||生成對抗網絡
Approximate Inference|||近似推斷
Bag-of-Words Model|||詞袋模型
Forward Propagation|||前向傳播
Huffman Binary Tree|||霍夫曼二叉樹
NNLM|||神經網絡語言模型
N-gram|||N元語法
Skip-gram Model|||跳元模型
Negative Sampling|||負采樣
CBOW|||連續詞袋模型
Knowledge Graph|||知識圖譜
Relation Extraction|||關系抽取
Node Embedding|||節點嵌入
Graph Neural Network|||圖神經網絡
Node Classification|||節點分類
Link Prediction|||鏈路預測
Community Detection|||社區發現
Isomorphism|||同構
Random Walk|||隨機漫步
Spectral Clustering|||譜聚類
Asynchronous Stochastic Gradient Algorithm|||異步隨機梯度算法
Negative Sampling|||負采樣
Network Embedding|||網絡嵌入
Graph Theory|||圖論
multiset|||多重集
Perron-Frobenius Theorem|||佩龍—弗羅貝尼烏斯定理
Stationary Distribution|||穩態分布
Matrix Factorization|||矩陣分解
Sparsification|||稀疏化
Singular Value Decomposition|||奇異值分解
Frobenius Norm|||F-范數
Heterogeneous Network|||異構網絡
Graph Convolutional Network (GCN)|||圖卷積網絡
CNN|||卷積神經網絡
Semi-Supervised Classification|||半監督分類
Chebyshev polynomial|||切比雪夫多項式
Gradient Exploding|||梯度爆炸
Gradient Vanishing|||梯度消失
Batch Normalization|||批標准化
Neighborhood Aggregation|||鄰域聚合
LSTM|||長短期記憶網絡
Graph Attention Network|||圖注意力網絡
Self-attention|||自注意力機制
Rescaling|||再縮放
Attention Mechanism|||注意力機制
Jensen-Shannon Divergence|||JS散度
Cognitive Graph|||認知圖譜
Generative Adversarial Network(GAN)|||生成對抗網絡
Generative Model|||生成模型
Discriminative Model|||判別模型
Gaussian Mixture Model|||高斯混合模型
Variational Auto-Encoder(VAE)|||變分編碼器
Markov Chain|||馬爾可夫鏈
Boltzmann Machine|||玻爾茲曼機
Kullback–Leibler divergence|||KL散度
Vanishing Gradient|||梯度消失
Surrogate Loss|||替代損失
Mode Collapse|||模式崩潰
Earth-Mover/Wasserstein-1 Distance|||搬土距離/EMD
Lipschitz Continuity|||利普希茨連續
Feedforward Network|||前饋網絡
Minimax Game|||極小極大博弈
Adversarial Learning|||對抗學習
Outlier|||異常值/離群值
Rectified Linear Unit|||線性修正單元
Logistic Regression|||邏輯回歸
Softmax Regression|||Softmax回歸
SVM|||支持向量機
Decision Tree|||決策樹
Nearest Neighbors|||最近鄰
White-box|||白盒(測試 etc. )
Lagrange Multiplier|||拉格朗日乘子
Black-box|||黑盒(測試 etc. )
Robustness|||魯棒性/穩健性
Decision Boundary|||決策邊界
Non-differentiability|||不可微
Intra-technique Transferability|||相同技術遷移能力
Cross-technique Transferability|||不同技術遷移能力
Data Augmentation|||數據增強
Adaboost|||
recommender system|||推薦系統
Probability matching|||概率匹配
minimax regret|||
face detection|||人臉檢測
i.i.d.|||獨立同分布
Minimax|||極大極小
linear model|||線性模型
Thompson Sampling|||湯普森抽樣
eigenvalues|||特征值
optimization problem|||優化問題
greedy algorithm|||貪心算法
Dynamic Programming|||動態規划
lookup table|||查找表
Bellman equation|||貝爾曼方程
discount factor|||折現系數
Reinforcement Learning|||強化學習
gradient theorem|||梯度定理
stochastic gradient descent|||隨機梯度下降法
Monte Carlo|||蒙特卡羅方法
function approximation|||函數逼近
Markov Decision Process|||馬爾可夫決策過程
Bootstrapping|||引導
Shortest Path Problem|||最短路徑問題
expected return|||預期回報
Q-Learning|||Q學習
temporal-difference learning|||時間差分學習
AlphaZero|||
Backgammon|||西洋雙陸棋
finite set|||有限集
Markov property|||馬爾可夫性質
sample complexity|||樣本復雜性
Cartesian product|||笛卡兒積
Kevin Leyton-Brown|||
SVM|||支持向量機
MNIST|||
ImageNet|||
Ensemble learning|||集成學習
Neural networks|||神經網絡
Neuroevolution|||神經演化
object recognition|||目標識別
Multi-task learning|||多任務學習
Treebank|||樹圖資料庫
covariance|||協方差
Hamiltonian Monte Carlo|||哈密頓蒙特卡羅
Inductive bias|||歸納偏置
bilevel optimization|||雙層規划
genetic algorithms|||遺傳算法
Bayesian linear regression|||貝葉斯線性回歸
ANOVA|||方差分析
Extrapolation|||外推法
activation function|||激活函數
CIFAR-10|||
Gaussian Process|||高斯過程
k-nearest neighbors|||K最近鄰
Neural Turing machine|||神經圖靈機
MCMC|||馬爾可夫鏈蒙特卡羅
Collaborative filtering|||協同過濾
AlphaGo|||
random forests|||隨機森林
multivariate Gaussian|||多元高斯
Bayesian Optimization|||貝葉斯優化
meta-learning|||元學習
iterative algorithm|||迭代算法
Viterbi algorithm|||維特比算法
Gibbs distribution|||吉布斯分布
Discriminative model|||判別模型
Maximum Entropy Markov Model|||最大熵馬爾可夫模型
Information Extraction|||信息提取
clique|||小圈子
conditional random field|||條件隨機場
CRF|||條件隨機場
triad|||三元關系
Naïve Bayes|||朴素貝葉斯
social network|||社交網絡
Bayesian network|||貝葉斯網絡
SVM|||支持向量機
Joint probability distribution|||聯合概率分布
Conditional independence|||條件獨立性
sequence analysis|||序列分析
Perceptron|||感知器
Markov Blanket|||馬爾科夫毯
Hidden Markov Model|||隱馬爾可夫模型
finite-state|||有限狀態
Shallow parsing|||淺層分析
Active learning|||主動學習
Speech recognition|||語音識別
convex|||凸
transition matrix|||轉移矩陣
factor graph|||因子圖
forward-backward algorithm|||前向后向算法
parsing|||語法分析
structural holes|||結構洞
graphical model|||圖模型
Markov Random Field|||馬爾可夫隨機場
Social balance theory|||社會平衡理論
Generative model|||生成模型
probalistic topic model|||概率語義模型
TFIDF|||詞頻-文本逆向頻率
LSI|||潛在語義索引
Bayesian network|||貝葉斯網絡模型
Markov random field|||馬爾科夫隨機場
restricted boltzmann machine|||限制玻爾茲曼機
LDA|||隱式狄利克雷分配模型
PLSI|||概率潛在語義索引模型
EM algorithm|||最大期望算法
Gibbs sampling|||吉布斯采樣法
MAP (Maximum A Posteriori)|||最大后驗概率算法
Markov Chain Monte Carlo|||馬爾科夫鏈式蒙特卡洛算法
Monte Carlo Sampling|||蒙特卡洛采樣法
Univariate|||單變量
Hoeffding Bound|||Hoeffding界
Chernoff Bound|||Chernoff界
Importance Sampling|||加權采樣法
invariant distribution|||不動點分布
Metropolis-Hastings algorithm|||Metropolis-Hastings算法
Probablistic Inference|||概率推斷
Variational Inference|||變量式推斷
HMM|||隱式馬爾科夫模型
mean field|||平均場理論
mixture model|||混合模型
convex duality|||凸對偶
belief propagation|||置信傳播算法
non-parametric model|||非參模型
Gaussian process|||正態過程
multivariate Gaussian distribution|||多元正態分布
Dirichlet process|||狄利克雷過程
stick breaking process|||斷棒過程
Chinese restaurant process|||中餐館過程
Blackwell-MacQueen Urn Scheme|||Blackwell-MacQueen桶法
De Finetti's theorem|||de Finetti定理
collapsed Gibbs sampling|||下陷吉布斯采樣法
Hierarchical Dirichlet process|||階梯式狄利克雷過程
Indian Buffet process|||印度餐館過程
