点击上方蓝字关注更多及时AI资讯!
笔者在AI领域也是自学了一段时间了,最近发现吧,在阅读一些新闻和学术论文时还是总会被深奥的术语和缩写打断本来就在艰难前行的思路,就很希望有一个不用我再去搜索,直接可以拿来看的字典,同时也能用我们大脑容易接受的类比关联,帮助我快速的理解这个术语说的是啥...一咬牙,爆肝近3w字,终于磨出来了一个白话速查字典,迫不及待跟大家分享!不过文章内容的确很多,建议大家收藏住,当做一个工具速查表,在阅读AI相关知识的时候摆在旁边,有需要的时候全文搜下,效率更高哟!
机器学习基础
大白话比喻:就像学做饭前先要学会切菜、点火一样,是入门必备的基础技能。
含义:这是机器学习领域的入门知识,包括基本概念、算法原理和数据处理方法等。
英文名词 | 中文名词 | 中文解释 | 大白话比喻 |
Supervised Learning | 监督学习 | 基于已标记的数据进行学习,利用输入和输出的关系进行预测。 | 就像老师教学生如何解题。 |
Unsupervised Learning | 无监督学习 | 在没有标记的数据中寻找结构和模式。 | 就像自己摸索,找出事物的分类。 |
Semi-supervised Learning | 半监督学习 | 结合了标记和未标记数据进行学习,提高效率。 | 有点像老师给学生一些提示后,学生自己完成作业。 |
Reinforcement Learning | 强化学习 | 通过不断试错和来自环境的反馈来学习最佳策略。 | 像玩电子游戏,不断调整策略获取更高分。 |
Active Learning | 主动学习 | 模型可以主动选择学习样本,以提高学习效率。 | 就像学生主动向老师请教不懂的地方。 |
Online Learning | 在线学习 | 模型能够在数据不断流入的情况下进行学习和更新。 | 像实时网课,边听边练,不断改进。 |
Transfer Learning | 迁移学习 | 将知识应用到新的但相关的任务上。 | 学会骑自行车易于学会骑摩托车。 |
Automated Machine Learning (AutoML) | 自动机器学习 | 通过自动化工具简化机器学习流程,降低门槛。 | 像自动化咖啡机,简单按按钮就能喝咖啡。 |
Representation Learning | 表示学习 | 学习数据的最佳表征,以便提高其他机器学习任务的表现。 | 就像动态化简,找出事物最本质的特点。 |
Minkowski distance | 闵可夫斯基距离 | 一种度量空间中两点之间距离的算法,常用于分类问题。 | 像测量两座房子之间的距离。 |
Gradient Descent | 梯度下降 | 通过计算损失函数的梯度来逐步调整模型参数,以达到最低点。 | 就像爬山,总是朝着坡度最陡的地方走。 |
Stochastic Gradient Descent | 随机梯度下降 | 在每一步中随机选择一部分样本来估计梯度,从而加速训练。 | 像调查样本,偶尔抽一部分做允许。 |
Over-fitting | 过拟合 | 模型在训练数据上表现优秀,但对新数据表现差。 | 就像死记硬背考试内容,考试时不会灵活运用。 |
Regularization | 正则化 | 通过增加约束来防止模型过于复杂,减少过拟合风险。 | 就像制定规则防止过度放松。 |
Cross Validation | 交叉验证 | 将数据集分成多个子集,轮流用来训练和验证模型以提高可靠性。 | 像多次抽签,保证每次抽都公平。 |
Perceptron | 感知机 | 基本的神经网络模型,用于线性分类问题。 | 就像简单的投票机制。 |
Logistic Regression | 逻辑回归 | 用于二分类问题的统计模型,输出概率值。 | 像不确定做选择时查找建议。 |
Maximum Likelihood Estimation | 最大似然估计 | 寻找使观测数据出现机率最大的参数。 | 像猜测天气,选出最可能的天气情况。 |
Newton’s method | 牛顿法 | 用于寻找函数零点的迭代算法,提高收敛速度。 | 像在不断调整方向找到最短路径。 |
K-Nearest Neighbor | K近邻法 | 根据最近邻的数据点进行分类或回归。 | 就像找邻居帮忙,问问谁更有经验。 |
Mahanalobis Distance | 马氏距离 | 考虑数据协方差的距离度量,用于检测异常。 | 就像在判断两个地方的相似度,根据环境调整。 |
Decision Tree | 决策树 | 以树形结构表示的决策过程,用于分类和回归。 | 像选择自己的饮食,每个选择都有分支。 |
Naive Bayes Classifier | 朴素贝叶斯分类器 | 基于贝叶斯定理的分类算法,假设特征之间独立。 | 像以某个特征判断事物,并不考虑整体。 |
机器学习理论
中文解释:研究机器学习背后的数学原理和理论框架,包括学习的可计算性、泛化能力等。
大白话比喻:这就好比了解汽车引擎的工作原理,明白油门、刹车如何影响行驶,而不只是会开车。
英文名词 | 中文名词 | 中文解释 | 大白话比喻 |
Generalization Error | 泛化误差 | 模型在新数据上的预测与真实情况的差距。 | 像考试时答错了不熟悉的题目。 |
PAC Learning | 概率近似正确学习 | 一种学习框架,保证以高概率学习到接近最优的模型。 | 就像学习时,老师说只要80%的努力就能考个好成绩。 |
Empirical Risk Minimization | 经验风险最小化 | 通过在训练集上优化来减少模型误差的过程。 | 就像考试前刷题,把错题全都重做一遍。 |
Growth Function | 成长函数 | 描述模型复杂度与数据数量之间关系的函数。 | 像是培养植物,越多的水和阳光,长得越快。 |
VC-dimension | VC维 | 衡量模型可以分类复杂模式能力的一个数值。 | 就像一个人可用的工具越多,做事就越灵活。 |
Structural Risk Minimization | 结构风险最小化 | 综合考虑模型复杂度和训练误差,以减小泛化误差的方法。 | 就像在家里筹划预算,花钱要考虑有用性。 |
Eigendecomposition | 特征分解 | 将矩阵分解为其特征值和特征向量的过程。 | 就像把一块蛋糕切开,分出每一层的成分。 |
Applied Math(应用数学)
中文解释:在机器学习中运用的数学知识,如线性代数、概率论、微积分等。
大白话比喻:这就像是盖房子时的水泥、砖头,没有这些基础建材,再好的设计也无法实现。
英文名词 | 中文名词 | 中文解释 | 大白话比喻 |
Singular Value Decomposition | 奇异值分解 | 一种矩阵分解方法,用于提取数据的特征信息,分解成若干个独立成分。 | 就像把一个复杂的图像拆分成不同颜色的图块。 |
Moore-Penrose Pseudoinverse | 摩尔-彭若斯广义逆 | 一种矩阵的逆运算,用于解决不适定线性方程组。 | 类似于用超级计算机来找到一个很复杂游戏的最佳通关策略。 |
Marginal Probability | 边缘概率 | 单个变量的概率分布,忽略其他变量的影响。 | 就像你只关心某一天天气的概率,而忽略其他因素。 |
Conditional Probability | 条件概率 | 在已知某个条件下,另一个事件发生的概率。 | 像是你知道下雨天会带伞的概率,所以你就更关注那天雨下的可能性。 |
Expectation | 期望 | 随机变量可能取值的加权平均值,反映长期的平均结果。 | 就像你下注打牌,最终的平均赢利预期。 |
Variance | 方差 | 数据与其期望值的偏离程度,即数据分散的程度。 | 类似于班上学生成绩的集中程度,如果大家成绩相差很大,方差高。 |
Covariance | 协方差 | 两个随机变量同时变化的程度,反映它们如何一起变动。 | 想象两个学生的身高和体重,看看一个高的学生和重的学生之间的关系。 |
Critical points | 临界点 | 函数的导数为零或不存在的点,通常用于寻找极值和转折点。 | 就像爬山时找最高点或最低点,也就是转折的地方。 |
SVM(支持向量机)
中文解释:一种分类算法,通过找到最佳边界将不同类别的数据分开。
大白话比喻:想象你要分拣苹果和橘子,SVM就是找到那条线,让所有苹果在这边,橘子全在那边。
英文名词 | 中文名词 | 中文解释 | 大白话比喻 |
Support Vector Machine | 支持向量机 | 一种监督学习模型,用于分类和回归分析。它通过寻找最佳超平面来分隔不同类别的数据点。 | 就像用一根线把铅笔和橡皮擦分开,让两个不同的东西不再混淆。 |
Decision Boundary | 决策边界 | 在特征空间中,不同类别之间的分隔线或面。 | 想象一条界限线,把不同颜色的球分开。 |
Convex Set | 凸集 | 一组点的集合,任何两个点之间的连线都在此集合内。 | 就像一块没有凹进去的橡皮糖,随便捏出的任何两点之间的线段都在橡皮糖的表面上。 |
Lagrange Duality | 拉格朗日对偶性 | 在优化问题中,原始问题和对偶问题之间的关系,可以通过拉格朗日乘子来描述。 | 你找东西的时候,有时从反方向看反而更容易找到它,就像一个问题的影子。 |
KKT Conditions | KKT条件 | 一组用于解决优化问题的必要条件,包括原始和对偶问题的约束。 | 就像做数学题时,你得遵循一些规则,才能确保答案正确。 |
Coordinate ascent | 坐标下降法 | 一种优化算法,通过逐步固定其他变量来优化某一变量,直到收敛。 | 就像爬山,每次只关注一条通道,先走上去再转到下一条。 |
Sequential Minimal Optimization (SMO) | 序列最小化优化 | 一种高效的算法,用于训练支持向量机,通过解决二次规划问题来逐步增加支持向量。 | 就像考试时一步一步解每道题,逐步找到每个答案。 |
Ensemble(集成学习)
中文解释:结合多个弱学习器来构建一个强学习器,提高预测准确率。
大白话比喻:就像一群人智慧胜过一个人,几个普通人的意见汇总,往往能做出更明智的决定。
英文名词 | 中文名词 | 中文解释 | 大白话比喻 |
Ensemble Learning | 集成学习 | 将多个模型的预测结果结合起来,提升整体性能。 | 像多个厨师一起做饭,各自负责一道菜,最后合在一起更好吃。 |
Bootstrap Aggregating (Bagging) | 装袋算法 | 通过对数据集进行重采样,训练多个模型并取其平均输出。 | 就像给多个团队分发同样的作业,让他们各自完成,然后取平均分。 |
Random Forests | 随机森林 | 由多个决策树组成的模型,通过投票方式进行分类或回归。 | 像一群人投票选出最佳方案,大家的选择综合起来决定最终结果。 |
Boosting | 提升方法 | 逐步调整模型,强调错误样本,提升整体准确度。 | 就像一个学生每次考试后找出错题,下次努力提高那些分数。 |
Stacking | 堆叠方法 | 将多个不同类型的模型输出结合一起,通过另一个模型来进行最终决策。 | 一群专家给出建议,最后请一个总顾问根据他们的建议做决定。 |
Decision Tree | 决策树 | 通过树状结构进行决策,逐步分割数据以进行分类或回归。 | 像一个二叉树,走下去的每一步都在问“这是什么”,直到找到答案。 |
Classification Tree | 分类树 | 用于分类任务的决策树,将数据划分到预定义类别。 | 就像在超市把商品分别分类,方便人们找到他们需要的东西。 |
Adaptive Boosting (AdaBoost) | 自适应提升 | 通过加权的方式对错分类的数据进行增强,提升模型的准确度。 | 一位老师根据学生的成绩调整关注的重点,帮助每位学生持续进步。 |
Decision Stump | 决策树桩 | 只有一个分裂的决策树,用于简单的分类任务。 | 就像一个只问一个问题的小测试,简单明了。 |
Meta Learning | 元学习 | 使模型学习如何更好地学习,优化其他学习算法。 | 像一个运动员在参加比赛后总结经验,变得更强更快。 |
Gradient Descent | 梯度下降 | 一种优化算法,逐步更新模型参数以最小化损失函数。 | 就像在山上寻找最低点,每次小步向下走,直到找到谷底。 |
DNN(深度神经网络)
中文解释:多层神经网络,能自动从数据中学习复杂的表示。
大白话比喻:就像一层层的侦探,每个侦探负责解开一部分谜团,最后汇总得到案件全貌。
英文术语 | 中文术语 | 中文解释 | 大白话比喻 |
Deep Feedforward Network (DFN) | 深度前向网络 | 一种由多个层组成的神经网络,信息从输入层到输出层逐层传递。 | 就像一个穿越隧道的火车,每一站只能往前开。 |
Backpropagation | 反向传播 | 一种训练神经网络的方法,通过计算输出的误差来调整权重。 | 就像补习老师根据错题反馈帮助学生提高成绩。 |
Activation Function | 激活函数 | 用于决定神经元是否被激活,影响输出的非线性转换。 | 就像开关,决定灯是否亮。 |
Multi-layer Perceptron (MLP) | 多层感知机 | 一种典型的前馈神经网络,由多个层和多个神经元组成。 | 就像一座多层建筑,有很多房间(神经元)。 |
Perceptron | 感知机 | 早期的单层神经网络,是神经网络研究的基础。 | 就像只有一个房间的小屋,结构简单。 |
Mean-Squared Error (MSE) | 均方误差 | 用于衡量预测值与真实值之间的差异,越小越好。 | 就像考试分数和满分的差距,越小越开心。 |
Chain Rule | 链式法则 | 用于计算复合函数的导数的数学法则。 | 就像一个复杂的流水线,前面的工序影响后面的。 |
Logistic Function | 逻辑函数 | 用于将任意实数值转换为0到1之间的值,常用于分类任务。 | 就像一扇门,只有在准确度达到一定标准时,才会打开。 |
Hyperbolic Tangent | 双曲正切函数 | 一种激活函数,用于将输入转换为-1到1之间的值。 | 就像一个变压器,可以把电压调高或调低。 |
Rectified Linear Units (ReLU) | 整流线性单元 | 一种常用的激活函数,输入为负时输出0,正时原样输出。 | 就像一个门,只有正能量的东西可以通过。 |
Residual Neural Networks (ResNet) | 残差神经网络 | 一种深度神经网络,通过添加捷径连接减少训练过程中的信息损失。 | 就像学路上的捷径,能更快到达目的地。 |
Regularization(正则化)
中文解释:防止模型过拟合的技术,通过添加惩罚项限制模型复杂度。
大白话比喻:就像考试复习时不能只钻难题,也要顾及基础,避免考试时因小失大。
英文术语 | 中文术语 | 中文解释 | 大白话比喻 |
Deep Feedforward Network (DFN) | 深度前向网络 | 一种由多个层组成的神经网络,信息从输入层到输出层逐层传递。 | 就像一个穿越隧道的火车,每一站只能往前开。 |
Backpropagation | 反向传播 | 一种训练神经网络的方法,通过计算输出的误差来调整权重。 | 就像补习老师根据错题反馈帮助学生提高成绩。 |
Activation Function | 激活函数 | 用于决定神经元是否被激活,影响输出的非线性转换。 | 就像开关,决定灯是否亮。 |
Multi-layer Perceptron (MLP) | 多层感知机 | 一种典型的前馈神经网络,由多个层和多个神经元组成。 | 就像一座多层建筑,有很多房间(神经元)。 |
Perceptron | 感知机 | 早期的单层神经网络,是神经网络研究的基础。 | 就像只有一个房间的小屋,结构简单。 |
Mean-Squared Error (MSE) | 均方误差 | 用于衡量预测值与真实值之间的差异,越小越好。 | 就像考试分数和满分的差距,越小越开心。 |
Chain Rule | 链式法则 | 用于计算复合函数的导数的数学法则。 | 就像一个复杂的流水线,前面的工序影响后面的。 |
Logistic Function | 逻辑函数 | 用于将任意实数值转换为0到1之间的值,常用于分类任务。 | 就像一扇门,只有在准确度达到一定标准时,才会打开。 |
Hyperbolic Tangent | 双曲正切函数 | 一种激活函数,用于将输入转换为-1到1之间的值。 | 就像一个变压器,可以把电压调高或调低。 |
Rectified Linear Units (ReLU) | 整流线性单元 | 一种常用的激活函数,输入为负时输出0,正时原样输出。 | 就像一个门,只有正能量的东西可以通过。 |
Residual Neural Networks (ResNet) | 残差神经网络 | 一种深度神经网络,通过添加捷径连接减少训练过程中的信息损失。 | 就像学路上的捷径,能更快到达目的地。 |
Matrix Factorization(矩阵分解)
中文解释:将一个大的矩阵分解为两个或多个小矩阵的乘积,常用于推荐系统。
大白话比喻:就像把一个复杂的拼图拆分成几小块,每块单独处理后,再拼接起来就简单多了。
英文名词 | 中文对应 | 中文解释 | 大白话比喻 |
Matrix Factorization (MF) | 矩阵分解 | 将一个大矩阵分解为多个小矩阵的过程 | 就像把一块大蛋糕切成几块小蛋糕。 |
Root-Mean-Square Error (RMSE) | 均方根误差 | 实际值和预测值之间差异的衡量方式 | 计算你的猜测与真实情况有多远,就像在猜水果的重量。 |
Collaborative Filtering (CF) | 协同过滤 | 基于用户行为和偏好的推荐系统方法 | 就像朋友推荐好看的电影。 |
Nonnegative Matrix Factorization (NMF) | 非负矩阵分解 | 在分解矩阵时,确保所有元素为非负数 | 就像只用正数来分配蛋糕,每人拿到的都是整块。 |
Singular Value Decomposition (SVD) | 奇异值分解 | 一种矩阵分解方法,用于降维和特征提取 | 就像把几十种类型的水果压缩成几种主要的水果。 |
Latent Semantic Analysis (LSA) | 潜在语义分析 | 理解文档背后的潜在主题和语义关系 | 就像找出书中隐藏的主要思想。 |
Bayesian Probabilistic Matrix Factorization (BPMF) | 贝叶斯概率矩阵分解 | 使用贝叶斯方法进行矩阵分解的技术 | 就像用概率来猜测大家喜欢的口味。 |
Wishart Prior | Wishart先验 | 一种用于多元统计的先验分布 | 就像给你一个关于未知事物的基础假设。 |
Sparse Coding | 稀疏编码 | 用尽可能少的基础元素来表示数据 | 就像用更少的颜色画出一幅画,用简单的方式表达。 |
Factorization Machines (FM) | 分解机 | 泛化的模型用于预测和推荐 | 就像把不同的食材混合出新菜一样,创造新的味道 |
Optimization(优化)
中文解释:寻找最优解的过程,机器学习中用于调整模型参数以最小化损失函数。
大白话比喻:就像爬山时找最省力的路线上山顶,优化算法就是帮你找这条路的向导。
英文名词 | 中文名词 | 中文解释 | 大白话比喻解释 |
second-order method | 二阶方法 | 使用二阶导数信息来优化的算法 | 车速不只看速度,还得知道加速度 |
cost function | 代价函数 | 衡量模型预测值与实际值差异的函数 | 就像考试的分数,越低越好 |
training set | 训练集 | 用于训练模型的数据集 | 练习题集,做好才行 |
objective function | 目标函数 | 需要优化的函数 | 目标就像是攀登的山顶,得努力向上 |
expectation | 期望 | 随机变量的平均值或中心值 | 一群孩子的平均身高,了解整体水平 |
data generating distribution | 数据生成分布 | 生成数据的概率分布 | 彩虹的颜色分布,有可能出现的颜色 |
empirical risk minimization | 经验风险最小化 | 通过实际数据来最小化风险的策略 | 就像挑水时尽量少洒水 |
generalization error | 泛化误差 | 模型在未见数据上的预测误差 | 就像考试时复习的知识在新题目上的表现 |
empirical risk | 经验风险 | 从训练数据中观察到的损失 | 像是回头看自己比赛的失误 |
overfitting | 过拟合 | 模型过于复杂,无法很好地泛化 | 就像老师的学生只会做过去的考试题 |
feasible | 可行 | 满足所有约束条件的 | 就像计划的旅行路线不能有坏路 |
loss function | 损失函数 | 衡量模型预测误差的函数 | 失误的惩罚,如扣分一样 |
derivative | 导数 | 表示函数变化率的工具 | 速度表,告诉你车速的变化 |
gradient descent | 梯度下降 | 一种优化方法,通过梯度信息来减小损失 | 爬坡时,沿着最陡的地方往下走 |
surrogate loss function | 代理损失函数 | 用于简化优化过程的替代损失函数 | 考试时用简单的题目代替困难的题目 |
early stopping | 提前终止 | 在适当时机停止训练以防过拟合 | 看到目标就停,避免过度追求 |
Hessian matrix | 黑塞矩阵 | 二阶导数的矩阵,用于优化算法 | 多维空间的曲率,像是山坡的斜率 |
second derivative | 二阶导数 | 描述函数变化率变化的导数 | 像是加速度,告诉你速度是如何变化的 |
Taylor series | 泰勒级数 | 用多项式逼近函数的方法 | 就像用简单形状拼出复杂的图形 |
Ill-conditioning | 病态的 | 数值计算中,结果不稳定的情况 | 像是站在不平衡的摇摇板上,随时可能跌倒 |
critical point | 临界点 | 函数导数为零的点 | 爬山时的转折点,决定下一个方向 |
local minimum | 局部极小点 | 在邻域内比周围值小的点 | 小山谷,比周围更低的地方 |
local maximum | 局部极大点 | 在邻域内比周围值大的点 | 小山峰,比周围更高的地方 |
saddle point | 鞍点 | 一种既不是极大也不是极小的临界点 | 像骑马时的马鞍,既不是下坡也不是上坡 |
local minima | 局部极小值 | 一类局部极小点 | 小水坑,周围稍微高点的地方 |
global minimum | 全局最小点 | 整个函数中最小的点 | 薄冰期中的深水坑,别人见的全是水 |
convex function | 凸函数 | 在任意两点之间的线段位于函数图形之上的函数 | 像拉紧的绳子,永远不会掉下去 |
weight space symmetry | 权重空间对称性 | 权重空间的一种对称特征 | 姐妹俩一样打扮,照一面镜子 |
Newton’s method | 牛顿法 | 基于导数和二阶导数的优化算法 | 用牛顿纽带找拐点,走得快 |
activation function | 激活函数 | 决定神经元是否被激活的函数 | 开关,决定灯是否亮 |
fully-connected networks | 全连接网络 | 每层神经元之间均有连接的神经网络 | 每个班级的学生都能同学沟通 |
Resnet | 残差神经网络 | 使用残差学习的神经网络,解决退化问题 | 寻找更高的山时,通过捷径降低目标 |
gradient clipping | 梯度截断 | 在梯度过大时进行限制以防止模型不稳定 | 防止车速超限,保持安全 |
recurrent neural network | 循环神经网络 | 具有循环连接的神经网络,适用于序列数据 | 就像记忆力,能跟踪过去的信息 |
long-term dependency | 长期依赖 | 序列数据中的长期关联性 | 长时间记得一个人,不管见与不见 |
eigen-decomposition | 特征值分解 | 将矩阵分解为特征向量和特征值的过程 | 将一个复杂题拆分成简单的几部分 |
feedforward network | 前馈网络 | 信息从输入层到输出层单向流动的神经网络 | 像是水流,总是朝一个方向流 |
vanishing and exploding gradient problem | 梯度消失与爆炸问题 | 在深度网络中,梯度变得非常小或非常大的问题 | 就像水管堵塞,水流很小或突然爆发 |
contrastive divergence | 对比散度 | 用于训练生成模型的一种算法 | 比较两种不同的布料感受,选择最好的 |
validation set | 验证集 | 用于评估模型性能的数据集 | 模拟考试,用于检查复习效果 |
stochastic gradient descent | 随机梯度下降 | 使用随机样本来优化参数的方法 | 随机抽查,省去全部的麻烦 |
learning rate | 学习速率 | 更新权重时的步长 | 一步步向前,不能太快,也不能太慢 |
momentum | 动量 | 用于加速梯度下降过程的技术 | 冲力,靠着前面的速度做更快的决定 |
poor conditioning | 病态条件 | 结果不稳定的计算条件 | 二维地图在高楼之间导航容易迷失 |
nesterov momentum | Nesterov 动量 | 一种优化算法,其中动量的更新基于位置的估计 | 预判未来,提前加速,像是快要进弯的车 |
partial derivative | 偏导数 | 仅对一个变量求导的过程 | 一种特殊的速率,只看某一个方面的变化 |
moving average | 移动平均 | 对数据集进行平滑处理的一种方法 | 细水长流,让数值平滑过渡 |
quadratic function | 二次函数 | 形状为抛物线的函数 | 像是碗,底部的最低点 |
positive definite | 正定 | 确保所有特征值均大于零的属性 | 稳定的地基,保证不会塌陷 |
quasi-newton method | 拟牛顿法 | 近似牛顿法的方法,避免计算二阶导数 | 走捷径,避免复杂化 |
conjugate gradient | 共轭梯度 | 求解优化问题的有效算法 | 同步前进,两个方向一起拼命前进 |
steepest descent | 最速下降 | 沿着梯度下降最快的方向进行优化 | 沿着最陡的坡跑下去 |
reparametrization | 重参数化 | 改变模型参数化方式以简化计算 | 像换了一种方式来穿衣服,更加舒服 |
standard deviation | 标准差 | 描述数据集分散程度的统计量 | 一群人身高偏离平均的程度 |
coordinate descent | 坐标下降 | 一次最小化一个变量的优化方法 | 像在坐标轴上逐步调整位置 |
skip connection | 跳跃连接 | 在神经网络中直接连接非相邻层 | 同班同学为你开路,帮你打通关卡 |
CNN(卷积神经网络)
中文解释:特别适合处理图像数据的神经网络结构,通过卷积层自动提取特征。
大白话比喻:就像有特殊眼镜,戴上后能直接看到照片中的隐藏图案,快速识别内容。
英文名词 | 中文名词 | 中文解释 | 大白话比喻 |
second-order method | 二阶方法 | 基于二阶导数的信息(如Hessian矩阵)来优化目标函数的方法,通常收敛速度更快。 | 找路时不仅看方向,还看路的坡度,走得更快。 |
cost function | 代价函数 | 衡量模型预测与实际结果之间差异的函数,目标是最小化该函数。 | 就像考试成绩,分数越低,表现越差。 |
training set | 训练集 | 用于训练机器学习模型的数据集,包括输入特征和对应标签。 | 训练狗狗的“测试”,让它学会坐下。 |
objective function | 目标函数 | 需达到最优化的函数,通常与代价函数相同。 | 就像设定考高分的目标。 |
expectation | 期望 | 随机变量的平均值,表示一种长期的平均效果。 | 如果天天吃冰淇淋,长期来看你预计会有多少快乐。 |
data generating distribution | 数据生成分布 | 描述数据生成过程的概率分布,用于理解数据的本质。 | 就像是一家工厂的生产流程,说明怎么制造出来的产品。 |
empirical risk minimization | 经验风险最小化 | 通过最小化经验风险来训练模型,使模型在训练集上的表现最优。 | 就像为了一场比赛反复练习,确保表现最好。 |
generalization error | 泛化误差 | 模型在新数据上的表现与训练数据上的表现之间的差距。 | 就像考试时背的知识和真实考试内容不匹配。 |
empirical risk | 经验风险 | 在特定数据集上计算的风险,通常用代价函数来衡量。 | 就像过去几场考试的得分情况。 |
overfitting | 过拟合 | 模型在训练集上表现很好,但在新数据上表现糟糕的现象。 | 就像专门为一场演出准备的表演,结果在其他场合却演不好。 |
feasible | 可行 | 可行解的存在,通常指在给定的约束条件下能够找到的解。 | 就像找到一条能安全回家的路。 |
loss function | 损失函数 | 衡量模型预测错误程度的函数,目标是使其最小化。 | 就像每次考试失分的综合得分。 |
derivative | 导数 | 函数变化率的度量,反映输入变化时输出的变化情况。 | 就像摩托车的油门,按下去速度变化的快慢。 |
gradient descent | 梯度下降 | 一种优化方法,通过不断沿梯度方向调整参数,以找到函数的局部最优解。 | 就像走山路,选择最陡峭的下坡路。 |
surrogate loss function | 代理损失函数 | 在某些情况下,优化更容易的损失函数,用于近似真实损失函数的优化。 | 就像用简单的公式估算复杂问题。 |
early stopping | 提前终止 | 在模型训练过程中,当验证集性能不再提升时,提前终止训练过程。 | 就像感觉今天的练习没效果,就不再坚持练了。 |
Hessian matrix | 黑塞矩阵 | 二阶导数的矩阵,常用于评估优化问题的曲率。 | 就像检查路面是否平坦,以决定是否加速。 |
second derivative | 二阶导数 | 描述函数曲率变化的导数,通常用于判断函数的极值性质。 | 就像滑梯的倾斜度,决定你滑得快慢的关键。 |
Taylor series | 泰勒级数 | 用于逼近函数的一种级数展开,基于函数在某一点的导数。 | 就像用简单的图形替代复杂的图形。 |
Ill-conditioning | 病态的 | 数学问题中,输入微小变化导致输出显著变化的情况,通常在优化中需避免。 | 就像不稳的桥,风一吹就晃。 |
critical point | 临界点 | 函数的一阶导数为零或不存在的点,可能为极值点。 | 就像山顶或山谷,可能需要寻找。 |
local minimum | 局部极小点 | 在小范围内低于周围点的点,但不是全局最低点。 | 就像一个小坑,周围的地势高。 |
local maximum | 局部极大点 | 在小范围内高于周围点的点,但不是全局最高点。 | 就像一座小山,周围的地面低。 |
saddle point | 鞍点 | 某些方向上是局部极小,另一些方向上是局部极大的点。 | 就像马鞍,前后高,中间低。 |
local minima | 局部极小值 | 同局部极小点。 | 同局部极小点。 |
global minimum | 全局最小点 | 整个函数中最小的点。 | 就像山的最低点,所有点比较起来,这里最低。 |
convex function | 凸函数 | 任意两点之间的线段位于函数图像上方或与其重合的函数。 | 就像一个碗,随便在哪里放球都往底部滚。 |
weight space symmetry | 权重空间对称性 | 变量之间某种对称关系,使问题简化。 | 就像一张对称的图画,左右一样。 |
Newton’s method | 牛顿法 | 基于梯度和二阶导数的信息,通过迭代来找到函数的根或极值的优化方法。 | 就像根据当前位置和坡度来判断前进方向。 |
activation function | 激活函数 | 在神经网络中引入非线性,使模型能够学习复杂的模式。 | 就像开关,让灯泡亮起。 |
fully-connected networks | 全连接网络 | 每一层的每个节点都与下一层的每个节点相连接的神经网络结构。 | 就像每个人都能和每个人交流。 |
Resnet | 残差神经网络 | 一种深度神经网络架构,通过跳跃连接解决深层网络中梯度消失的问题。 | 就像打游戏时,增加捷径让你更快到达目的地。 |
gradient clipping | 梯度截断 | 为了避免梯度爆炸,将梯度值限制在某个范围内的技术。 | 就像给一条长绳子设置一个固定长度,避免失控。 |
recurrent neural network | 循环神经网络 | 具有记忆功能的神经网络结构,适合处理序列数据。 | 就像在记日记,能记住以前发生的事。 |
long-term dependency | 长期依赖 | 序列数据中较远时间点的信息对当前状态的影响。 | 就像远处的风能影响你身边的树。 |
eigen-decomposition | 特征值分解 | 将矩阵分解为特征向量和特征值,用于简化计算和数据分析。 | 就像把水果分开,各自装箱,便于处理。 |
feedforward network | 前馈网络 | 信息沿单一方向从输入层传递到输出层的神经网络,不会有循环。 | 就像在流水线工作,产品只向前移动。 |
vanishing and exploding gradient problem | 梯度消失与爆炸问题 | 在训练深度神经网络时,梯度可能会非常小或非常大,使得学习变得困难。 | 就像气球的气漏得太多或被吹得太满,没法正常使用。 |
contrastive divergence | 对比散度 | 用于训练生成模型的一种技术,通过比较生成样本与真实样本的差异来优化模型。 | 就像不同风味的冰淇淋,比较哪种更好。 |
validation set | 验证集 | 用于评估模型性能的数据集,通常在模型训练过程中使用。 | 就像模拟考试,检验学习效果。 |
stochastic gradient descent | 随机梯度下降 | 一种优化算法,随机选择样本来更新模型参数,以加速收敛。 | 就像路上随机走几步,偶尔停下来看看位置。 |
learning rate | 学习速率 | 控制模型参数更新速度的超参数,直接影响训练效果和速度。 | 就像开车的油门,踩得轻重影响你前进的速度。 |
momentum | 动量 | 优化算法中的方法,通过引入过去梯度积累的概念来加快收敛。 | 就像打滑的车轮一下子加速,帮你更快行驶。 |
gradient descent | 梯度下降 | 同上。 | 同上。 |
poor conditioning | 病态条件 | 当矩阵的条件数较高时,数值计算可能不稳定。 | 就像一条摇摇欲坠的桥,行走不稳。 |
nesterov momentum | Nesterov 动量 | 一种考虑未来梯度的优化方法,能提高收敛速度。 | 就像在车开动前提前看路况,加速前进。 |
partial derivative | 偏导数 | 多元函数沿某个变量变化的导数。 | 就像只看一个方向的景色,不考虑旁边的东西。 |
moving average | 移动平均 | 一种平滑数据波动的技术,通过取数据的平均值来减少噪声。 | 就像看天气预报,长期趋势更清晰。 |
quadratic function | 二次函数 | 一个可用二次方程表示的函数,通常图像呈抛物线形。 | 就像抛物线的桥,弧形优雅。 |
positive definite | 正定 | 矩阵的特性,使得所有特征值均为正数。 | 就像健康的体能测试,指标都很好。 |
quasi-newton method | 拟牛顿法 | 通过近似Hessian矩阵的逆来实现优化的方法,节省计算资源。 | 就像智者的经验法则,简化复杂的决策过程。 |
conjugate gradient | 共轭梯度 | 一种用于求解线性方程组的优化算法,通常效率比传统方法更高。 | 就像在迷宫以最佳路线快速找到出口。 |
steepest descent | 最速下降 | 使用当前梯度方向进行优化的一种方法。 | 就像在山坡上选择最快的下山路径。 |
reparametrization | 重参数化 | 通过更改模型参数化方式,以提高训练效率或优化性能。 | 就像改进数学公式,让计算更简单。 |
standard deviation | 标准差 | 描述数据分布偏离均值程度的统计量。 | 就像考试分数的波动性,分数越分散,标准差越大。 |
coordinate descent | 坐标下降 | 优化方法,通过逐个调整每个变量的值来找到最优解。 | 就像修整园艺,逐株修剪植物,最终达到整体美观。 |
skip connection | 跳跃连接 | 在神经网络中连接非相邻层的技术,用于缓解深度学习中的梯度消失问题。 | 就像绕过中间的障碍,直接到达更有效的路径。 |
Auto Encoder(自编码器)
中文解释:一种无监督学习方法,通过学习数据的有效压缩和解压缩来发现数据的有用表示。
大白话比喻:就像打包行李时尽量紧凑,到达目的地再原样展开,过程中学会了高效整理。
英文名词 | 中文名词 | 中文解释 | 大白话比喻 |
autoencoder | 自编码器 | 一种无监督学习算法,能学习数据的压缩表示。 | 像一个师傅把复杂的东西变成简单的说明书。 |
unsupervised learning | 无监督学习 | 一种机器学习方法,不需要标签,依赖数据的内在结构进行学习。 | 像一个小孩在玩积木,没有说明书,自己搭建。 |
back propagation | 反向传播 | 神经网络训练的一种算法,通过计算误差来调整权重。 | 像是一名运动员在比赛后分析自己哪里做错了。 |
pretraining | 预训练 | 利用已有数据训练模型,使其在特定任务上表现更好。 | 像是考生先做模拟题,然后再参加正式考试。 |
dimensionality reduction | 降维 | 将高维数据转化为低维数据,保留重要特征。 | 就像从一本厚书中提取关键章节。 |
curse of dimensionality | 维数灾难 | 维度增加导致数据稀疏,难以建模的问题。 | 像是人多时找人的困难,一下子变得很难。 |
feedforward neural network | 前馈神经网络 | 一种信息单向流动的神经网络结构。 | 像是流水线,材料从一头进,最后从另一头出。 |
encoder | 编码器 | 将数据转化成可处理形式的部分。 | 像是翻译员把外语翻译成母语。 |
decoder | 解码器 | 将编码后的数据还原成可读格式的部分。 | 像是翻译员把母语翻译成外语。 |
cross-entropy | 交叉熵 | 衡量两个概率分布差异的指标,常用于分类问题。 | 像是考试答案的准确率评分。 |
tied weights | 绑定的权重 | 在神经网络中,某些权重被强制设为相同值。 | 像是两个小孩身上的链子,绑在一起。 |
PCA | PCA | 主成分分析,一种常用的降维技术。 | 像是对电影进行剪辑,保留精彩片段。 |
principal component analysis | 主成分分析 | 将数据转化到一个新的坐标系中,以简化分析。 | 像是将复杂的图纸简化成草图。 |
singular value decomposition | 奇异值分解 | 将矩阵分解为三个矩阵的方法,广泛应用于数据压缩。 | 像是在剥洋葱,把每层剥离出来。 |
SVD | SVD | 奇异值分解的简称。 | 就是坐标变换,把复杂问题变简单。 |
singular value | 奇异值 | 在奇异值分解中获得的重要数值,表示数据的特征。 | 像是反映你成绩的分数,越高越重要。 |
reconstruction error | 重构误差 | 原始数据与重构数据之间的差异。 | 就像复读机把录音内容播放错误。 |
covariance matrix | 协方差矩阵 | 描述数据变量之间关系的重要工具。 | 像是大家庭成员的亲密程度表。 |
Kullback-Leibler (KL) divergence | KL散度 | 衡量两个概率分布差异的非对称度量。 | 像是两个人对于同一件事情看法的不同程度。 |
denoising autoencoder | 去噪自编码器 | 自编码器的一种,用于清除输入数据中的噪声。 | 像是去掉照片中的污点,留下干净的图像。 |
sparse autoencoder | 稀疏自编码器 | 一种自编码器,强迫激活的单元数很少以增强特征学习。 | 像是一个团队中只有少数人负责核心工作。 |
contractive autoencoder | 收缩自编码器 | 强迫编码器输出的表示更加紧凑的方法。 | 像是把信息压缩到一个更小的袋子里。 |
conjugate gradient | 共轭梯度 | 一种优化算法,常用于求解线性系统和最优化问题。 | 就像是借助不同的方向来爬山,找到最快的路。 |
fine-tune | 精调 | 对预训练模型进行微调,使其在特定任务上更为精确。 | 就像是把一件衣服修改到刚好合身。 |
local optima | 局部最优 | 在某个特定区域内找到的最佳解,而不是全局最佳。 | 就像在小山上找到的最高点,但不是最高峰。 |
posterior distribution | 后验分布 | 在给定数据后概率分布的修正。 | 像是根据新消息调整对未来的预测。 |
gaussian distribution | 高斯分布 | 一种常见的概率分布,呈钟形曲线。 | 像是考试成绩的分布,大部分人得分接近平均分。 |
reparametrization | 重参数化 | 通过改变变量的表示简化优化问题的方法。 | 像是换个方式解同样的数学题,更简单! |
RNN(循环神经网络)
中文解释:适用于序列数据处理的神经网络,能够处理和预测时间序列中的模式。
大白话比喻:就像听故事时,记住了前面的情节,就能更好预测接下来会发生什么。
英文名词 | 中文名词 | 中文解释 | 大白话比喻解释 |
recurrent neural network | 循环神经网络 | 一种神经网络架构,适合处理序列数据,通过循环连接来传递信息。 | 就像在读一本书时,读到一段信息可以记住前面的内容。 |
artificial neural network | 人工神经网络 | 模仿人脑神经元的计算模型,用于解决复杂的学习任务。 | 像是一群小机器人一起讨论,互相传递信息来做决定。 |
feedforward neural network | 前馈神经网络 | 输入数据经过一层层神经元传递到输出层,不会回流。 | 就像在流水线工作,信息一进就一出,不会返回。 |
sentiment analysis | 情感分析 | 自动识别文本中的情感倾向,如正面、负面或中性。 | 就像某人在看电影时,判断其他观众是开心还是失望。 |
machine translation | 机器翻译 | 利用计算机将一种语言翻译成另一种语言。 | 就像一个懂多国语言的翻译家,实时翻译交谈内容。 |
pos tagging | 词性标注 | 为每个单词分配语法类别,如名词、动词等。 | 就像为每个单词打上标签,告诉大家它们的角色是什么。 |
teacher forcing | 导师驱动过程 | 在训练模型时,使用真实的输出而不是模型生成的输出作为下一步的输入。 | 像老师在辅导学生时,直接给出正确答案指导学习。 |
back-propagation through time | 通过时间反向传播 | 在训练循环神经网络时,通过时间展开的方式进行反向传播。 | 就好比回顾过去的内容来调整未来的表现。 |
directed graphical model | 有向图模型 | 用于表示变量之间的依赖关系的图形模型,节点为变量,边为依赖关系。 | 就像一个家庭树,告诉我们谁是家谱中的谁。 |
speech recognition | 语音识别 | 将语音信号转化为文本的技术。 | 像一个听众把你说的话准确记录下来。 |
question answering | 问答系统 | 自动回答用户提出的问题的系统。 | 就像一个智能客服,实时回答你的问题。 |
attention mechanism | 注意力机制 | 让模型在处理信息时,优先关注重要的部分。 | 就像一个学生在上课时,会根据老师的强调来集中注意力。 |
vanishing and exploding gradient problem | 梯度消失与爆炸问题 | 在深度学习中,梯度太小或太大,导致模型训练困难的问题。 | 就像跑步太慢或太快都很难掌握节奏一样。 |
jacobi matrix | jacobi矩阵 | 用于优化算法的一个矩阵,帮助计算函数的导数。 | 就像考试前的复习提纲,帮助你回顾重点。 |
long-term dependency | 长期依赖 | 在序列数据中,当前输出可能依赖于很早以前的输入。 | 就像一部小说的情节需要读者记住早期的故事才能理解。 |
clip gradient | 梯度截断 | 控制梯度值,防止梯度过大或过小的问题。 | 就好比限制自己的生气程度,避免失控。 |
long short-term memory | 长短期记忆 | 一种能够捕捉长期依赖关系并解决梯度消失问题的网络架构。 | 想象大脑有一个短期和长期的记忆盒子,存储不同的信息。 |
gated recurrent unit | 门控循环单元 | 一种改进的循环神经网络,使用门控机制来更好地控制信息流动。 | 像是开关,决定哪些信息是重要的,哪些是可以忽略的。 |
hadamard product | Hadamard乘积 | 一种对两个矩阵进行元素-wise 乘法的操作。 | 就像手指按在两层纸上,逐个点对点的压印。 |
back propagation | 反向传播 | 神经网络训练中的一种算法,通过计算损失函数的梯度来更新权重。 | 像把照片反向处理,从结果到过程,修正每一步。 |
attention mechanism | 注意力机制 | (重复)让模型在处理信息时,优先关注重要的部分。 | (重复)就像一个学生在上课时,会根据老师的强调来集中注意力。 |
feedforward network | 前馈网络 | (重复)输入数据经过一层层神经元传递到输出层,不会回流。 | (重复)就像在流水线工作,信息一进就一出,不会返回。 |
named entity recognition | 命名实体识别 | 在文本中识别出特定实体,如人名、地点名等。 | 就像在一篇文章中迅速找到所有的大人物和地名。 |
Representation(表示学习)
中文解释:学习将原始数据转换为更有意义的表示形式的过程。
大白话比喻:就像翻译,把难懂的外语句子变成易懂的母语,让人更容易理解。
英文名词 | 中文名词 | 中文解释 | 大白话比喻 |
Representation Learning | 表征学习 | 从数据中自动提取特征表示的过程。 | 就像把水果变成水果沙拉,提取出水果的味道与颜色。 |
Distributed Representation | 分布式表征 | 用多个变量编码信息,以便更有效地表示数据。 | 像在一张地图上分别标记多个景点。 |
Multi-task Learning | 多任务学习 | 同时学习多个相关任务,通过共享知识提高学习效率。 | 就像一个学生同时学习数学和物理,互相帮助。 |
Multi-Modal Learning | 多模态学习 | 结合多种数据类型(如图像、文本等)进行学习。 | 观看电影时,看视频、听音乐、读字幕,综合理解。 |
Semi-supervised Learning | 半监督学习 | 使用少量标注数据和大量未标注数据进行学习。 | 就像老师只给你一部分答案,而你自己去推测剩下的答案。 |
NLP | 自然语言处理 | 计算机理解与处理人类语言的技术。 | 就像翻译软件能理解和翻译我们说的话。 |
Neural Language Model | 神经语言模型 | 基于神经网络的模型,用于处理和生成语言。 | 像一个机器人能理解并说出人类语言。 |
Neural Probabilistic Language Model | 神经概率语言模型 | 使用概率进行语言生成和理解的神经网络模型。 | 就像一个猜谜游戏,基于过去的经验猜测答案。 |
RNN | 循环神经网络 | 适合处理序列数据的神经网络,可以记忆之前的信息。 | 像一个听故事的孩子,记住先前的情节。 |
Neural Tensor Network | 神经张量网络 | 用于处理多维数据的网络结构。 | 像用多层纸板架构来拼成大型建筑。 |
Graph Neural Network | 图神经网络 | 处理图结构数据的神经网络技术。 | 就像在复杂的社交网络中寻找朋友。 |
Graph Covolutional Network (GCN) | 图卷积网络 | 通过卷积方法在图数据上学习特征。 | 就像在一个城市地图上找到最佳路线。 |
Graph Attention Network | 图注意力网络 | 在图中对重要节点的特征增强处理。 | 像聚光灯照亮一个舞台上的重要演员。 |
Self-attention | 自注意力机制 | 允许模型在处理信息时集中注意某些部分。 | 就像在阅读时快速跳过不重要的部分。 |
Feature Learning | 特征学习 | 自动从数据中获得有意义的特征。 | 像从书本中提取出关键知识点。 |
Feature Engineering | 特征工程 | 人工设计和选择模型输入的特征。 | 就像厨师选择最好的原材料来做菜。 |
One-hot Representation | 独热编码 | 用二进制向量表示类别变量的方法。 | 就像给每个水果贴上不同的标签。 |
Speech Recognition | 语音识别 | 将人类语音转换为文本的技术。 | 就像把你说的话转写成文字。 |
DBM | 深度玻尔兹曼机 | 一种生成模型,能表示复杂的数据分布。 | 就像复杂棋局的解析,理解出棋局形势。 |
Zero-shot Learning | 零次学习 | 在未见过的类别上进行推理和学习的能力。 | 就像从未见过的动物,能猜出它们的特征。 |
Autoencoder | 自编码器 | 用于降维和特征提取的神经网络模型。 | 就像打包压缩文件,减小体积。 |
Generative Adversarial Network(GAN) | 生成对抗网络 | 通过对抗训练生成新数据的模型。 | 就像艺术家与评论家斗智斗勇,互相提升。 |
Approximate Inference | 近似推断 | 使用近似方法估计复杂模型的概率。 | 就像用简化计算方法求解复杂数学题。 |
Bag-of-Words Model | 词袋模型 | 文本表示法,只关注词的出现频率而忽略顺序。 | 就像只记得购物清单里的东西,不关心顺序。 |
Forward Propagation | 前向传播 | 神经网络中信息传递的过程。 | 像一条流水线,产品从一端流向另一端。 |
Huffman Binary Tree | 霍夫曼二叉树 | 用于数据压缩的编码树结构。 | 就像给每个字母分配不同长度的邮包,常用的短包,不常用的长包。 |
NNLM | 神经网络语言模型 | 基于神经网络的语言模型,能更好处理上下文。 | 就像一个懂上下文的翻译助手。 |
N-gram | N元语法 | 用于处理文本中词序列的模型。 | 就像拼图一样,关注连续的几块拼图。 |
Skip-gram Model | 跳元模型 | 用于学习词向量的一种网络模型。 | 就像用某个词快速找出旁边的多个词。 |
Negative Sampling | 负采样 | 在训练中通过选择不相关样本减少计算量的方法。 | 就像聚会中只选取有趣的人聊天,忽略无趣的人。 |
CBOW | 连续词袋模型 | 根据上下文词预测中心词的模型。 | 就像用上下文猜测中间缺失的单词。 |
Knowledge Graph | 知识图谱 | 表示知识及其关系的图结构。 | 就像一张复杂的人际关系图,展示了每个人之间的连接。 |
Relation Extraction | 关系抽取 | 从文本中识别和提取实体之间关系的过程。 | 就像侦探找出嫌疑犯之间的联系。 |
Network Embedding (嵌入网络)
中文解释:将网络中的节点映射到低维空间中的向量,保留节点间的关系信息。
大白话比喻:就像地图上的城市简化为坐标点,虽简化了,但城市间的相对位置关系没变。
英文术语 | 中文术语 | 中文解释 | 大白话比喻 |
Node Embedding | 节点嵌入 | 将图中的节点转换为向量表示,使其可以在机器学习模型中使用。 | 把每个节点变成一个数字串,方便机器理解。 |
Graph Neural Network | 图神经网络 | 利用图中节点及其邻居信息进行学习的神经网络。 | 像邻里邻居聊天,获取对方的信息来做决定。 |
Node Classification | 节点分类 | 对图中的节点进行分类的任务。 | 把不同的朋友分门别类,知道谁是谁。 |
Link Prediction | 链路预测 | 预测图中两个节点之间是否会形成连接。 | 猜猜朋友之间会不会成为好友。 |
Community Detection | 社区发现 | 识别图中相互连接紧密的节点组。 | 找出小圈子,看看谁和谁更熟。 |
Isomorphism | 同构 | 两个图在结构上是等价的。 | 两幅画看起来一样,虽然画的风格不同。 |
Random Walk | 随机漫步 | 在图上进行的随机行走过程。 | 藏猫猫,在各个房间随机跑来跑去。 |
Spectral Clustering | 谱聚类 | 基于图的谱特征进行聚类的方法。 | 用声音来分类不同类型的音乐。 |
Asynchronous Stochastic Gradient Algorithm | 异步随机梯度算法 | 一种并行更新模型参数的方法。 | 每个人都能在不同时间提意见,改善团队决策。 |
Negative Sampling | 负采样 | 在训练中使用负样本来提高模型的性能。 | 通过减少错误的选择来把正确的选择变得更突出。 |
Network Embedding | 网络嵌入 | 将整个网络表示为低维向量的一种方法。 | 把复杂的关系图简化成一张小卡片,便于理解。 |
Graph Theory | 图论 | 研究图的性质和应用的数学领域。 | 图就像一张地图,图论帮助你理解地图上的路线。 |
Multiset | 多重集 | 可以包含重复元素的集合。 | 聚会时,有些人来了好多次,这种集就是多重集。 |
Perron-Frobenius Theorem | 佩龙—弗罗贝尼乌斯定理 | 关于正方阵特征值的重要数学定理。 | 这是关于数学中“最强者”理论的故事。 |
Stationary Distribution | 稳态分布 | 在马尔可夫链中,状态不会随时间改变的分布。 | 想象一个平静的湖面,水面一旦静止就不再变化。 |
Matrix Factorization | 矩阵分解 | 将矩阵分解为多个矩阵以提取潜在特征的方法。 | 把大拼图分成小块,方便找到每块的地方。 |
Sparsification | 稀疏化 | 在数据中减少不必要的信息以提高计算效率。 | 把杂乱的书架整理成精选书籍,方便找书。 |
Singular Value Decomposition | 奇异值分解 | 矩阵分解的一种,用于降低维度和数据压缩。 | 像拿出最重要的几本书,把其他书藏起来。 |
Frobenius Norm | F-范数 | 矩阵的一种度量方式,表示矩阵的“大小”。 | 想象测量家具时用的卷尺,量出物品的大小。 |
Heterogeneous Network | 异构网络 | 节点和边的类型多样的网络。 | 就像一个聚会,有不同类型的人,大家都相互交流。 |
Graph Convolutional Network (GCN) | 图卷积网络 | 处理图数据的卷积神经网络。 | 像在网络里传递消息,每个节点都把信息传递给邻居。 |
CNN | 卷积神经网络 | 一种在图像处理上应用广泛的深度学习网络。 | 像用放大镜仔细观察图片,找到关键细节。 |
Semi-Supervised Classification | 半监督分类 | 结合有标签和无标签数据进行分类的方法。 | 就像老师只给了一部分同学考试卷子,其他同学自学。 |
Chebyshev polynomial | 切比雪夫多项式 | 一类具有特殊性质的多项式,常用于数值分析。 | 猜谜游戏中的特殊线索,帮助你找到答案。 |
Gradient Exploding | 梯度爆炸 | 在训练神经网络时出现梯度非常大的问题。 | 好比拉扯一个橡皮筋,突然变得很紧,扯得难以控制。 |
Gradient Vanishing | 梯度消失 | 在深层神经网络中,梯度变得非常小的问题。 | 就像把水管挤得很细,水流几乎停了。 |
Batch Normalization | 批标准化 | 在训练过程中标准化数据,以提高模型稳定性。 | 在比赛前统一调整选手的状态,保证每个人都表现好。 |
Neighborhood Aggregation | 邻域聚合 | 在图中收集邻居节点的信息进行更新。 | 从周围朋友那里听取意见,形成自己的看法。 |
LSTM | 长短期记忆网络 | 一种能够学习长期依赖的递归神经网络。 | 像一个有记性的人,可以记住过去的事情并做出反应。 |
Graph Attention Network | 图注意力网络 | 自适应地聚焦于重要邻居节点的信息的网络。 | 就像在聚会中关注重要朋友的聊天,但其他人并不那么重要。 |
Self-attention | 自注意力机制 | 输入序列中每个元素与其他元素之间的相关性进行建模。 | 在课堂上,老师关注每个学生的回答,而不仅仅是讲课。 |
Rescaling | 再缩放 | 将数值范围调整到适合模型训练的标准。 | 像调音,将不同 musical instruments 调到同一音调。 |
Attention Mechanism | 注意力机制 | 模型根据输入数据的不同部分分配不同的权重。 | 像在购物时,关注打折商品,忽略其他商品。 |
Jensen-Shannon Divergence | JS散度 | 测量两个概率分布之间差异的指标。 | 类似于比较两种口味的差异,看看哪个更受欢迎。 |
Cognitive Graph | 认知图谱 | 用于表示知识和信息之间关系的图。 | 就像一个知识树,指引你走向各种不同的知识领域。 |
GAN(生成对抗网络)
中文解释:由生成器和判别器组成的对弈模型,用于生成逼真的新数据样本。
大白话比喻:就像画家和鉴定家,画家努力画出足以乱真的作品,鉴定家则努力辨真假,互相促进。
英文名词 | 中文名词 | 中文解释 | 大白话比喻 |
Generative Adversarial Network (GAN) | 生成对抗网络 | 一种深度学习模型,通过两个神经网络的对抗训练来生成新数据。 | 就像一位艺术家和评论家,艺术家创作,评论家评判,互相提高。 |
Generative Model | 生成模型 | 用于从输入数据中生成新数据的模型。 | 像一个蛋糕师傅,根据已有的蛋糕配方,创造出新的蛋糕。 |
Discriminative Model | 判别模型 | 用于区分不同类别的数据的模型。 | 就像一个侦探,根据各种线索找出嫌疑犯。 |
Gaussian Mixture Model | 高斯混合模型 | 由多个高斯分布组合而成的模型,用于表示数据的混合分布。 | 想象一个调酒师,调出了多种酒的混合饮品。 |
Variational Auto-Encoder (VAE) | 变分编码器 | 一种生成模型,通过编码和解码将数据压缩和重建。 | 就像把家具拆开装箱,又按照图纸重新组装起来。 |
Markov Chain | 马尔可夫链 | 一种随机过程,当前状态只依赖于前一个状态。 | 就像一段记忆,只记得近期发生的事情。 |
Boltzmann Machine | 玻尔兹曼机 | 由随机神经元构成的网络,用于模式识别和生成。 | 想象一个大型的按钮,通过不断的按压来找到最佳组合。 |
Kullback–Leibler divergence | KL散度 | 衡量两个概率分布之间差异的指标。 | 就像比较两种香味的不同,找出哪一种更让人愉悦。 |
Vanishing Gradient | 梯度消失 | 神经网络训练中,梯度逐渐减小,导致学习速度降低的问题。 | 想象一个小水流,经过太多的树枝,最后变得微不足道。 |
Surrogate Loss | 替代损失 | 和真实损失接近但更易计算的损失函数。 | 就像用便宜的原料先做一道试菜,评估味道后再用好的原料做。 |
Mode Collapse | 模式崩溃 | 生成模型只生成少数几种样本,缺乏多样性的问题。 | 好比一个奶茶店只会做草莓口味,而不尝试新的口味。 |
Earth-Mover/Wasserstein-1 Distance | 搬土距离/EMD | 衡量两个概率分布之间“运输成本”的距离。 | 想象一个搬家时的费用,距离越远,费用越高。 |
Lipschitz Continuity | 利普希茨连续 | 函数的变化率受到控制,保证输出不会剧烈波动。 | 就像给小孩骑车加了保护轮,不让他一下子摔得太厉害。 |
Feedforward Network | 前馈网络 | 信息单向流动的神经网络结构。 | 就像一个单行道,车只能往一个方向开,不会回头。 |
Minimax Game | 极小极大博弈 | 在对抗性情况中,玩家试图最小化最大损失的策略。 | 就像两个人在博弈,每个人都想让自己好过,同时又想让对方糟糕。 |
Adversarial Learning(对抗学习)
中文解释:基于对抗性示例训练模型,增强其对恶意攻击的鲁棒性。
大白话比喻:就像通过模拟实战演练提升士兵的应变能力,让他们在真正战斗中更加坚强。
英文术语 | 中文术语 | 中文解释 | 大白话比喻 |
Adversarial Learning | 对抗学习 | 一种让模型在面对精心设计的干扰时仍然保持性能的学习方式。 | 像训练一个警犬去识别混淆它的伪装人。 |
Outlier | 异常值/离群值 | 在数据中显著偏离其他观测值的数据点,可能表示错误或特殊情况。 | 就像班级中一个特别优秀的学生,成绩远远高出其他同学。 |
Rectified Linear Unit | 线性修正单元 | 一种激活函数,输出为输入的正值,负值则输出为零。 | 想象一扇只在阳光下开放的窗户,阴暗的时候完全关闭。 |
Logistic Regression | 逻辑回归 | 一种用于二分类问题的统计模型,通过逻辑函数将输入映射到0和1之间。 | 像是一个评估能否通过考试的系统,只给出“通过”或“不通过”。 |
Softmax Regression | Softmax回归 | 一种用于多分类问题的逻辑回归扩展,输出每个类别的概率。 | 就像给一个学生打分,所有科目分数加起来为100%。 |
SVM | 支持向量机 | 一种监督学习模型,用于分类和回归,找到分类边界的最佳超平面。 | 就像在球场上用线划分两个球队,尽量让两个队分开。 |
Decision Tree | 决策树 | 一种用树形结构表示决策过程的模型,通过特征的判断进行分类或回归。 | 像是在分水果,先判断是苹果还是橘子,再判断品种。 |
Nearest Neighbors | 最近邻 | 一种分类方法,根据样本之间的距离来进行预测。 | 就像在找朋友时,看身边哪个朋友最像你。 |
White-box | 白盒(测试等) | 指一种可直接观测内部结构或过程的模型或系统。 | 像是透明的玻璃盒子,所有东西都看得一清二楚。 |
Lagrange Multiplier | 拉格朗日乘子 | 一种用于约束优化的问题,通过引入额外变量将约束条件合并进优化过程中。 | 就像在负责任务时要考虑时间限制。 |
Black-box | 黑盒(测试等) | 指一个内部过程不可见或不可理解的模型或系统。 | 像是一个封闭的盒子,外面看不出里面是做什么的。 |
Robustness | 鲁棒性/稳健性 | 模型在面对各种干扰时维持性能的能力。 | 就像一辆汽车,即使在崎岖不平的道路上也能平稳行驶。 |
Decision Boundary | 决策边界 | 用于将不同类别的数据分开的边界。 | 就像在沙滩上用沙子画一条线分割两边的玩具。 |
Non-differentiability | 不可微 | 指函数在某一点不可导的情况,常常出现在一些激活函数中。 | 像是在山路上突然有一块石头,无法沿着滑坡走下去。 |
Intra-technique Transferability | 相同技术迁移能力 | 不同任务之间,使用相同技术的学习模型的迁移能力。 | 就像用同种工具修理不同品牌的车。 |
Cross-technique Transferability | 不同技术迁移能力 | 不同技术之间迁移学习的能力。 | 就像一个人能用锤子和螺丝刀,不同工具来做不同的任务。 |
Data Augmentation | 数据增强 | 通过在已有数据上进行变换生成新的数据样本。 | 像是给照片加滤镜,增加更多的视觉效果。 |
Online Learning(在线学习)
中文解释:模型在接收数据流的过程中不断学习和更新,适合动态环境。
大白话比喻:就像边开船边调整航向,根据实时风浪调整策略,确保顺利到达目的地。
英文名词 | 中文名词 | 中文解释 | 大白话比喻 |
Adaboost | 一种集成学习方法,通过不断提高弱分类器的权重来增强整体分类能力。 | 把几个不太聪明的朋友的意见加起来,让他们更聪明。 | |
recommender system | 推荐系统 | 通过用户的历史行为和偏好来提供个性化的产品或内容推荐。 | 就像朋友推荐你看某部电影。 |
Probability matching | 概率匹配 | 基于事件发生的概率来选择行动或决策的方法。 | 据概率来猜足球比赛的结果。 |
minimax regret | 在最坏的情况下,最小化决策带来的遗憾。 | 就像在打扑克时,尽量避免最糟糕的输法。 | |
face detection | 人脸检测 | 识别图像中人脸的位置和特征的技术。 | 像是在寻找照片中的朋友。 |
i.i.d. | 独立同分布 | 指随机变量相互独立且遵循相同的概率分布。 | 每次掷骰子都是独立的,点数也相同。 |
Minimax | 极大极小 | 一种决策策略,旨在最小化潜在损失的最大值。 | 就像玩游戏时,总是设法减少最大的输。 |
linear model | 线性模型 | 用线性方程表示输入与输出之间关系的模型。 | 就像画一条直线来总结关系。 |
Thompson Sampling | 汤普森抽样 | 一种统计方法,通过概率样本选择来优化决策。 | 像是在抽奖时,根据中奖几率选择。 |
eigenvalues | 特征值 | 线性变换的性质描述量,用于降维等方法。 | 就像找出最重要的成分。 |
optimization problem | 优化问题 | 寻找最佳解决方案的数学问题。 | 就像找出最快的路线去超市。 |
greedy algorithm | 贪心算法 | 在每一步选择中都采取当前看起来最优的选项,以期达到全局最优。 | 就像在购物时总是先买到便宜的东西。 |
Reinforcement Learning(强化学习)
中文解释:通过与环境交互,学习采取何种行动以最大化累积奖励。
大白话比喻:就像训练宠物做任务,做得好就奖励零食,渐渐地它就能学会一系列复杂指令。
英文名词 | 中文名词 | 中文解释 | 大白话比喻 |
Dynamic Programming | 动态规划 | 一种解决复杂问题的方法,通过将问题拆分成更小的子问题并记忆结果来减少计算成本。 | 就像做菜时先把食材准备好,避免重复切菜。 |
lookup table | 查找表 | 一种数据结构,用于快速存取数据,以提高查找效率。 | 就像在字典里查单词,快速找到解释。 |
Bellman equation | 贝尔曼方程 | 在强化学习中,用于描述状态的价值与行动的关系的数学方程。 | 就像跟踪你的投资,看看每个选择能带来多少收益。 |
discount factor | 折现系数 | 用于衡量未来收益相对于当前收益的重要性,通常用小于1的数值表示。 | 就像把现在的100元和未来的100元相比,未来的钱值不值钱。 |
Reinforcement Learning | 强化学习 | 一种通过试错来学习的机器学习方法,强化学习代理通过获取奖励或惩罚来改进其行为策略。 | 就像训练狗,给狗零食作为奖励来教它坐下或握手。 |
gradient theorem | 梯度定理 | 说明函数的变化率和最优化过程之间关系的原理,通常用于优化算法中。 | 就像爬山时找到最快的上山路线。 |
stochastic gradient descent | 随机梯度下降法 | 一种优化算法,通过使用样本的随机子集来减少计算量。 | 就像在大海里捡贝壳,随机捡几个,就能找到好东西。 |
Monte Carlo | 蒙特卡罗方法 | 一种通过随机抽样来进行数值计算的统计方法,通过模拟不同的情况来估计结果。 | 就像掷骰子,尝试多次来估计点数出现的概率。 |
function approximation | 函数逼近 | 一种通过简单函数来近似复杂函数的过程。 | 就像用圆形的饼干代替复杂的蛋糕装饰。 |
Markov Decision Process | 马尔可夫决策过程 | 一个数学模型,用于描述在所有可能状态下做出决策的过程,具有无记忆性的特征。 | 就像每一步只考虑你当前的位置,而不管之前的路。 |
Bootstrapping | 引导 | 一种通过现有数据进行自我增强的学习策略,通常用来提高估计的准确性。 | 就像用自己的行动吸引更多人的参与。 |
Shortest Path Problem | 最短路径问题 | 在图论中,寻找两个节点之间的最短路径的问题。 | 就像找跟朋友约会的最快路线。 |
expected return | 预期回报 | 在金融和强化学习中,用于衡量某个行动的平均结果。 | 就像计划投资时,估算未来的获利。 |
Q-Learning | Q学习 | 一种通过学习行动的价值来进行决策的强化学习算法。 | 就像通过不断尝试决策,记住哪种方法更好。 |
temporal-difference learning | 时间差分学习 | 结合了蒙特卡罗方法和动态规划的特点,通过学习估计值来进行更新。 | 就像根据天气预报调整出行计划。 |
AlphaZero | 阿尔法零 | 一种基于深度学习和强化学习的算法,能够在棋类游戏中自我学习并实现超人类水平的表现。 | 就像一个自学成才的国际象棋大师。 |
Backgammon | 西洋双陆棋 | 一种经典的棋类游戏,允许对策略进行多样化的选择和比赛。 | 就像两个朋友在玩掷骰子和移动棋子的游戏。 |
finite set | 有限集 | 一种包含有限数量元素的集合。 | 就像你手上一袋糖果,数量是有限的。 |
Markov property | 马尔可夫性质 | 描述某种状态只有当前信息与未来状态有关,而与过去状态无关的性质。 | 就像是只看当前的天气,预判明天的天气。 |
sample complexity | 样本复杂性 | 衡量在学习中需要多少样本数据以确保算法的有效性的指标。 | 就像做实验需要的测试次数,才能得到可靠的结果。 |
AutoML(自动化机器学习)
中文解释:自动选择和优化模型的算法、超参数等,减少人工干预。
大白话比喻:就像智能家电,你只需要告诉它想要的结果,它自己调整设置,完成任务。
英文名词 | 中文名词 | 中文解释 | 大白话比喻 |
Cartesian product | 笛卡儿积 | 两个集合的所有可能的有序对组合 | 就像在菜单上选择一个主菜和一个配菜,所有组合都可以算作一种选择。 |
Kevin Leyton-Brown | 凯文·莱顿-布朗 | 他是计算机科学和人工智能领域的著名学者,特别是在博弈论和机制设计方面 | |
SVM | 支持向量机 | 一种分类算法,通过找到最佳分隔超平面进行分类 | 就像用一条线把两种水果分开,线的两侧是不同的水果。 |
MNIST | 手写数字数据库 | 一个用于机器学习的经典数据集,包含了大量手写数字(0-9)的图像,广泛用于图像识别算法的训练和测试 | 就像一个学校的数字考试,收集学生的手写答案。 |
ImageNet | 图像网络 | 一个大型视觉数据库,包含了数百万张标注图像,广泛用于计算机视觉领域的任务,如图像分类和物体检测。 | 就像一个图像数据库,存放着各种各样的照片和标签。 |
Ensemble learning | 集成学习 | 组合多个模型来提高整体性能 | 比较像五位音乐家合作演奏,合奏的效果更好。 |
Neural networks | 神经网络 | 由节点(神经元)组成的模型,模仿人脑处理信息的方式 | 像是大脑的信号传递,彼此间互相沟通。 |
Neuroevolution | 神经演化 | 通过进化算法优化神经网络结构 | 就像自然选择,只留下最能适应环境的“大脑”。 |
Object recognition | 目标识别 | 识别图像中的特定对象 | 好比一只狗能在公园找到它的主人。 |
Multi-task learning | 多任务学习 | 同时训练多个任务,利用共享信息 | 就像一个学生在学习数学和科学,互相帮助。 |
Treebank | 树图资料库 | 语料库,用于自然语言处理中的句法分析 | 就像一本包含不同句子的语法书,帮助理解语言结构。 |
Covariance | 协方差 | 测量两个变量间关系的统计量 | 就像观察两个朋友一起玩的频率,看他们有多相似或不同。 |
Hamiltonian Monte Carlo | 哈密顿蒙特卡罗 | 一种用于从复杂分布中取样的方法 | 类似于在迷宫中随机走动,直到找到出口。 |
Inductive bias | 归纳偏置 | 在学习过程中假设的模型倾向性 | 就像人类根据经验做出的选择,偏向某种思维方式。 |
Bilevel optimization | 双层规划 | 针对两层优化问题的解决方法 | 想象一个两层的游戏,先解决上面的难题再处理下面的。 |
Genetic algorithms | 遗传算法 | 通过模拟自然选择优化解的方法 | 就像在选美比赛中,选出最美的选手来代表群体。 |
Bayesian linear regression | 贝叶斯线性回归 | 一种用于回归分析的统计方法,基于贝叶斯统计理论 | 就像投掷骰子前,计算你赢的概率。 |
ANOVA | 方差分析 | 用于比较多个组之间均值差异的统计方法 | 就像观察不同班级的考试成绩,找出差异。 |
Extrapolation | 外推法 | 利用已有数据预测未来的值 | 像是看到今年的树结果特别好,推测明年也会更好。 |
Activation function | 激活函数 | 神经网络中用于决定节点输出的函数 | 就像开关,一按下就通电。 |
CIFAR-10 | 加州大学伯克利分校发布的10类别小图像数据集 | 一个常用的小型图像数据集,包含10个不同类别的图像,每个类别有6000张图像,常用于机器学习模型的训练和评估。 | 像一本拼图书,包含10种不同的拼图。 |
Gaussian Process | 高斯过程 | 一种用于回归和分类的概率模型 | 类似于画出一条曲线,通过数据点推测中间的值。 |
k-nearest neighbors | K最近邻 | 基于距离等级的分类方法 | 就像问邻居意见,找出离你最近的人。 |
Neural Turing machine | 神经图灵机 | 一种结合神经网络和图灵机概念的计算模型 | 好比一个超级计算机,既能记忆又能推理。 |
MCMC | 马尔可夫链蒙特卡罗 | 一种取样方法,通过随机游走模拟数据分布 | 想象每次走一步都是随机的,最终的目的地却是明确的。 |
Collaborative filtering | 协同过滤 | 基于用户行为来推荐产品的方法 | 像是在商店里,看到别人推荐的热门商品。 |
AlphaGo | 用于围棋的人工智能程序 | 就像有一个超级高手,能在棋盘上非常精确地计算出每一招。 | |
Random forests | 随机森林 | 利用多个决策树进行预测的集成学习方法 | 就像总是征求多个朋友的意见,得出最靠谱的建议。 |
Multivariate Gaussian | 多元高斯 | 描述多个变量同时分布的高斯分布 | 就像一场气球盛宴,多个气球一起漂浮的样子。 |
Bayesian Optimization | 贝叶斯优化 | 一种利用贝叶斯推理进行优化的策略 | 像是在山上寻找最短的下坡路,推测哪些方式最有效。 |
Meta-learning | 元学习 | 学习如何学习的过程 | 就像学习技巧,而不是仅仅记忆内容。 |
Iterative algorithm | 迭代算法 | 通过重复步骤来接近最佳解的方法 | 好比每次做一道数学题,都在逐步改进答案。 |
Graphic Model(图模型)
中文解释:利用图形结构来表示变量间的条件依赖关系,常用于概率推断。
大白话比喻:就像家庭成员关系图,一看就知道谁是谁的父母、兄弟姐妹,方便理解关系网。
英文名词 | 中文名词 | 中文解释 | 大白话比喻 |
Viterbi algorithm | 维特比算法 | 一种用于寻找最可能的状态序列的动态规划算法。 | 就像在复杂的迷宫中找到最短路径。 |
Gibbs distribution | 吉布斯分布 | 描述随机变量的联合概率分布,通常用于统计物理。 | 就像用骰子决定出什么面。 |
Discriminative model | 判别模型 | 用于分类任务,通过区分不同类别来进行决策。 | 像是一名评委,判断选手的优劣。 |
Maximum Entropy Markov Model | 最大熵马尔可夫模型 | 一种结合了最大熵原理和马尔可夫链的序列模型。 | 就像在写故事时,不让某个角色太突出。 |
Information Extraction | 信息提取 | 从文本中提取结构化信息的过程。 | 就像在书中找出重要的主题和人物。 |
clique | 小圈子 | 在图论中,完全连接的子集。 | 就像一个小团体,都互相认识的朋友。 |
conditional random field | 条件随机场 | 用于标注和分割序列的概率图模型。 | 想象多个互相关联的因素影响结果。 |
CRF | 条件随机场 | 同上,常用于序列标注任务。 | 同上,想象多个互相关联的因素影响结果。 |
triad | 三元关系 | 三个元素之间的关系,可以用于社交网络分析。 | 就像三个人之间的友谊关系。 |
Naïve Bayes | 朴素贝叶斯 | 一种基于贝叶斯定理的简单分类算法,假设特征之间独立。 | 像是在简单评估食材的好坏。 |
social network | 社交网络 | 描述个体间社交关系的图形结构。 | 就像是生活中的朋友圈。 |
Bayesian network | 贝叶斯网络 | 通过有向无环图表示随机变量之间的条件依赖关系。 | 想象一张有条件关系的家谱图。 |
SVM | 支持向量机 | 一种用于分类和回归分析的监督学习模型。 | 像是在不同类别中画一条分界线。 |
Joint probability distribution | 联合概率分布 | 描述多个随机变量共同发生的概率。 | 就像同时掷两个骰子的可能性。 |
Conditional independence | 条件独立性 | 在给定第三个变量时,两个变量之间无关。 | 像是隔着墙说话听不到彼此。 |
sequence analysis | 序列分析 | 分析序列数据中结构和模式的过程。 | 就像研究地图上的路线。 |
Perceptron | 感知器 | 最基本的神经元模型,用于二分类问题。 | 就像选择是或否的简单判断。 |
Markov Blanket | 马尔可夫毯 | 在图模型中,一个变量的条件独立性所需的最小变量集合。 | 像是一层保护伞,遮挡了外界。 |
Hidden Markov Model | 隐马尔可夫模型 | 描述隐藏状态序列与可见观测序列之间关系的概率模型。 | 想象一个人看不到的幕后操控者。 |
finite-state | 有限状态 | 有限个状态的系统,通常用于描述系统的状态变化。 | 就像一本只有几个结局的书。 |
Shallow parsing | 浅层分析 | 对句子的基本结构进行分析,而不深入到词义层面。 | 就像快速浏览一篇文章的大意。 |
Active learning | 主动学习 | 模型通过选择最有用的数据进行学习的过程。 | 想象老师关注困难问题的学生。 |
Speech recognition | 语音识别 | 将人类语言转化为机器可读形式的技术。 | 对于机器,听懂别人说话。 |
convex | 凸 | 在数学中,指一个函数的性质,通常用于优化问题。凸函数是指其任意两点之间的连线上的函数值不超过这两点的函数值。凸集则是指在集合中任意两点连线均完全包含在该集合内。凸性是很多优化算法(如梯度下降)的重要特性,因为凸优化问题通常更容易求解,且存在全局最优解。 | 就像一个平滑的山坡。 |
transition matrix | 转移矩阵 | 在马尔可夫链中,用于描述状态转移的概率。 | 就像根据牌面移到下一个牌面。 |
factor graph | 因子图 | 用于表达多个变量和它们之间关系的图形表示。 | 想象连接各个因素的网络。 |
forward-backward algorithm | 前向后向算法 | 用于计算隐马尔可夫模型中序列的概率。 | 想象同时向前和向后走的过程。 |
parsing | 语法分析 | 处理和分析句子的结构以理解其含义。 | 就像分析句子各部分的作用。 |
structural holes | 结构洞 | 网络中的空白区域,决策可以创造新的联系。 | 像是社交中缺失的小组,填补后更完整。 |
graphical model | 图模型 | 用图形表示变量之间的关系和依赖性的模型。 | 像是一张连线的关系图。 |
Markov Random Field | 马尔可夫随机场 | 在图模型中,考虑到相邻元素间依赖关系的随机场模型。 | 就像在一起讨论一个话题的小组。 |
Social balance theory | 社会平衡理论 | 研究个体间关系平衡及其如何影响网络结构的理论。 | 就像确保朋友之间关系和谐。 |
Generative model | 生成模型 | 描述数据生成过程的模型,通常用于生成新数据。 | 就像一个作家创造新的故事。 |
Topic Model(主题模型)
中文解释:从文档集合中发现隐藏的主题结构,理解文本内容。
大白话比喻:就像图书馆按主题分类书籍,让你更容易找到感兴趣的阅读材料。
英文名词 | 中文名词 | 中文解释 | 大白话比喻解释 |
probabilistic topic model | 概率语义模型 | 一种基于概率的方法,用于识别文档中的潜在主题。 | 就像是通过不同的关键词找到文章的主要内容。 |
TFIDF | 词频-文本逆向频率 | 衡量一个词在文档中重要性的统计方法。 | 想象一下,把一篇文章的重点词汇列出来,看哪个词出现的又多又特别。 |
LSI | 潜在语义索引 | 一种用于信息检索和主题建模的技术,分析潜在的语义结构。 | 就像是在书架上找到不同书籍间的相似之处。 |
Bayesian network | 贝叶斯网络模型 | 一种通过图形表示变量及其条件依赖关系的概率模型。 | 可以比作是家族树,显示不同亲属间的关系。 |
Markov random field | 马尔科夫随机场 | 一种用于马尔科夫过程的随机场模型,适合图像处理等。 | 将每个像素视为朋友,只有它的邻居能影响它的状态。 |
restricted boltzmann machine | 限制玻尔兹曼机 | 一种无监督学习算法,用于生成模型和特征学习。 | 就像在一间房子里,所有东西的摆放都是随机的,但有一些条件限制。 |
LDA | 隐式狄利克雷分配模型 | 一种生成模型,用于文本等数据的主题建模。 | 就像是一群人中找寻共同的兴趣和爱好。 |
PLSI | 概率潜在语义索引模型 | 一种利用概率模型分析文档潜在主题的方法。 | 就好比是从一团复杂的线中理顺出几条主线。 |
EM algorithm | 最大期望算法 | 一种迭代算法,用于寻找缺失数据的最大似然估计。 | 就像是每次猜拳后都尽量接近对手的心思,找寻最佳策略。 |
Gibbs sampling | 吉布斯采样法 | 一种特殊的采样方法,用于从复杂分布中生成样本。 | 就像是在一个大的果篮中,每次随机选一个水果,尝试了解水果的种类。 |
MAP (Maximum A Posteriori) | 最大后验概率算法 | 一种贝叶斯推理的方法,寻找最可能的参数值。 | 就像是根据历史经验,预测天气最可能的变化。 |
MCMC(马尔科夫链蒙特卡洛方法)
中文解释:一种随机抽样技术,用于解决复杂分布的抽样问题。
大白话比喻:就像在未知区域探险,每走一步都是随机的,但最终能探索整个区域。
英文名词 | 中文名词 | 中文解释 | 大白话比喻解释 |
Markov Chain Monte Carlo | 马尔科夫链式蒙特卡洛算法 | 一种用于从复杂概率分布中进行采样的方法 | 像在迷宫中随机走动,直到找到出口 |
Monte Carlo Sampling | 蒙特卡洛采样法 | 通过随机抽样来近似求解复杂问题的方法 | 就像用抛硬币来估算一场比赛的结果 |
Univariate | 单变量 | 仅涉及一个变量的分析 | 就像只看一个人的身高 |
Hoeffding Bound | Hoeffding界 | 用于量化随机变量与期望值之间差距的界限 | 就像给你定了一道最大分数线 |
Chernoff Bound | Chernoff界 | 提供更强的随机变量偏差的界限 | 就像预测一个球赛的获胜可能性 |
Importance Sampling | 加权采样法 | 用于提高采样效率,通过给重要样本更多权重 | 就像在面试中更重视某些简历 |
invariant distribution | 不动点分布 | 在马尔科夫链中长期稳定的概率分布 | 就像河流的最终流向不会改变 |
Metropolis-Hastings algorithm | Metropolis-Hastings算法 | 一种用于生成样本的随机过程 | 就像轮流选择不同的路径寻找宝藏 |
Mean-Field(平均场理论)
中文解释:简化复杂系统中个体间相互作用的分析方法,常用于统计物理和机器学习中的近似推断。
大白话比喻:就像估算一个班级的平均身高,不需要测量每个人,通过部分样本就能得出合理估测。
英文名词 | 中文名词 | 中文解释 | 大白话比喻 |
Probabilistic Inference | 概率推断 | 基于已有数据计算未知参数的概率分布 | 就像用过去的经验猜测未来的天气,猜的越多越准。 |
Variational Inference | 变量式推断 | 通过优化变换来近似后验分布的推断方法 | 就像在尝试用不同的拼图块组合出最接近的完整图案。 |
HMM | 隐式马尔科夫模型 | 一种用于描述不确定系统变化的模型,通常用于序列数据处理 | 就像看一部电视剧,每集的情节会受到前几集的影响。 |
Mean Field | 平均场理论 | 在计算复杂系统中简化计算的一种方法,假设每个成分互相独立与平均 | 就像在考试时,认为大家的成绩都和班级的平均水平差不多。 |
Mixture Model | 混合模型 | 将多个简单模型结合在一起描述复杂数据分布的方法 | 就像一个冰淇淋店,里面有不同口味的冰淇淋组合成一个大碗。 |
Convex Duality | 凸对偶 | 在优化问题中,通过求解对偶问题来简化原问题的方法 | 就像换个角度看问题,可能会发现更简单的解决办法。 |
Belief Propagation | 置信传播算法 | 在图结构中传播概率信息以推断未知节点的概率的方法 | 就像在一个小团体中讨论信息,大家相互影响形成共识。 |
non-parametric models(非参数模型)
中文解释:不对数据分布做具体假设,模型的复杂度随数据量增加而自然增长。
大白话比喻:就像定制家具,不预设尺寸,根据实际空间大小灵活制作,适应各种户型。
英文名词 | 中文名词 | 中文解释 | 大白话比喻 |
non-parametric model | 非参模型 | 不依赖于固定参数的模型,可以根据数据的形式自由调整。 | 就像水,可以随意倒入任何形状的容器中,完全跟随容器的形状。 |
Gaussian process | 正态过程 | 一种随机过程,其中任何有限个点的分布都是正态分布。 | 就像一个波浪,总是平滑且有规律的,能预测未来的波动。 |
multivariate Gaussian distribution | 多元正态分布 | 描述多个变量之间关系的高维正态分布。 | 就像一张复杂的多维地图,标记了不同地点之间的距离和关系。 |
Dirichlet process | 狄利克雷过程 | 一种随机过程,用于生成无限个类别的数据模型。 | 像一个无限的自助餐,顾客可以根据自己的喜好选择任意多的菜品。 |
stick breaking process | 断棒过程 | 一种构建分布的方法,通过反复“断棒”得到子部分。 | 就像切蛋糕,每次都从大的蛋糕切出小块,最后每块的大小是随机的。 |
Chinese restaurant process | 中餐馆过程 | 一种生成随机分配的方法,用餐客人根据设定的规则选择座位。 | 有人来了就往餐桌上坐,没人坐过的桌子、位置吸引着新客人。 |
Blackwell-MacQueen Urn Scheme | Blackwell-MacQueen桶法 | 一种生成随机序列的方法,通过放入和取出球的规则。 | 像个魔法桶,里面的球可以随意添加,取出时常常意外地抽到新颜色。 |
De Finetti's theorem | de Finetti定理 | 描述了序列随机变量的条件独立性的一种重要理论。 | 像一个不断变化的拼图,每一块都是独立的,但都共同构成一幅图。 |
collapsed Gibbs sampling | 下陷吉布斯采样法 | 一种高效的采样方法,通过简化过程得到数据的样本。 | 就像捞鱼,每次只在你觉得水最深的地方下网,更能捕到鱼。 |
Hierarchical Dirichlet process | 阶梯式狄利克雷过程 | 一种复杂的分层生成模型,能够处理高维数据和不确定性。 | 像是一棵大树,每个树枝都是不同的主题,树叶是这主题下的细节。 |
Indian Buffet process | 印度餐馆过程 | 描述的随机过程,顾客可以尝试无穷多个菜品,每道菜可以被多个顾客共享。 | 就像在自助餐厅,各种菜品随意选择,大家可以同时吃同一道菜。 |
我们一起学AI!
参考网站:https://www.aminer.cn/ml_taxonomy