.01
.02
定义:生成模型是一种可以从学习到的模式中生成新数据点的AI模型。 示例:如GPT模型可以基于输入生成类似人类的文本。
定义:一种利用自注意力机制来处理和生成序列(如文本或图像)的神经网络架构。 示例:BERT是一种Transformer模型,广泛应用于问答和文本分类任务。
定义:生成模型将数据映射到的多维空间,使其能够学习和生成变体。 示例:在图像生成中,相似的图像在隐空间中会被放置在彼此相邻的位置。
定义:由两个神经网络(生成器和判别器)对抗训练以生成逼真的数据。 示例:GANs可生成逼真的人脸图像,且这些图像并不属于真实的人。
定义:一种学习压缩和重构数据的神经网络,常用于降维和去噪。 示例:自编码器可以用来从损坏的图像中去除噪音。
定义:学习通过反向降噪过程生成细致一致的数据。 示例:扩散模型在DALL-E 2中用于从随机噪声生成高质量图像。
定义:为优化模型输出而设计输入提示的过程。 示例:在GPT-4中修改提示词以生成更简洁的摘要。
定义:模型无需明确训练就能完成新任务,通过其他任务知识的迁移实现。 示例:GPT-3无需专门的翻译数据集即可进行翻译任务。
定义:模型通过少量示例学习新任务,减少大量训练数据的需求。 示例:GPT-3可以用极少的样本进行微调,生成特定风格的文本。
定义:通过与环境交互并最大化累积奖励,AI代理学会决策的学习范式。 示例:AlphaGo通过对弈数百万次来掌握围棋。
定义:一种在隐空间中引入随机性的自编码器,生成新数据。 示例:VAEs被用于生成新的人脸,并在不同面部特征间平滑过渡。
定义:模型从数据中生成自己的标签,减少对标注数据的依赖。 示例:BERT在训练过程中通过遮盖词语并预测它们来进行自监督学习。
定义:将文本分割成更小单位(如词或子词)以便于模型处理。 示例:在GPT-4中将文本输入分词成词语,以便模型处理。
定义:一种搜索算法,通过扩展多个候选序列生成最可能的输出序列。 示例:集束搜索常用于机器翻译,生成连贯的文本输出。
定义:利用在一个任务上预训练的模型,并微调它用于另一任务。 示例:在情感分析任务上微调BERT模型。
定义:预测自然语言中词序列概率的模型,帮助生成或理解文本。 示例:GPT-4是一种能够生成连贯文本的语言模型。
定义:AI系统产生偏向性结果,通常由于训练数据或算法的偏见。 示例:AI招聘系统可能对性别产生偏见,优先选择历史数据中较多的群体。
定义:一种大规模语言模型,通过大规模文本预训练生成类似人类的文本。 示例:GPT-4可以生成文章、故事和详细的回答。
定义:衡量语言模型对给定词序列的预测能力,困惑度越低表示模型表现越好。 示例:比较GPT-3和GPT-4的困惑度来评估文本生成质量。
定义:人工智能领域,研究人与计算机通过自然语言交互的技术。 示例:NLP模型用于分析客户评论的情感。
定义:受人脑神经元启发的计算系统,由多层节点组成,用于图像识别、语言处理等任务。 示例:卷积神经网络(CNN)用于图像识别。
定义:用于训练AI模型的数据,使其学会识别模式并进行预测。 示例:ImageNet数据集用于训练图像分类模型。
定义:一种神经网络方法,帮助模型聚焦于输入序列中的关键部分,提高性能。 示例:在机器翻译中,注意力机制帮助模型专注于重要词汇。
定义:机器学习模型在训练过程中对整个数据集的完整遍历。 示例:为神经网络设置10个训练轮次以避免过拟合。
定义:处理并生成多种模态(如文本、图像、音频)的AI。 示例:CLIP处理图像和文本,为图像生成标题。
.03
参考:
https://ai.plainenglish.io/top-25-generative-ai-terminologies-you-must-know-6a3bb0300988