对于零基础想学AI的新人,可以先了解如何使用AI工具提升学习工作效率。如有兴趣,可进一步深入学习,尝试构建自己的AI系统或是搭建一个AI大模型等。本文主要介绍AIGC的一些核心概念、运作原理、应用场景、显著优势及现存局限,并罗列一些常用的AI工具,帮你搭建一个关于AIGC的认知框架。文章较长,建议你将其收藏,以便于分阶段、按节奏地进行深入研读。▌1、AI
1) AI,全称Artificial Intelligence,人工智能,指的是通过使用计算机技术和算法来模拟和实现人类智能的能力。它涵盖多个学科领域,包括机器学习、自然语言处理、计算机视觉等,旨在使计算机能够模拟人类的思维和行为,具备识别、理解、推理和决策等能力。人工智能可从不同的维度进行划分。如果按其模型来划分(人工智能是由模型支撑的)可以分为决策式AI和生成式AI。决策式AI(也被称作判别式AI)学习数据中的条件概率分布,即一个样本归属于特定类别的概率,再对新的场景进行判断、分析和预测。决策式AI有几个主要的应用领域:人脸识别、推荐系统、风控系统、其他智能决策系统、机器人、自动驾驶。例如在人脸识别领域,决策式AI对实时获取的人脸图像进行特征信息提取,再与人脸库中的特征数据匹配,从而实现人脸识别。再例如,决策式AI可以通过学习电商平台上海量用户的消费行为数据,制订最合适的推荐方案,尽可能提升平台交易量。生成式AI则学习数据中的联合概率分布,即数据中多个变量组成的向量的概率分布,对已有的数据进行总结归纳,并在此基础上使用深度学习技术等,创作模仿式、缝合式的内容,相当于自动生成全新的内容。生成式AI“八面玲珑”,它的应用场景十分广泛,目前不仅应用于文本、图片、音视频、游戏等数字媒体,还可以应用于制造业、建筑业等实体行业。例如,我们输入一段小说情节的简单描述,生成式AI便可以帮我们生成一篇完整的小说内容;再例如,生成式AI可以生成人物照片,而照片中的人物在现实世界中是完全不存在的。不管是哪种类型的模型,它的基础逻辑是一致的:AI模型从本质上来说是一个函数,要想找到函数准确的表达式,只靠逻辑是难以推导的,这个函数其实是被训练出来的。我们通过喂给机器已有的数据,让机器从数据中寻找最符合数据规律的函数。所以当有新的数据需要进行预测或生成时,机器就能够通过这个函数,预测或生成新数据所对应的结果。决策式AI擅长的是对新的场景进行分析、判断和预测,主要应用在人脸识别、推荐系统、风控系统、精准营销、机器人、自动驾驶等;生成式AI主要擅长自动生成全新内容,主流的内容形式它基本都能生成,包含文本、图片、音频和视频等。二者在技术路径、成熟程度、应用方向上都有诸多不同。无论是决策式AI还是生成式AI,都离不开用大量数据来训练模型。▌2、人工智能、机器学习、深度学习
1) 机器学习 (Machine Learning)
机器学习是实现人工智能的一种方法,它使计算机能够在不被明确编程的情况下“学习”和改进。通过使用统计技术和算法,机器可以从数据中自动提取模式和特征,然后利用这些信息做出预测或决策。机器学习模型通常需要大量的数据和反馈来调整其性能。典型算法:
- 监督学习:如线性回归、逻辑回归、支持向量机(SVM)、决策树、随机森林、K近邻(KNN)等。
- 无监督学习:如聚类分析(K-means)、主成分分析(PCA)、自组织映射(SOM)等。
- 强化学习:如Q-learning、Deep Q-Networks (DQN)等。
2) 深度学习 (Deep Learning)
深度学习是机器学习的一个子集,专注于构建多层神经网络(称为深度神经网络)以模仿人脑的神经结构。这些网络可以自动学习复杂的数据表示,适用于处理图像、音频和文本等高维数据。深度学习的关键在于使用反向传播算法训练多层神经元权重,以最小化预测误差。典型算法:
- 循环神经网络 (RNN):用于序列数据和自然语言处理。
- 长短时记忆网络 (LSTM):一种特殊的RNN,用于处理长序列数据。
- 生成对抗网络 (GAN):用于生成逼真的数据样本。
3) 人工智能、机器学习、深度学习之间的关系
机器学习是人工智能的分支,它专门研究计算机如何模拟和实现人类的学习行为。在人工智能发展过程中,机器学习占据核心地位。通过各种模型,机器学习可以从海量的数据中习得规律,从而对新的数据做出智能识别或者预测,并且为决策提供支持。深度学习是机器学习的一种。如图1所示,人工智能是一个范围很大的概念,其中包括了机器学习。机器学习是人工智能提升性能的重要途径,而深度学习又是机器学习的重要组成部分。深度学习解决了许多复杂的识别、预测和生成难题,使机器学习向前迈进了一大步,推动了人工智能的蓬勃发展。▌3、AIGC
1) AIGC(Artificial Intelligence Generated Content,人工智能生成内容)是指利用人工智能技术自动生成文本、图像、音频、视频等内容的过程。AIGC在写作、新闻报道、艺术创作、编写代码、游戏开发、音乐制作、电影和动画制作等领域有广泛应用。随着技术的发展,内容生成的方式也在不断演变,如图2所示。最初,大部分内容是由专业人士制作的PGC。随着互联网的普及和社交媒体的兴起,UGC开始流行,用户可以轻松地创作和分享自己的内容。随着人工智能技术的进步,AIUGC开始出现,它结合了人工智能的能力和用户的创造力,提高了内容生成的效率和质量。最终,AIGC代表了一种完全自动化的内容生成方式。●规则推理阶段(1956年至20世纪80年代初)这个阶段的人工智能主要使用符号推理方法,基于一些规则和知识来进行决策。该阶段的代表性成果是专家系统。然而,专家系统面临的问题是它们需要人工编写大量规则,且不能处理模糊和不确定的信息。●统计学习阶段(20世纪80年代至21世纪10年代初)随着统计学习方法的兴起,人工智能开始转向从数据中学习知识和规律。这个阶段的代表性成果是支持向量机(SVM)和神经网络。这类方法的主要特点是使用数据训练模型,并通过大量数据来提高模型的准确性和泛化能力。然而,由于计算能力和数据量的限制,这些方法并未在实际应用中取得重大突破。●深度学习阶段(21世纪10年代初至今)深度学习是一种基于神经网络的机器学习方法,它可以自动学习高层次抽象特征,并在大规模数据上训练更复杂的模型。这个阶段的代表性成果是深度神经网络(Deep Neural Network,DNN)和卷积神经网络(Convolutional Neural Network,CNN)。深度学习方法的出现,使得人工智能在图像识别、自然语言处理、语音识别等方面取得了重大突破。与人工智能领域一样,AIGC也经历了起起落落,其发展的每个阶段各具特点。每一个进展,都为AIGC的蓬勃发展做出了贡献。● 早期的自然语言处理(Natural Language Processing,NLP)技术:在AIGC发展的早期,自然语言处理技术主要用于理解和生成简单的文本内容。这些早期的系统通常基于规则,需要大量人力编程。● 统计机器学习:随着机器学习的发展,人们开始使用统计模型来生成文本。这些模型可以从大量的文本数据中学习语言的模式,然后生成新的文本。● 深度学习和神经网络:近年来,深度学习和神经网络已经成为AIGC的主要技术。这些模型可以处理更复杂的语言模式,并生成更自然、更有创意的文本。例如,递归神经网络(Recursive Neural Network,RNN)和变换器(Transformer)模型已经在许多AI写作系统中得到应用。● 预训练语言模型:预训练语言模型,如GPT和BERT,已经成为AIGC的主要工具。这些模型在大量的文本数据上进行预训练,然后可以用于各种任务,包括文本生成。● ChatGPT和其他高级模型:OpenAI的ChatGPT是一个预训练语言模型,它可以生成非常自然的对话文本。这一模型的出现是AIGC发展之路上的一个重要里程碑,因为它可以生成高质量的、有创意的文本,而不仅仅是简单的、基于规则的内容。未来,我们可以期待AIGC技术的继续发展,AIGC工具生成的内容将更加自然、有创意,并能更好地适应特定的应用场景。算力是人工智能发展的基础,决定了人工智能的计算能力和效率,好比人类社会中的电力决定了电车能跑多远的距离、速度能达到多少。随着芯片的不断发展,GPU、TPU等专用芯片极大地提升了人工智能的算力。算法是人工智能发展的核心,它好比人类社会中的交通工具,或者更具体地说,它就像不同的发动机引擎,决定了人工智能的计算方法、学习能力和应用范围。随着深度学习等技术的不断发展,人工智能的算法得到了极大的提升。深度学习是一种基于神经网络的机器学习方法,它模仿人脑神经元的工作方式,通过多层次的神经元模型来实现对数据的学习和识别。在深度学习算法的基础上,还有一些其他的算法模型也得到了广泛的应用,例如强化学习、迁移学习、生成对抗网络等。这些算法模型的不断发展,让人工智能的应用范围得到了进一步的扩展,进入了诸如自动驾驶、智能客服、智能家居等领域。数据是人工智能发展的资源,决定了人工智能的输入和输出,以及应用场景和效果,它就好比人类社会中的物质资源。随着互联网技术、物联网和移动设备的普及,越来越多的设备能够生成数据,并将这些数据传输到云端进行处理和分析,为人工智能技术提供了更多的数据来源和实时数据处理的可能性。数据的日益丰富是人工智能技术发展的重要驱动力。AIGC的产业图谱自下而上由基础的硬件算力、基于平台的大模型、在此基础上出现的各种功能、相应的各种实际应用及行业场景组成。
图中提到的跨模态生成(cross-modal generation)和多模态生成(multimodal generation)不同,虽然都涉及处理多种类型的数据(如文本、图像、音频等),但它们的含义和应用场景有所不同。跨模态生成通常指的是从一种模态的数据生成另一种模态的数据。例如,给定一段文本描述,生成对应的图像;或者给定一张图像,生成描述这张图像的文本。这种生成过程涉及从一种模态转换到另一种模态,因此被称为“跨模态生成”。多模态生成则更多地关注如何利用多种模态的数据共同生成新的内容。例如,给定一段音频和对应的文本,生成一个同步的动画。在这种情况下,生成过程需要同时考虑多种模态的数据,因此被称为“多模态生成”。● 文本和音频生成视频:给定一段文本和配套的音频,生成一个视频。● 图像和文本生成音频:给定一张图像和一段文本描述,生成一个描述图像内容的音频。● 音频和视频生成文本:给定一个视频和配套的音频,生成一段描述视频内容的文本。● 文本和音频生成音乐:给定一段歌词和一段旋律,生成一首歌曲。●图像和文本生成3D模型:给定一张图像和一段文本描述,生成一个3D模型。模型层中自然语言理解(Natural Language Understanding,NLU)和自然语言生成(Natural Language Generation,NLG)是自然语言处理(Nature Language Processing,NLP)中的两个关键领域。NLU致力于使计算机能够理解和解释人类自然语言,而NLG则专注于使用计算机生成人类可读的自然语言文本。AGI,全称Artificial General Intelligence(人工通用智能),是指一种理论上能够执行任何智力工作的人工智能系统,就如同人类智能一般,能够理解和学习任何智力任务。AGI系统具备广泛的认知能力和智能灵活性,可以自主地理解、学习、推理和应对各种复杂情境,而不仅仅局限于执行预设的或专门的任务。AGI是人工智能研究的一个终极目标,但至今尚未完全实现。当前的人工智能系统大多是“弱人工智能”或“窄人工智能”,它们在特定任务上表现出色,如图像识别、语音识别或棋类游戏,但无法处理超出其编程范围的任务。相比之下,AGI追求的是更全面的智能,可以比肩或超越人类的智能水平。OpenAI、DeepMind、Anthropic等公司都在积极研究AGI,希望通过深度学习、神经网络和其他先进的AI技术来实现这一目标。然而,实现AGI还面临着巨大的技术和伦理挑战,包括计算能力的限制、数据的可用性、算法的效率,以及如何确保AGI的安全、可控和有益于人类社会。ChatGPT是一个由OpenAI公司推出的大型语言模型(large language model, LLM),它能帮助开发人员使用自然语言理解来增强聊天机器人和智能应用程序的功能,可以处理各种任务,如视频脚本撰写、营销文案写作、文本翻译、代码编写、医疗保健、Excel助手等功能。从物理上看,ChatGPT是一种基于深度学习算法的计算机程序,它由数以亿计的神经元和参数组成,运行在计算机的中央处理器或图形处理器上。它的输入是一个文本序列,输出则是根据该序列预测的单词或字符,它可以通过这种方式不断生成新的文本。从代码上看,ChatGPT是一个Python程序,它使用了TensorFlow、PyTorch等深度学习框架,实现了基于Transformer架构的神经网络模型。ChatGPT基于使用GPT的聊天机器人框架,以Python来实现。要搭建ChatGPT,首先需要安装OpenAI的Transformers库和GPT-3API的Python客户端。其次,需要创建一个GPT-3模型实例,然后调用它的generate方法来生成文本。ChatGPT的主要代码实现包括预处理输入数据、定义模型架构、训练模型,以及使用模型进行推理和生成文本等功能。ChatGPT的代码实现非常复杂,包括大量的数学运算和机器学习算法,需要有一定的编程和机器学习经验才能理解和修改它的代码。ChatGPT是AIGC 的代表性应用之一,我们可以将其理解为,ChatGPT主要实现人工智能的文生文(根据提示文字,利用大模型生成文字内容),而其他的AIGC工具则会不同程度地生成其他内容,譬如图片、音频、视频。作为人机交互“操作系统”,ChatGPT的大模型是如何输入、学习和更新数据的呢?ChatGPT的大模型使用的是无监督学习方法,输入数据主要是通过爬虫技术从互联网上采集大量文本数据,数据来源包括维基百科、新闻报道、社交媒体等。这些文本数据经过预处理和清洗后,被转化为文本语料库。ChatGPT的大模型通过对这些语料库进行无监督学习,学到了自然语言的语法结构和语义表示,因此它能够高度准确和流畅地生成文本。同时,ChatGPT的大模型也可以根据用户输入的上下文信息,自动生成相关的响应文本,从而实现对话交互的功能。ChatGPT作为一种强大的语言模型,为各种人工智能应用提供了基础支持。类似于操作系统为计算机提供了运行程序和管理资源的能力,ChatGPT为开发人员和用户提供了一种强大的自然语言处理工具。3)ChatGPT为什么能生成代码,背后的原理是什么?大模型学习编程的方式与其学习其他知识的方式相同,都是通过大量的文本数据来学习。这些文本数据包括各种类型的文本,如新闻、书籍、网页和编程教程等。模型可以从中学习到编程的基本概念、语法规则、常见模式和最佳实践等。我们可以输入一些与编程语言相关的提示和约束条件,使ChatGPT生成符合这些提示和条件的代码。例如,输入一段关于计算圆面积的描述,可以提示ChatGPT生成对应的Python代码。此外,ChatGPT也可以通过学习大量的开源代码库,习得代码的结构和语法规则,从而生成符合编程规范的代码。1.预训练:在这个阶段,模型会在大量的文本数据上进行训练,学习到文本的统计规律。这个过程是无监督的,也就是说,模型只需要预测下一个词是什么,而不根据需要明确的标签来进行学习。在这个步骤,模型可以学习到语言的语法和语义,以及一些基本的编程知识。2.微调:在预训练之后,模型会在特定的任务上进行微调。这个过程是有监督的,也就是说,模型需要根据明确的标签来进行学习。例如,如果我们想让模型学习编程,我们可以在编程问题和对应的解决方案上进行微调。通过这个过程,模型可以学习到更具体和深入的编程知识。值得注意的是,虽然大模型可以学习到一些编程知识,但它们并不能理解编程的真正含义。它们只是学习到了编程的表面规律,而没有深入地理解编程。同时,ChatGPT生成的代码并不一定总是符合正确的语义和逻辑,还需要程序员对其进行进一步的检查和调试。因此,虽然大模型可以帮助我们解决一些编程问题,但它们不能替代真正的程序员。▌5、大模型
对于大数据,大众已经比较熟悉。顾名思义,大数据指的是海量的数据,但大数据并没有看上去这么简单,它还有多样性和高速增长的特性。收集、存储、处理和分析各种形式和来源的大数据,可以帮助企业和组织迅速获得有价值的信息,并做出正确的决策,它还可以用于商业活动的改善,如此能提升工作效率,降低工作成本,并推动企业实现更大的增长。就如人类通过经历各类事件来积累经验一般,在人工智能领域,我们通过大量的数据来训练模型。而随着深度学习的落地和发展,模型本身所需的存储空间在近年有了显著增长,最初的GPT就有1.17亿个参数,ChatGPT有1750亿个参数,最新的GPT-4参数数量更多,有报道称可能达到1T(即10000亿),但OpenAI公司其实并没有公布具体的参数数量,这些拥有海量参数的模型都被称为“大模型”。大语言模型(Large Language Model, LLM),是指具有数千万甚至数亿参数的深度学习模型,通常由深度神经网络构建而成,用于处理复杂的自然语言任务。它们采用预训练+微调的训练模式,能够处理更加复杂的任务和数据。简单说,大模型通常是在无标注的大数据集上,采用自监督学习的方法进行训练的。之后,在其他场景的应用中,开发者只需要对模型进行微调,或采用少量数据进行二次训练,就可以满足新应用场景的需要。以下模型属于NLU:使计算机能够理解和解释人类自然语言。1) Transformer:是一种深度学习模型架构,主要用于处理序列数据,核心思想是利用自注意力机制(Self-Attention)来捕获输入序列中的全局依赖关系。目前广泛应用于自然语言处理任务的模型,通常用于机器翻译、文本分类等方面。2) BERT (Bidirectional Encoder Representations from Transformers):一种预训练的语言模型,通常用于处理自然语言理解任务,如语义理解、命名实体识别等方面的任务。以下模型属于NLG:使用计算机生成人类可读的自然语言文本。3) GPT (Generative Pre-trained Transformer):生成式预训练模型,由OpenAI开发,主要用于各种自然语言理解和生成任务。GPT模型采用了Transformer的架构,并对其进行了预训练,使其能够在没有标签的大规模文本数据上进行无监督学习。一般的神经网络在进行训练时,先对网络中的参数进行随机初始化,再利用算法不断优化模型参数。而GPT的训练方式是,模型参数不再是随机初始化的,而是使用大量通用数据进行“预训练”,得到一套模型参数;然后用这套参数对模型进行初始化,再利用少量特定领域的数据进行训练,这个过程即为“微调”。预训练属于迁移学习的一种。预训练语言模型把自然语言处理带入了一个新的阶段——通过大数据预训练加小数据微调,自然语言处理任务的解决无须再依赖大量的人工调参。GPT系列的模型结构秉承了不断堆叠Transformer的思想,将Transformer作为特征抽取器,使用超大的训练语料库、超多的模型参数以及超强的计算资源来进行训练,并通过不断提升训练语料的规模和质量,提升网络的参数数量,完成迭代更新。GPT的发展目前经历了GPT-1、GPT-2、GPT-3、GPT-3.5和GPT-4几个阶段。ChatGPT 就是基于 GPT 架构的。4) GLM (Generative Language Model):生成式语言模型,是一种广义语言模型,它是在GPT模型基础上的扩展。5) GAN:生成对抗网络,深度学习领域的一个重要概念,GAN由生成器和判别器两部分组成,它们在训练过程中相互竞争。生成器的目标是生成尽可能真实的数据,而判别器的目标是区分真实数据和生成器生成的假数据。通过这种对抗过程,生成器可以学习生成高质量、难以区分的假数据。GAN在图像生成、风格迁移和数据增强等领域有广泛应用。6) Diffusion模型:扩散模型,深度学习领域的一种扩散型的生成模型,它通过模拟数据的扩散过程来生成新的样本。这种模型首先将数据逐渐转化为高斯噪声,然后通过学习逆过程,从噪声中恢复出数据。Diffusion模型在图像和音频生成方面显示出了强大的能力。7) VAE:变分自编码器模型,是一种生成模型,它结合了深度学习和概率图模型的概念。在许多任务中具有广泛的应用,包括数据生成、图像生成、图像插值、数据降维和特征学习等。● WaveGAN:WaveGAN是一种基于GAN的模型,用于生成逼真的音频波形。● WaveNet:WaveNet是一种基于深度卷积神经网络的模型,可以生成高质量的语音和音乐。● MelGAN:MelGAN是一种基于GAN的模型,用于生成高质量的梅尔频谱特征,然后将其转换为音频波形。● Tacotron 2:Tacotron 2是一种序列到序列(Seq2Seq)的模型,用于将文本转换为逼真的语音。● VideoGAN:类似于图像生成模型的GAN,但针对视频生成进行了扩展,例如VGAN、MoCoGAN等。● Video Prediction Model:用于预测视频未来帧的模型,可以用于生成连续性视频,如PredNet、ConvLSTM等。CLIP模型:是由OpenAI开源的深度学习领域的一个多模态模型。CLIP全称为contrastive language-image pre-training,即基于对比学习的大规模图文预训练模型。CLIP模型不仅有着语义理解的功能,还有将文本信息和图像信息结合,并通过注意力机制进行耦合的功能。DALL-E:是由OpenAI开发的一个AI模型,它的目标是根据给定的文本描述生成对应的图像。DALL-E是在GPT-3和VQ-VAE-2(用于学习图像的离散表示的生成模型)的基础上训练的。DALL-E在许多场景中都表现出了强大的性能,包括生成从未存在过的生物、物体,甚至是符合特定风格或主题的图像,使得它在艺术创作、产品设计、动画制作等领域有着广泛的应用潜力。小结
AI 是一个广泛的领域,包含了 AIGC、ChatGPT 和大模型等概念。
AIGC 是 AI 领域中的一种应用,专注于内容的自动生成。
ChatGPT 是 AIGC 领域中的一种具体技术或产品,它使用了 AI 技术来实现自然语言的理解和生成。
大模型是实现 AI、AIGC 和 ChatGPT 功能的技术基础,它们通常需要大量的数据和计算资源来训练,以获得更好的性能。
二、AIGC的实际应用
AIGC的应用领域非常广泛,涵盖了多个行业和场景。以下是AIGC的一些主要应用领域:
- 新闻报道:自动撰写新闻简讯、财务报告、体育赛事总结等。
- 商业设计:为品牌设计logo、海报和其他视觉内容。
随着技术的不断进步,AIGC的应用场景将继续扩展,为更多领域带来创新和效率提升。
三、AIGC的优势与瓶颈
AIGC作为当前人工智能领域的一个重要分支,具有显著的优势,但同时也面临着一些瓶颈。
AIGC的优势
- 个性化体验:根据用户需求生成定制化内容,提升用户体验。
AIGC的瓶颈
四、拥抱AI,培养AI思维
AIGC是一场以数据为驱动、以提升生产力为目的的技术变革。人工智能带来的生产力和生产关系的改变势不可当,在这个过程中,我们必须保持一种开放的心态。对大部分人来说,人工智能不是竞争对手,而是我们的工作伙伴,它将成为必要的生产要素,使生产力倍增。我们应该做的是训练和使用人工智能,让人工智能为我所用,Work with AI(与人工智能一起工作)!AIGC的落地和应用还有待进一步探索,其技术本身也在不断迭代和进步。对我们每个个体而言,更应该做的是提升认知,充分认识到与人工智能共存是未来的必然趋势。人工智能是这一时代的产物,与其担忧它带来的诸多问题,不如拥抱并且掌控它。所谓AI思维,本质是一种“数据驱动”的思维,就是从大量数据中形成模型,进而对未知情况做出最佳预测。在AIGC的应用中,则是从大量数据中形成模型,自动生成全新的内容。不管是决策式AI模型还是生成式AI模型,其基础逻辑都是一致的,只靠逻辑和经验难以推导,需要海量的数据进行训练。我们需要理解AI思维的底层逻辑,其基础在于数据,核心在于模型,实现在于算力,具体应用在于业务场景。拥有AI思维能够避免经验主义带来的主观、片面和限制,具有积极的意义。所谓工具思维,就是善于利用工具,通过工具赋能,从而解决问题、提高效率、解放劳动力。而AI工具思维,就是掌握数据化思维,掌握使用AI、训练AI的方法。AIGC技术的发展已经不可逆转,与其消极对待,不如使之为我所用。我们要理解AI的底层逻辑,在工作和生活中使用AI,挖掘AI技术的工具价值,并训练AI具有更强的适配性,为我们的工作和生活带来更大的便利,将我们从繁杂的事务中解放出来。未来,我们人人都可以是AI的使用者和训练师。
五、常用AI工具
AIGC是一个广泛的领域,涉及许多不同的技术和工具。下文盘点了部分常用的AI工具。ChatGPT、Kimi、智谱清言、文心一言、通义千问、豆包、天工AIMidjourney、Stable Diffusion、通义万相、Dreamina、文心一格Dreamina、Vega、艺映AI、PixVerse、Runway ML、Pika、腾讯智影
六、AI导航网站推荐
分享3个AI导航网站,这些网站收录了很多有趣好用的 AI 工具,而且经常更新,可以更快地接触到新鲜出炉的 AI 产品。类似的AI平台有很多,但对于初学者,完全能够满足学习需求。是一个专注于AI工具的导航网站,旨在为用户提供全面而便捷的AI工具资源。该网站收集了数百个来自世界各地的AI工具,涵盖了各种不同的领域和用途,从自然语言处理到计算机视觉,再到数据分析和机器学习等。提供了丰富的AI工具分类和搜索功能,帮助用户快速找到所需的AI工具。该平台不仅涵盖了AI生成文本、图片、视频等领域,还可能包括AI数据分析、AI预测模型、AI语音识别等多种类型的工具。此外,AINAV.CN还可能提供AI开放平台、AI资讯、学习网站等额外资源,以满足用户对AI技术的全面需求。AIGC.CN是一个自称为全品类AI工具导航的网站,它提供了广泛的AI工具集合。用户可以在这里找到包括AI写作、AI绘画、AI视频编辑等在内的多种工具,并可能还包括行业资讯、热门工具推荐、用户评价等内容。
希望你今天读了这篇文章,能对你有所帮助,对AI的了解会多一些。
AI技术的快速发展和应用正在不断重塑社会的发展方向,这对各行各业的人都提出了新的挑战和机遇。毫无疑问,AI 的发展将不断影响和改变我们的生活方式,学会拥抱AI,让AI 成为我们的生活助手,融入自己的生活,才是我们面对AI的最好方式。同时,我希望你明白AI只是一种技术手段,是辅助工具。它虽强大,但并非无所不能,它目前无法理解人类的情感或价值观,不能准确判断内容的真实性和合理性,也无法匹敌人类的创造力和批判性思维。因此,我们应善用AI,不可盲目依赖。后面会持续分享AI工具方面的知识和使用技巧,帮助解决学习和生活中的问题,提高学习、工作效率。记得点赞、在看、转发,谢谢。丁磊. 生成式人工智能. 北京:中信出版集团,2023-05-01.2.韩泽耀, 袁兰, 郑妙韵. AIGC从入门到实战:ChatGPT+Midjourney+Stable Diffusion+行业应用. 北京:人民邮电出版社有限公司,2023-12-01.3.杜雨,张孜铭. AIGC:智能创作时代. 北京:中译出版社,2023-03-01免责声明:本文转载自公众号:树石云。文章链接地址:https://mp.weixin.qq.com/s/al9vZAuTnhFcwj6z_rkFaA
部分图文来自网络,仅供学习与交流,非商业用途,版权归原作者所有,如有侵权,联系即删。