2024年已经过去, 我的总结在此 2024, 我借AI之力, 打造了上线首月用户破万的产品
这篇文章里, 我们总结一下大模型有什么发展:
技术突破:GPT-4不再是高峰
2024年最显著的变化是,GPT-4不再是遥不可及的技术高峰。目前已有18家机构的模型性能超越了2023年3月发布的原始GPT-4,包括谷歌、OpenAI、阿里巴巴、Anthropic、Meta等科技巨头,也包括一些新兴的AI公司。在权威的Chatbot Arena排行榜上,原始GPT-4已经跌至70名开外。
大模型变得更"轻"更快
过去一年,大模型在效率方面取得了惊人进展。一些GPT-4级别的模型已经可以在高配笔记本电脑上运行,这在一年前是不可想象的。同时,各大模型提供商的API价格也大幅下降,有些降幅达到了12倍以上。这意味着使用AI大模型的成本和能耗都在显著降低。
上下文长度的突破
相比2023年大多数模型仅支持4K-8K token的限制,2024年的模型实现了革命性突破。目前每个主要提供商都有支持10万以上token的模型,Google的Gemini系列更是达到了200万token。这极大扩展了模型的应用场景,让整本书籍的分析、大规模代码审查等任务成为可能。
多模态能力成为标配
2024年,几乎所有主要的模型都具备了多模态能力。除了处理文本,它们现在可以理解图像、音频,有些甚至能处理视频。更令人兴奋的是实时语音对话和实时视频分析功能的出现,让AI交互变得更自然。
"推理型"模型的崛起
2024年末期出现了一种新型模型架构,以OpenAI的o1系列为代表。这类模型通过在推理阶段投入更多计算资源,来提升解决复杂问题的能力。虽然计算成本较高,但开创了提升模型能力的新方向。
提示词工程的商业化
基于提示词的应用生成已经成为一种成熟的技术。越来越多的平台提供了类似功能,让用户可以通过简单的提示词来生成交互式应用。这大大降低了开发AI应用的门槛。
行业思考
尽管技术进步显著,但一些基础问题仍待解决:
模型的可靠性和"幻觉"问题仍然存在 如何让普通用户更好地理解和使用这些强大但复杂的工具 基础设施建设的环境影响 AI生成内容("slop")的质量控制
展望未来
随着合成训练数据的效果被证实,模型训练成本的持续下降,以及效率的不断提升,AI大模型技术正在走向更加成熟和实用的阶段。但要充分发挥其价值,我们还需要更多的教育工作,帮助用户理解这一强大而复杂的工具。
这场技术革命才刚刚开始,2025年我们很可能会看到更多令人惊喜的突破。对于普通用户来说,现在正是了解和学习如何利用这些工具的最佳时机~
Hika 致力于让大家多维度地探索学习这方面知识: 对抗「懒人回答」: 我们做了款让你变得更聪明的AI搜索工具,现在免费用