AI创投周报|Llama 3.1 405B让闭源模型优势不再,专注企业大模型的Cohere获5亿美元融资

企业   2024-07-26 17:14   四川  


AI创投周报是阿尔法公社推出的聚焦于以生成式AI为代表的人工智能新浪潮的创投资讯周报。阿尔法公社发现和投资非凡创业者(Alpha Founders),相信非凡创业者们在技术、商业和社会方面的巨大推动力,他们指引着创投生态的风向。

本图由“千象”(网址:www.hidreamai.com)生成


本周,我们观察到以下AI领域的新动向和新趋势:


1.Meta正式发布Llama 3.1 405B开源大语言模型。它的发布标志着开源AI模型在性能方面不再落后于GPT-4等先进闭源模型。


2.Mistral AI发布Large 2模型,与Meta Llama 3.1 405B性能媲美。这个123B的模型尽管参数尺寸低于Llama 3.1 405B,但是性能基本持平,这代表着开发者有了更多强大的开源模型可用。


3.Cohere再获5亿美元融资,估值飙升至55亿美元。Cohere与其他致力于基础大模型公司的最大区别在于它在自己拥有模型的同时,专注于企业市场。这也是它与OpenAI和Anthropic等公司竞争的差异化所在。




如果您对人工智能的新浪潮有兴趣,有见解,有创业意愿,欢迎扫码添加“阿尔法小助理”,备注您的“姓名+职位”,与我们深度连接。

人工智能产品和技术的新突破


1.Meta Llama 3.1 405B模型开源发布,开启AI新时代


Meta公司正式发布了备受瞩目的Llama 3.1 405B开源大语言模型,标志着开源AI模型在功能和性能方面将不再落后于封闭模型。Llama 3.1 405B是Meta迄今为止最大的模型,其上下文长度扩展至128K,支持八种语言,并在常识、可操纵性、数学、工具使用和多语言翻译等方面展现出与顶级AI模型相媲美的能力。

来源:https://llama.meta.com/


Meta CEO扎克伯格强调开源对开发者、Meta以及全球的积极影响,并表示Llama系列模型的总下载量已超过3亿次。Llama 3.1 405B的发布,不仅为用户提供了与顶尖闭源模型相竞争的性能,还提供了配套组件和参考系统,使用户能够通过WhatsApp和meta.ai体验该模型。


Llama 3.1 405B在超过150个基准数据集上进行了评估,并通过了广泛的人类评估,显示出其在多种任务中的竞争力。模型采用标准解码器Transformer架构,通过监督微调和直接偏好优化进行迭代训练,提高了数据的数量和质量。


此外,Meta还提供了8B和70B的小型模型升级版本,这些模型在性能上与具有相似参数量的闭源和开源模型具有竞争力。为了支持大规模推理,Llama 3.1 405B模型从16比特量化为8比特,有效降低了计算需求。


Llama 3.1 405B的开发注重实用性和安全性,通过多轮对齐构建最终聊天模型,使用合成数据生成和数据处理技术提高微调数据的质量。Meta还发布了Llama系统,包括Llama Guard 3和Prompt Guard等组件,以及GitHub上的「Llama Stack」评论请求,推动行业和社区合作。


开发者现在可以通过llama.meta.com和Hugging Face下载Llama 3.1 405B模型,利用其高级功能进行实时和批量推理、监督式微调、性能测试和评估、持续预训练、检索增强生成、函数调用和合成数据生成等开发工作。Meta的这次发布,无疑为AI领域带来了新的开源动力和创新可能。


2.Mistral AI发布Large 2模型,与Meta Llama 3.1 405B性能媲美


法国AI初创公司Mistral AI宣布推出其旗舰开源模型的下一代产品——Mistral Large 2,这是一个拥有1230亿个参数的大型语言模型。尽管参数量低于Meta的Llama 3.1 405B,但Mistral Large 2在代码生成、数学、推理等多个方面展现出与顶尖模型相媲美的性能。

来源:https://mistral.ai/news/mistral-large-2407/


Mistral Large 2的上下文窗口扩大至128,000个token,相当于一本300页书的内容,支持数十种语言和80多种编程语言。该模型在MMLU基准测试中实现了84.0%的准确率,并在减少模型产生错误信息方面进行了优化,增强了推理能力。


Mistral AI特别强调了模型在指令遵循和对话能力上的提升,Mistral Large 2擅长处理长对话和精确指令。此外,模型在多语言处理上表现优异,特别是在英语、法语、德语等主流语言上。


值得注意的是,虽然Mistral Large 2是开源的,但仅限于研究和非商业用途,商业用途需要获取Mistral AI的商业许可证。Mistral AI还提供了模型的权重,允许第三方进行微调。


Mistral Large 2的发布,为开源大模型领域带来了新的竞争者,也为开发者和研究者提供了更多的选择和可能性。用户可以通过Mistral AI的la Plateforme平台试用该模型,并在HuggingFace上找到模型权重。Mistral AI也在扩大与云服务提供商的合作,使Mistral Large 2能够更广泛地应用于不同的平台和场景。

3.OpenAI免费提供GPT-4o mini微调服务,应对Llama挑战


OpenAI宣布从即日起至9月23日,为4级、5级用户提供GPT-4o mini微调服务,每天限制200万tokens数据免费使用。超过部分将按每10万tokens 3美元收费。从9月24日起,每100万tokens微调服务收费3美元,这一价格极具竞争力,接近无限使用。此举意在通过价格战挑战其他大模型平台。


GPT-4o mini是OpenAI最新发布的小参数模型,性能在多个测试平台中大幅度超过GPT-3.5 Turbo,相当于80%的GPT-4o性能,但API价格大幅下降60%,性价比极高。GPT-4o mini也是OpenAI首个指令层级结构模型,能够区分处理包括系统消息、用户消息、模型输出和工具输出等各种类型的文本,提高模型对指令的遵循性和鲁棒性。


OpenAI的这一策略旨在应对Meta最新开源的Llama 3.1系列模型。有开发者对比了微调后的Llama 3.1 8B与GPT-4o mini性能,发现在聊天机器人、摘要和数据提取方面,GPT-4o mini稍显不足。但OpenAI的免费微调服务和极具竞争力的定价策略,无疑将对市场产生重大影响,推动生成式AI应用的进一步发展和普及。

4.OpenAI设计新奖励机制RBR,提升AI大模型对齐效率与安全性能


OpenAI近期推出了一种新的奖励机制——基于规则的奖励(Rule-Based Rewards,RBR),旨在提升大型语言模型(LLM)的安全性和与人类价值观的一致性。传统的强化学习从人类反馈(RLHF)方法虽然有效,但存在效率低下和数据可能过时的问题。RBR通过定义一系列命题和规则,自动发出RL信号,指导AI模型适应不断变化的安全政策,减少对人类数据的依赖。


RBR的工作原理是将关于模型响应的期望或不期望方面的命题形成规则,捕捉安全和适当响应的细微差别。例如,面对不安全请求时,模型应拒绝并包含简短道歉及说明无法遵从的原因。研究者设计了三类期望的模型行为,对应不同的安全政策和请求类型。RBR使用固定的语言模型评估器对响应进行评分,拟合线性模型学习权重参数,结合仅提供帮助的奖励模型,作为PPO算法的信号,鼓励模型遵循安全行为。


实验结果表明,RBR训练的模型在安全性能上与传统人类反馈训练相当,同时减少了过度拒绝安全请求的情况。RBR还显著减少了人工数据需求,使训练过程更快速、成本效益更高。此外,RBR可以快速更新以适应新的安全准则,而无需大量重新训练。


尽管RBR在有明确规则的任务中表现良好,但在更主观的任务中可能存在挑战。为平衡这些挑战,RBR可以与人类反馈结合使用,强制执行特定准则,同时处理更细微的方面。伦理上,使用AI提供RBR奖励可能减少人工监督并放大偏见,因此需确保RBR设计的公平性和准确性。OpenAI计划进一步研究RBR在不同领域的应用,以验证其有效性。

5.牛津发表《Nature》封面研究发出警告:AI自我训练可能引发模型崩溃


近期,《自然》杂志封面文章引起广泛关注,牛津大学等机构的研究指出,AI使用由自身生成的数据进行训练可能导致所谓的“模型崩溃”,即模型在经过几代迭代后,原始内容可能退化成胡言乱语。模型崩溃的风险在于,大型语言模型(LLM)在训练数据上过度拟合,最终忽略数据集中的某些部分,只对部分数据进行学习,导致性能下降。


研究中提到的模型崩溃分为早期和后期阶段,早期表现为模型在少数数据上表现不佳,而后期则是模型完全崩溃,收敛到与原始分布差异极大的状态。崩溃的原因主要归咎于三种误差源:统计近似误差、函数表达误差和函数逼近误差。这些误差在递归训练中累积,造成模型的逐渐退化。


研究者通过实验,使用大型语言模型OPT-125m进行微调,结果发现即使原始数据得以保留,模型输出的内容也会逐渐脱离现实,如将教堂设计文本最终演变为讨论不存在的长耳大野兔品种。这一现象表明,AI生成的内容可能会迅速丧失其原有信息价值。


文章还提到,由于互联网上已充斥着大量AI生成内容,即使是从网络获取的数据,也可能因AI干扰而受到污染。这不仅对模型的训练带来挑战,也对数据的真实性和可靠性提出了质疑。


研究最终建议,为了保持模型的准确性,需要直接访问原始数据源并进行仔细的数据过滤。此外,AI社区应协调合作,追踪信息来源,以确保训练数据的质量和多样性。这项研究不仅对AI模型的自我训练提出了警示,也为未来AI发展提供了重要的参考和指导。

6.字节跳动推出同传智能体CLASI,翻译水平媲美人类同声传译


字节跳动ByteDance Research团队近期推出了一款名为Cross Language Agent - Simultaneous Interpretation(CLASI)的同声传译智能体,其翻译效果已接近专业人工同声传译水平。CLASI采用端到端架构,有效避免了传统级联模型中自动语音识别(ASR)错误传播的问题,并通过大语言模型的语音理解能力,实现了高质量的翻译输出。

来源:https://byteresearchcla.github.io/clasi/


CLASI在中英、英中翻译方向上进行了人工评测,使用与人工同传一致的评价指标——有效信息占比,在多个测试集中达到了或超过了人类同传水平。系统架构上,CLASI定义同声传译为一系列简单且协调的操作,由大语言模型自主控制,实现了实时性和翻译质量的高效平衡。


CLASI底层模型是一个Encoder-conditioned LLM,在海量数据上进行了预训练,具备了从外部获取知识的能力。实验结果显示,在人工评测中,CLASI的准确性显著超过其他所有竞品,并且在两个语向上均达到了78%以上,接近人类同传的准确性。


研究人员还提出了一种模仿专业人类译员的数据驱动读写策略,引入了多模态检索增强生成(MM-RAG)过程,使LLM具有领域特定的知识,以最小的计算开销提高翻译质量。此外,与专业译员合作,制定了新的人工评估策略“有效信息占比”(VIP),并发布了接近现实场景的长语音翻译的多领域人工标注测试集。


CLASI的推出,不仅展示了字节跳动在AI领域的先进技术能力,也为同声传译行业带来了创新的解决方案,有望推动同传服务的发展和应用。

7.苹果开源DCLM-7B模型,性能超越Mistral-7B


苹果公司参与的DataComp-LM(DCLM)项目最近在Hugging Face上发布了DCLM-7B模型,并宣布其性能已超越Mistral-7B,正逐步逼近其他领先开源模型。DCLM-7B模型的亮点在于其全面开源,包括模型权重、训练代码和预训练数据集,这在当前大型语言模型(LLM)研究中尚属首次。

来源:https://arxiv.org/pdf/2406.11794


DCLM项目旨在通过设计高质量的数据集来提升模型性能,特别是在多模态领域。项目提出了一个标准化的实验框架,包括固定模型架构、训练代码、超参数和评估,以确定最适合训练高性能模型的数据整理策略。研究团队发现,基于模型的过滤可能是构建高质量训练集的关键。


使用DCLM方法,团队构建了DCLM-BASELINE数据集,并训练了7B参数的DCLM-7B模型。该模型在MMLU基准上的5-shot准确率达到64%,与Mistral-7B-v0.3和Llama 3 8B相当,同时在53个自然语言理解任务上的平均表现也可与之相媲美,但所需计算量仅为Llama 3 8B的六分之一。


DCLM-7B模型的开源性质,包括训练代码和数据集的开放,为研究人员和开发者提供了极大的便利,有助于推动LLM研究和应用的发展。苹果机器学习团队的Vaishaal Shankar将DCLM模型誉为“真正开源的最佳模型”,这一举措体现了苹果在AI领域的开放合作精神和领导地位。

8.OpenAI深夜突发SearchGPT,进军大模型搜索领域


OpenAI近日发布了一款名为SearchGPT的大模型搜索产品,标志着其正式进军搜索领域,对谷歌等现有搜索引擎构成潜在挑战。SearchGPT旨在通过提供快速、及时且来源清晰的答案,改善用户的搜索体验。目前,该产品正处于测试阶段,并向部分用户和发布者开放以收集反馈。


SearchGPT的界面以一个大文本框开始,直接询问用户需求,然后迅速利用网络上的最新信息提供答案及相关来源的清晰链接。不同于传统搜索引擎仅返回链接列表,SearchGPT尝试组织和理解这些信息,甚至在某些情况下提供总结。


OpenAI还计划推出一项名为“视觉答案”的功能,尽管具体细节尚未透露,但已通过YouTube展示了由AI生成的视频内容。此外,公司正致力于打造一个繁荣的出版商和创作者生态系统,通过在对话界面中突出优质内容,增强用户体验,并允许出版商管理其在SearchGPT中的显示方式。


Sam Altman表示,SearchGPT技术将集成到ChatGPT中,使其发挥实时且最大的效用。OpenAI将与更多出版商合作,寻求反馈,并允许网站即使选择退出生成式AI训练,也能出现在搜索结果中。SearchGPT的推出可能会对谷歌、Perplexity等形成新的冲击,改变搜索市场的格局。


人工智能初创公司的新融资


1.Cohere:专注企业服务的AI新贵,再获5亿美元融资,估值飙升至55亿美元


官方网站:cohere.com


Cohere是一家致力于开发大型语言模型的AI初创公司,由人工智能领域杰出人物Aidan Gomez联合创立。该公司在D轮融资中成功筹集了5亿美元,使得公司估值达到了55亿美元,累计融资额达到了9.7亿美元。这轮融资由加拿大养老基金PSP Investments领投,思科、富士通、AMD Ventures和加拿大出口信贷机构EDC等知名机构参与,显示出投资者对Cohere未来发展的信心。


与面向消费者的AI公司不同,Cohere专注于为企业构建大型语言模型。公司年收入从2023年底的1300万美元增长至3500万美元,并计划今年将员工队伍增加一倍。Cohere的创始人Gomez是2017年影响深远的论文"Attention Is All You Need"的合著者之一,该论文介绍了Transformer架构,成为许多强大生成式AI模型的基础。


Cohere选择深耕企业服务,与企业客户紧密合作,利用企业专有数据训练AI模型,解决企业在实际运营中遇到的具体问题。例如,Cohere与甲骨文建立了深度合作关系,将其定制化的AI模型集成到甲骨文的软件产品中,为甲骨文的企业客户提供更强大的AI功能。


Cohere的AI平台设计为云平台无关的架构,可以在各种环境中部署,包括公共云、虚拟私有云和本地部署,赋予企业更大的控制权。尽管Cohere在生成式AI领域面临来自OpenAI、Anthropic和Mistral等公司的激烈竞争,但其专注于企业服务的策略已经获得了市场的认可,并计划在2024年进行大规模扩张,以更好地服务全球企业客户。

2.Vanta获得1.5亿美元融资,AI重塑技术合规领域


官方网站:www.vanta.com/

Vanta,一家利用人工智能自动化安全合规的初创公司,在C轮融资中获得了1.5亿美元,公司估值达到24.5亿美元。此轮融资由红杉资本领投,高盛和摩根大通作为投资者加入。这笔重要的资金注入标志着这家成立四年的公司进入一个关键时期,也预示着企业在数字时代处理信任和安全问题方式的转变。


Vanta的迅速崛起——年循环收入达到1亿美元,服务于全球超过8000家客户——突显了对自动化合规解决方案的日益增长的需求。随着企业越来越依赖云服务并面临更严格的法规,手动安全检查变得不可持续。



Vanta的首席产品官Jeremy Epling强调了公司对AI的新焦点,Vanta是首家提供NIST AI风险管理框架的公司,并正在采用ISO 42,001等认证原则,以确保负责任地使用客户数据。


Vanta的联合创始人兼首席执行官Christina Cacioppo表示,软件公司将面临越来越多的审查,他们需要做更多来证明他们正在做正确的事情。这种公众观念的转变为信任管理解决方案创造了成熟的市场。


Vanta的国际扩张进一步说明了这一挑战的全球性质。在都柏林、伦敦和悉尼设有办事处的Vanta,过去一年中非美国客户群几乎翻了一番。这种快速增长表明,对技术信任的担忧远远超出了硅谷和湾区。


与传统方法相比,Vanta采用AI自动化和简化流程,而不是依赖手动检查和庞大的电子表格。Epling告诉VentureBeat,Vanta的AI聊天机器人可以回答有关公司安全姿态的问题,使复杂信息更易于获取。


3.OpenAI支持的法律科技初创公司Harvey筹集1亿美元


官方网站:www.harvey.ai/


Harvey,一家致力于构建AI驱动的律师“副驾驶”系统的初创公司,在由GV(谷歌的企业风险投资部门)领投的C轮融资中筹集了1亿美元。此轮融资还包括来自OpenAI、Kleiner Perkins、Sequoia Capital、Elad Gil和SV Angel等知名天使投资者和风险投资公司的支持。这使得Harvey的总融资额达到2.06亿美元,并将其公司估值提升至15亿美元。



Harvey的联合创始人温斯顿·温伯格和加布里埃尔·佩雷拉在官方博客上表示,新资本的大部分将用于收集和策划数据,构建和训练“特定领域”的AI模型,同时增加员工人数并将其付费服务扩展到新的地区。他们强调,这笔投资将使Harvey能够继续扩展和改进其AI技术,投资于工程、数据和领域专业知识,这些是构建AI原生系统的基础,以促进最复杂的知识工作。


Harvey由OpenAI的GPT-4模型系列提供支持,能够用自然语言回答法律问题,并提供工具自动从审判记录中提取信息、自动查找可以支持法庭论点的法律文件,并生成包含法律数据库信息和引用的文件初稿。尽管理论上功能强大,但由于法律纠纷的敏感性,一些律师和律师事务所可能会对让Harvey访问任何案件文件持谨慎态度。此外,语言模型可能会产生不当内容和虚构事实,这在法庭上可能会被特别不受欢迎,甚至构成伪证。


因此,Harvey附有免责声明:该工具不向非律师提供法律建议,应在持有执照的律师的监督下使用。尽管面临诸如Casetext和Klarity等竞争对手的竞争,Harvey声称其系统每天被成千上万的律师在律师事务所和咨询公司中使用,包括Allen & Overy、Macfarlanes、Ashurst、CMS、Reed Smith和PwC。自去年12月以来,其年度经常性收入增长了三倍,员工人数也增加了三倍。


4.Lakera完成2000万美元A轮融资,致力于保护企业免受大型语言模型漏洞威胁


官方网站:www.lakera.ai


瑞士初创公司Lakera通过其技术保护生成性AI应用免受恶意提示和其他威胁,已成功完成2000万美元的A轮融资,由欧洲风投公司Atomico领投。生成性AI在诸如ChatGPT等流行应用的推动下迅速发展,但其安全性和数据隐私问题仍是企业环境中的隐患。


Lakera成立于2021年,Lakera Guard作为公司的首款产品,是一个基于数据库的“低延迟AI应用防火墙”,能够保护进出生成性AI应用的流量,Lakera Guard通过集成API,帮助企业防御恶意提示。此外,公司还开发了专门模型,用于扫描提示和应用输出中的有害内容,包括仇恨言论、色情内容、暴力和亵渎的专门检测器。这些检测器对于面向公众的应用(例如聊天机器人)尤其有用。



Lakera的技术不仅能够实时检测恶意攻击,如提示注入,还能通过大量生成性AI交互学习恶意互动的特征,使检测模型不断改进和适应新兴的威胁形势。公司通过互动游戏Gandalf收集数据,构建了“提示注入分类法”,将攻击分为不同类别。


新资金的注入将助力Lakera扩大其全球影响力,特别是在美国市场。Lakera已经拥有一些北美的高知名度客户,包括AI初创公司Respell和加拿大的独角兽企业Cohere。公司认为,大型企业、SaaS公司和AI模型提供商都在竞相推出安全的AI应用,金融服务机构理解安全和合规风险,是早期采用者,但也看到各行各业的兴趣。大多数公司都知道,为了保持竞争力,他们需要将生成性AI整合到核心业务流程中。


Lakera的A轮融资除了得到Atomico的支持外,还包括Dropbox的风投部门、花旗风险投资公司和Redalpine的参与。随着AI技术的不断发展和应用,安全问题日益凸显,Lakera的解决方案有望帮助企业更安全地利用AI技术。


5.YC和FirstRound领投310万美元,AI无代码工作流平台Gumloop获种子轮融资


官方网站:www.gumloop.com/


Gumloop,一家AI驱动的无代码工作流自动化平台,宣布完成了由First Round Capital领投的种子轮融资,融资金额达310万美元。参与投资的还有知名科技企业的联合创始人,如Instacart、Dropbox、Airtable、Mercury和Zeus等。Gumloop成立于一年多前,最初是服务于Discord社区的小众项目,现已发展成为一个广受企业青睐的AI自动化平台。


Gumloop的创始人是加拿大蒙特利尔麦吉尔大学的校友,他们在温哥华的一次AI聚会上重聚,并在YCombinator W24批次中完成了项目。尽管团队规模较小,但他们专注于构建用户喜爱的功能,以高效和精简的方式运营。Gumloop平台允许用户通过拖放方式完全自动化工作,无需编程经验。用户可以创建强大的AI驱动工作流程,这些流程可以直接与他们的数据集成。


Gumloop的客户覆盖各行各业,从独立黑客到独角兽初创公司。例如,一家加拿大会计事务所实现了端到端的发票处理自动化;旧金山的一家初创公司自动生成程序化SEO内容;一家公关公司自动分析新兴新闻故事,每天早晨向员工发送详细的AI生成报告。Gumloop每天在平台上运行近五十万个节点,每周为团队节省数百小时的无用时间。


Gumloop的使命是让任何人都能轻松创建强大的AI工作流程,无需AI专业知识或编程技能。这轮融资将帮助Gumloop继续扩展其平台功能,增加员工人数,并将其服务扩展到新的地区。随着企业对AI自动化需求的不断增长,Gumloop有望在AI驱动的无代码工作流自动化领域占据一席之地。


6.ZoomInfo前首席数据官为AI销售工程师初创公司筹集1500万美元


官方网站:www.docketai.com/


Arjun Pillai,ZoomInfo前首席数据官,已成功为其新成立的AI销售工程师公司DocketAI筹集了1500万美元的A轮融资,该轮融资由Mayfield和Foundation Capital领投。Pillai曾创办并出售了两家初创公司,包括Insent(ZoomInfo于2021年收购)。在ChatGPT发布后,他看到了生成性AI帮助加速和提高技术销售效率的潜力,并于2023年8月离开ZoomInfo,创立了DocketAI。


DocketAI旨在帮助非技术销售人员快速获得技术问题的答案,并协助起草请求提案(RFPs)和其他技术文件。该公司的AI通过整合、摄取和索引Docket软件客户使用的100多个应用程序中的数据来工作。Pillai强调,公司不会在企业数据上训练其AI。DocketAI与其他产品如Glean和Atlassian的Rovo一样,充当工作场所结构化和非结构化数据的搜索引擎。


DocketAI的独特之处在于,它还从顶尖销售人员的行为中学习。Pillai表示,DocketAI不仅能向买家提供事实,还能从顶尖销售人员那里学习,并有能力将最佳实践扩展到整个公司。他声称,使用DocketAI的销售组织能够提高生产力和胜率。


自今年早些时候开始积极销售产品以来,DocketAI目前正在每月增加数个新的企业级付费客户。Pillai表示,公司的客户规模从最小的15个席位到最大的10000个席位不等,并包括ZoomInfo和Demandbase等知名客户。这表明DocketAI的AI销售工程师解决方案受到了市场的广泛认可和采用。

本文由阿尔法公社综合自多个信息源,并在ChatGPT的辅助下写作,封面图片由Hidream.ai的Pixeling(千象)生成。


更多精彩内容



关于阿尔法公社

阿尔法公社
发现非凡创业者
 最新文章