forum.dfinity.org/t/what-makes-ai-on-blockchain-hard-request-for-feedback-on-post/32686/3
内存 - 模型需要大量的计算机内存,而区块链的内存比集中式云内存要少。 计算 - 模型需要大量的计算(例如思考/速度/处理),区块链比中心化的云端模型要少。 硬件 - 大多数中心化提供商通过投入更多硬件来提高 AI 性能,区块链比中心化提供商更难做到这一点,事实上,许多协议在设计上并不通过投入硬件来扩展。
最好的情况是,一些诚实的错误,例如“嘿,Diego,你算错了!我们的智能合约平台每秒执行 600 条指令,而不是 550 条。” 最糟糕的情况是,它会引发区块链部落主义,从而让其余部分被忽视。
Llama 3 8b 正在链上运行! 互联网计算机上的 Llama.cpp
以 Kb 为单位,则无法承载任何真正的 AI 模型; 以 MB 为单位,可以承载小型模型(并且有很多小型模型),但不能承载 LLM; 以 GB 计算,它可以容纳一些较小的 LLM; 以数十 GB 为单位,主机可以承载更多,但不是主要的 LLM; 以数百 GB 为单位,它可以承载几乎所有的 LLM。
以几百万秒或更短的时间内进行的操作来衡量,人工智能推理将花费很长时间,以至于用户会认为它根本不起作用。 以秒级的数亿次运算来衡量,非常小的模型可以在几分钟内执行推理。 以十亿来衡量,较小的 LLM 可以在几分钟内执行推理,或者比用户预期的要慢得多。 以数百亿来衡量,LLM 推理可能是现代用户对 LLM 的期望。 以每秒数万亿次运算来衡量,它可以承载几乎所有的 AI 模型,包括最先进的 LLM,并提供出色的用户体验。
3. 硬件问题(提示:这是确定性)
计算机 1:“LLM,即大型语言模型,是一种旨在理解和生成人类语言的先进人工智能模型,通常具有大量参数,并经过大量文本数据训练。” 计算机 2:“LLM,即大型语言模型,是一种强大的人工智能系统,经过大量文本的训练,可以执行理解、生成和翻译人类语言等任务。” 计算机 3:“LLM,即大型语言模型,是一种通过对大型数据集进行大量训练,擅长处理和生成人类语言的人工智能模型。”
区块链依赖于复制计算并对结果达成一致; GPU 引入了非确定性,使得区块链难以达成共识; 因此,当前的区块链无法像 Web2 系统那样利用 GPU。
利用 GPU 实现确定性:开发使 GPU 计算具有确定性的方法,这是可能的,尽管有点棘手,而且尚未被广泛采用。 修改共识协议:调整共识机制以处理非确定性,这需要进行一些严肃的协议工作。 接受非确定性并使用零知识证明:在单台机器上运行 LLM,无需复制,这种方法比使用 CPU 或 GPU 慢很多个数量级,这在理论上是可行的,但很难做到,而且仍然是一个悬而未决的问题。
他们确定性地运行 GPU 或应用近似的共识机制; 他们的区块链缺乏强大的共识协议(并且不安全); 他们没有说实话。
- 往 期 推 荐 -
你关心的 IC 内容
🛠 技术进展 | 🔍 项目信息 | 🌏 全球活动
长按关注 IC 微信视频号
观看最新视频
*添加小助手微信 comiocn 进交流社群