文|庞德公
编辑|郭嘉
支持流行 LLMs:直接在本地设备上运行最先进的模型,包括 Llama 3、Llama 2、Mistral 多种执行模式:支持Python(Eager、Compile)和原生(AOT Inductor、ExecuTorch)<可执行文件>模式 跨平台兼容性:在 Linux(x86)、macOS(M1/M2/M3)、Android 和 iOS 上流畅运行 高级量化支持:通过各种量化技术减少内存占用并加速推理 灵活导出能力:轻松准备模型以在桌面和移动平台上部署 内置评估框架:使用内置评估工具评估模型准确性和性能
上图为整体的交互模式,Torchchat的核心是一个REST API,可以通过命令行界面 (CLI) 或浏览器访问。这使得可以轻松集成到现有的Python工作流程和快速原型设计中。
git clone https://github.com/pytorch/torchchat.git
cd torchchat
python3 -m venv .venv
source .venv/activate
./install_requirements.sh
python3 torchchat.py chat llama3.1
可视化web模式将启动一个基于Web的UI,用于与Llama 3.1模型进行交互,提供更直观和用户友好的体验。
streamlit run torchchat.py -- browser llama3.1
下表展示了Llama 3 8B Instruct在M1 Max和64GB RAM的Apple MacBook Pro上的性能,MPS显示出明显的加速。
MPS (Metal Performance Shaders) 是Apple提供的一个图形和计算框架,用于利用GPU进行高效的计算确保最佳性能。
Torchchat在移动设备上的表现同样令人印象深刻。在三星Galaxy S23和 iPhone上通过ExecuTorch使用4 位GPTQ量化实现每秒超过8个令牌。这种性能水平可在现代智能手机上实现响应迅速的设备端 AI 体验。