仓库:存储模型、代码和文件,支持用户和组织协作开发。 模型:托管用于自然语言学习、视觉和音频任务的模型。 数据集:托管用于翻译、语音识别和图像分类等任务的数据集,包含生成训练、评估和测试所需的数据。 体验空间:开发者可以使用体验空间一键部署在线推理服务;用户无需下载即可体验各大模型的推理服务。
识别二维码,免费注册体验
识别二维码,添加小助手
第一步 | 第二步 | 第三步 | 第四步 |
点击链接进入魔乐社区官网https://modelers.cn/ | 点击注册后进入注册页面填写信息提交 | 提交注册后返回登录 | 登录后进入欢迎页面即表示成功 |
2. 进入魔乐社区上传模型并通过可用性测试即可获得DataFunPro季度会员
模型去哪里寻找?来Hugging Face
在文件中查找XXX_PRETRAINED_MODEL_AECHIVE_LIST,如下图,即待上传模型规格。
下载模型
进入Hugging Face官网(或者HuggingFace国内镜像),根据模型规格搜索模型。
点击Clone repository,通过git-lfs将模型仓克隆到本地。
模型如何上传?
第二步:创建完成之后就是上传了,此时记住我们在openmind_hub云端上的模型的路径为:lvzhou/all-MiniLM-L12-v2,接下来在all-MiniLM-L12-v2模型目录下新建examples目录,并在examples目录内创建inference.py和requirements.txt,两个文件的内容如下:
inference.py
主要修改parse_args函数内的default参数所指定的模型路径,便于接下来将模型上传到openmind_hub中,具体代码可查看提供的md文件(inference.py)
inference.py.md
requirements.txt
设置NPU下运行该脚本需要配置的对应文件,默认torch_npu, openMind Library已安装
命令行:transformers==4.39.2
第三步:创建好就可以上传,先打开魔乐社区链接:https://modelers.cn/my/tokens,新建一个令牌,将权限设置为write,并将其复制在下面的上传代码中token中,具体代码可查看md文件(上传代码.md)
https://drive.weixin.qq.com/s?k=AD4Atgd8AA4PqIIk0cAfQA_AbDAL8
第四步:接下来在bash终端内执行模型上传命令
命令行:python upload.py
b. 模型可用性测试
上传成功后在社区项目介绍页进行模型可用性测试,当出现测试成功即可,如果失败也可以下载日志进行debug,具体可参看教程:
https://modelers.cn/docs/zh/community/models/verifying_models.html
c. 梳理readme文档
readme主要是对该上传模型的介绍,可在Hugging Face或其他平台下载的时候带出,但需要根据在魔乐社区上传的版本做优化
内容可参考此文档:https://modelers.cn/models/TeleAI/TeleChat2-115B
文章篇幅字数不得少于1000字; 文章必须原创,不可搬运、抄袭,以及AI生成; 文章内容可深入分析openMind在模型训练、微调、评估和推理等环节的支持能力;探讨openMind如何提供海量模型和数据的托管服务,以及其在线推理体验服务的实现方式和优势等维度撰写。