Models of MindSpore
MindSpore Transformers套件的目标是构建一个大模型训练、推理、部署的全流程套件: 提供业内主流的Transformer类预训练模型, 涵盖丰富的并行特性。 期望帮助用户轻松的实现大模型训练。 文档:https://gitee.com/link?target=https%3A%2F%2Fmindformers.readthedocs.io%2Fzh_CN%2Flatest
一款集桌面管理、效率办公、游戏娱乐为一体的副屏“桌面系统”。 除副屏以外,主屏窗口化也可以正常使用。 基于Electron和Vue全家桶开发。 想天工作台客户端的开源项目库,可编译为客户端或者web网页(web版暂时体验糟糕,不推荐)。 如果不会开发的,也可以直接下载官网版本,安装在电脑上就可以使用。
基于启发式的自动并行策略搜索
最近一年贡献:18 次
最长连续贡献:2 日
最近连续贡献:2 日
贡献度的统计数据包括代码提交、创建任务 / Pull Request、合并 Pull Request,其中代码提交的次数需本地配置的 git 邮箱是 Gitee 帐号已确认绑定的才会被统计。