ModelArts Standard模型训练
基于ModelArts Standard上运行GPU训练任务
本案例介绍了如何使用ModelArts Standard专属资源池提供的计算资源,结合SFS和OBS存储,在ModelArts Standard的训练环境中开展单机单卡、单机多卡、多机多卡分布式训练。
面向熟悉代码编写和调测的AI工程师,同时了解SFS和OBS云服务
从 0 制作自定义镜像并用于训练(PyTorch+CPU/GPU)
本案例介绍如何从0开始制作镜像,并使用该镜像在ModelArts Standard平台上进行训练。镜像中使用的AI引擎是PyTorch,训练使用的资源是CPU或GPU。
面向熟悉代码编写和调测的AI工程师,同时熟悉docker容器知识
从 0 制作自定义镜像并用于训练(MindSpore+Ascend)
本案例介绍如何从0开始制作镜像,并使用该镜像在ModelArts Standard平台上进行训练。镜像中使用的AI引擎是MindSpore,训练使用的资源是Ascend。
主流开源大模型基于Standard适配PyTorch NPU训练指导
本案例基于ModelArts Standard供的昇腾计算资源,指导用户完成Llama、Qwen、ChatGLM、Yi等常见开源大模型的预训练、SFT微调、LoRA微调训练过程。
面向熟悉代码编写和调测的AI工程师
ModelArts Standard推理部署
使用Standard一键完成商超商品识别模型部署
本案例以“商超商品识别”模型为例,介绍从AI Gallery订阅模型,一键部署到ModelArts Standard,并进行在线推理预测的体验过程。
面向AI开发零基础的用户
从0-1制作自定义镜像并创建AI应用
针对ModelArts不支持的AI引擎,您可以构建自定义镜像,并将镜像导入ModelArts,创建为模型。本案例详细介绍如何使用自定义镜像创建模型,并部署成在线服务。
面向熟悉代码编写和调测的AI工程师,同时熟悉docker容器知识
主流开源大模型基于Standard适配PyTorch NPU推理指导
本案例基于ModelArts Standard供的昇腾计算资源,指导用户完成Llama、Qwen、ChatGLM、Yi等常见开源大模型的推理部署、模型评测、模型量化等功能。
面向熟悉代码编写和调测的AI工程师
ModelArts Standard开发环境
使用ModelArts VS Code插件调试训练ResNet50图像分类模型
本案例以Ascend Model Zoo为例,介绍如何通过VS Code插件及ModelArts Standard的Notebook进行云端数据调试及模型开发。
面向熟悉代码编写和调测的AI工程师
ModelArts Lite Server
主流开源大模型基于Lite Server适配PyTorch NPU训练指导
本案例基于ModelArts Lite Server供的昇腾计算资源,指导用户完成Llama、Qwen、ChatGLM、Yi等常见开源大模型的预训练、SFT微调、LoRA微调训练过程。
面向熟悉代码编写和调测的AI工程师,同时熟悉Linux和Docker容器基础知识
主流开源大模型基于Lite Server适配PyTorch NPU推理指导
本案例基于ModelArts Lite Server提供的昇腾计算资源,指导用户完成Llama、Qwen、ChatGLM、Yi等常见开源大模型的推理部署、模型评测、模型量化等功能。