虚拟化客户端服务器配置_GPU虚拟化
虚拟化GPU加速型云服务器配置方案
1、虚拟化GPU加速型云服务器支持范围
功能 | 是否支持 |
离线变更规格 | 是 |
在线变更规格 | 否 |
冷迁移 | 是 |
热迁移 | 否 |
HA | 是 |
整机快照 | 是 |
克隆 | 是 |
CPU QoS | 是 |
内存复用 | 否 |
2、创建前配置
扩容计算节点(可选):如果需要扩容计算节点,可参考相关指南完成计算节点扩容及网络配置。
为主机安装GRID驱动:获取依赖包和GRID驱动包后,使用命令行工具上传并安装GRID驱动,确保驱动安装成功。
开启运行参数“intel_iommu”:如需要,可参考相应文档开启此参数。
创建虚拟化GPU加速型主机组:按照操作场景描述创建主机组和规格。
3、应用场景
Designer(计算、渲染密集型):适合CAD/CAE/CAM专业设计人员,要求高显示分辨率和3D接口兼容性。
Power User(计算、渲染中载型):适合部件级别编辑或图纸查看,对计算、渲染有一定性能要求,性价比高。
4、虚拟化GPU加速型实例安装GRID驱动
支持的驱动版本和操作系统:根据具体需求选择相应的驱动版本和操作系统。
5、方案
虚拟化类型:KVM的X86场景下,使用HCC Turnkey搭建环境时,需规划对应的主机组,否则,需完成一系列配置操作。
制作镜像:根据需求制作相应的虚拟机镜像。
创建弹性云服务器:按照步骤创建虚拟化GPU加速型弹性云服务器。
支持的虚拟化GPU型号:参考支持的GPU虚拟化类型进行选择。
二、NVIDIA vComputeServer与虚拟化GPU服务器
1、引入AI、深度学习和数据科学
NVIDIA的vComputeServer技术使AI工作负载摆脱了仅限CPU支持的束缚,可在虚拟化环境中轻松部署。
通过与VMware的合作,该架构帮助企业在数据中心和云端之间无缝迁移GPU上的AI工作负载,提高安全性、利用率和可管理性。
2、特性与优势
GPU性能:深度学习训练速度比仅使用CPU快50倍,接近裸机水平。
高级计算:纠错代码和动态页面收回防止高精度工作负载中的数据损坏。
实时迁移:支持GPU的虚拟机可以在短时间中断或停机时间的情况下迁移。
安全性增强:将服务器虚拟化的安全性优势扩展到GPU集群。
多租户隔离:通过隔离工作负载,在一个基础设施上安全地支持多个用户。
管理和监控:管理员可以使用相同的hypervisor虚拟化工具管理GPU服务器。
3、广泛的GPU支持
支持NVIDIA T4、V100 GPU、Quadro RTX 8000和6000 GPU,以及基于Pascal架构的P40、P100和P60 GPU。
4、NVIDIA NGC的支持
NVIDIA NGC是一个优化深度学习和科学计算的GPU加速云平台,提供超过150个容器、预训练模型、训练脚本和工作流程,从概念到制作为AI提供全程加速。
IT管理员可以使用VMware vSphere等hypervisor可视化工具来管理VM中的NGC容器,其中VM运行于NVIDIA GPU之上。
相关问题与解答
1、如何确认虚拟化服务器上的GPU是否被识别?
答:需要确认硬件支持、安装GPU驱动程序、启用GPU虚拟化、配置虚拟化平台和配置虚拟机,完成这些步骤后,就可以顺利地在虚拟机中使用GPU。
2、NVIDIA vComputeServer支持哪些类型的工作负载?
答:NVIDIA vComputeServer支持数据分析、机器学习、AI、深度学习、高性能计算(HPC)以及其他服务器工作负载,还包括虚拟桌面产品,如面向知识工作者的NVIDIA GRID虚拟PC和GRID虚拟应用程序,以及面向专业图形的Quadro虚拟数据中心工作站。
各位小伙伴们,我刚刚为大家分享了有关“虚拟化 客户端 服务器配置_GPU虚拟化”的知识,希望对你们有所帮助。如果您还有其他相关问题需要解决,欢迎随时提出哦!
原创文章,作者:未希,如若转载,请注明出处:https://www.kdun.com/ask/1092652.html
本网站发布或转载的文章及图片均来自网络,其原创性以及文中表达的观点和判断不代表本网站。如有问题,请联系客服处理。
发表回复