虚拟化客户端服务器配置_GPU虚拟化
简介
随着云计算和虚拟化技术的不断发展,GPU(图形处理器)虚拟化已经成为提升数据中心性能的重要手段,通过GPU虚拟化技术,可以将一个物理GPU分割成多个虚拟机(VM),每个虚拟机都可以利用GPU的部分硬件资源,从而实现更高效的资源利用和成本节约,本文将详细介绍虚拟化客户端与服务器配置中涉及的GPU虚拟化技术及其应用场景。
GPU虚拟化
GPU虚拟化是一种通过软件和硬件结合的方式,将一个物理GPU分割成多个虚拟GPU(vGPU),使得多个虚拟机可以同时使用该GPU的资源,这种技术不仅可以提高GPU的利用率,还可以降低企业的硬件成本,因为不再需要为每个虚拟机单独配置物理GPU。
应用场景
1、Designer(计算、渲染密集型):适用于3D图形总装设计师,常用于CAD/CAE/CAM领域专业设计人员,这类场景一般计算、渲染计算需求量较大,具有较高的显示分辨率要求,要求有一定的3D接口兼容性。
2、Power User(计算、渲染中载型):适合3D图形部件设计人员的业务处理,如部件级别编辑或图纸查看,除基本的2D功能外,用户具有3D硬件加速要求,对于计算、渲染有一定性能要求,要求性价比高。
3、AI、深度学习和数据科学:NVIDIA的虚拟GPU (vGPU) 技术已改变虚拟客户端计算,现可支持AI、深度学习和数据科学的服务器虚拟化,通过与VMware合作,此架构将能帮助组织在客户数据中心和VMware Cloud on AWS之间无缝迁移GPU上的AI工作负载。
4、业务连续性和工作负载平衡:利用统一的虚拟GPU加速基础设施来运行工作负载,从而提高数据中心资源的利用率。
5、资源共享与更高的利用率:拆分GPU资源并在多个VM之间共享,或者将分配给单个VM,为要求极高的工作负载提供支持。
6、高性能计算(HPC):GPU配置虚拟化采用自研xGPU虚拟化技术,能够动态对GPU设备显存与算力进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备,相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户定义使用的GPU数量,提高GPU利用率。
配置步骤
1、创建前配置:
如果需要扩容计算节点,请参考扩容计算节点(可选)完成计算节点扩容及网络配置。
为主机安装GRID驱动,前提条件是已获取依赖包FusionSphere_GpuCompiler-*-X86_64.zip和GRID驱动包(GRID驱动包请参考NVIDIA vGPU驱动,驱动包支持GRID14.x)。
2、安装GRID驱动:
使用fsp账号登录FusionSphere OpenStack控制节点。
执行以下命令,将文件夹属主属组修改为root。
“`shell
chown root:root -R /home/fsp/gpu_tmp
“`
执行以下命令,安装GRID驱动。
“`shell
python /etc/nova/nova-util/grid_driver_helper.py install /home/fsp/gpu_tmp /home/fsp/gpu_tmp
“`
执行以下命令查看驱动是否安装成功。
“`shell
nvidia-smi
“`
3、开启运行参数“intel_iommu”:
如果主机只作为虚拟化GPU加速型使用,不需要修改“intel_iommu”参数,如需开启运行参数“intel_iommu”,请参考开启运行参数“intel_iommu”章节。
4、创建虚拟化GPU加速型规格:
创建虚拟化GPU加速型弹性云服务器。
支持的虚拟化GPU型号请参见支持的GPU虚拟化类型。
相关问题与解答
1、问题一:如何检查GRID驱动是否安装成功?
答案:执行命令nvidia-smi
,如果有如下回显表示安装成功。
“`shell
+——————————————————————-+
| NVIDIA-SMI 465.19.01 Driver Version: 465.19.01 CUDA Version: 11.5 |
|——————————-+———————-+———————-+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|===============================+======================+======================|
| 0 Tesla K80 Off | 00000000:00:1E.0 Off | 0 |
| N/A 37C P8 24W / 149W | 0MiB / 11441MiB | 0% Default |
| | | N/A |
+——————————————————————-+
“`
2、问题二:如何在虚拟化环境中运行GPU服务器上的AI工作负载?
答案:借助NVIDIA的vComputeServer软件和NVIDIA NGC容器,可以将GPU虚拟化引入AI、深度学习和数据科学,通过与VMware合作,此架构将能帮助组织在客户数据中心和VMware Cloud on AWS之间无缝迁移GPU上的AI工作负载,IT管理员可以使用包括vCenter和vMotion在内的VMware vSphere等hypervisor虚拟化工具来管理所有数据中心应用程序,如NVIDIA GPU上运行的AI应用程序。
各位小伙伴们,我刚刚为大家分享了有关“虚拟化 客户端 服务器配置_GPU虚拟化”的知识,希望对你们有所帮助。如果您还有其他相关问题需要解决,欢迎随时提出哦!
原创文章,作者:未希,如若转载,请注明出处:https://www.kdun.com/ask/1141958.html
本网站发布或转载的文章及图片均来自网络,其原创性以及文中表达的观点和判断不代表本网站。如有问题,请联系客服处理。
发表回复