复制这个token码到http://127.0.0.1:8888顶部的框中即可

6. 测试GPU 加速的 PyTorch Jupyter Notebook

以下为测试代码
若device为cuda则部署完成

import torch

def test_cuda():
    print("=== PyTorch GPU 测试 ===")
    
    # 检查 CUDA 是否可用
    cuda_available = torch.cuda.is_available()
    print(f"CUDA 可用: {cuda_available}")
    
    if not cuda_available:
        print("CUDA 不可用。请确保已正确安装 NVIDIA 驱动和 CUDA 工具包,并且 Docker 容器已启用 GPU 支持。")
        return
    
    # 获取当前 GPU 设备数量
    num_gpus = torch.cuda.device_count()
    print(f"检测到 GPU 数量: {num_gpus}")
    
    # 打印每个 GPU 的名称
    for i in range(num_gpus):
        gpu_name = torch.cuda.get_device_name(i)
        print(f"GPU {i}: {gpu_name}")
    
    # 选择第一个 GPU 进行测试
    device = torch.device("cuda:0")
    print(f"当前使用的设备: {device}")
    
    # 创建一个随机张量并移动到 GPU
    tensor_size = (1000, 1000)
    print(f"在 {device} 上创建一个随机张量,大小为 {tensor_size}...")
    tensor = torch.randn(tensor_size, device=device)
    
    # 执行简单的矩阵乘法
    print("执行矩阵乘法运算...")
    result = torch.mm(tensor, tensor)
    
    # 检查结果是否在 GPU 上
    print(f"结果张量所在设备: {result.device}")
    
    # 打印部分结果
    print("运算完成。以下是结果张量的部分内容:")
    print(result[:5, :5])  # 打印前5行5列

if __name__ == "__main__":
    test_cuda()

 class="hljs-button signin active" data-title="登录复制" data-report-click="{"spm":"1001.2101.3001.4334"}">
class="hide-preCode-box"> >>
注:本文转载自blog.csdn.net的explosion216的文章"https://blog.csdn.net/m0_74408076/article/details/144269301"。版权归原作者所有,此博客不拥有其著作权,亦不承担相应法律责任。如有侵权,请联系我们删除。
复制链接

评论记录:

未查询到任何数据!