驱动 >=520.61.05
PyTorch 2.1.2 + CUDA 11.8
生成经过验证的生产级 Dockerfile 配置
配置摘要
框架
PyTorch 2.1.2
CUDA 版本
11.8
Python 支持
3.8, 3.9, 3.10, 3.11
最低驱动
>=520.61.05
PyTorch 2.1.2 新特性
- 稳定的 torch.compile 基础
- 自动混合精度训练增强
- 改进的 CUDA 图支持
最佳用途
适用场景
- 渐进式迁移到 PyTorch 2.x
- 混合精度训练流程
- 需要稳定 API 的项目
CUDA 11.8 优势
- T4, V100 等旧 GPU 最佳选择
- 最大兼容性
- 经济高效的推理部署
限制: 缺少新版 CUDA 优化特性
生成 Dockerfile
配置选项
本地 GPU 或 CPU 环境
需要 NVIDIA 驱动版本 >=520.61.05
Dockerfile
1# syntax=docker/dockerfile:12# ^ Required for BuildKit cache mounts and advanced features34# Generated by DockerFit (https://tools.eastondev.com/docker)5# PYTORCH 2.1.2 + CUDA 11.8 | Python 3.116# Multi-stage build for optimized image size78# ==============================================================================9# Stage 1: Builder - Install dependencies and compile10# ==============================================================================11FROM nvidia/cuda:11.8.0-cudnn8-devel-ubuntu22.04 AS builder1213# Build arguments14ARG DEBIAN_FRONTEND=noninteractive1516# Environment variables17ENV PYTHONUNBUFFERED=118ENV PYTHONDONTWRITEBYTECODE=119ENV TORCH_CUDA_ARCH_LIST="7.5;8.0;8.6"2021# Install Python 3.11 from deadsnakes PPA (Ubuntu 22.04)22RUN apt-get update && apt-get install -y --no-install-recommends \23 software-properties-common \24 && add-apt-repository -y ppa:deadsnakes/ppa \25 && apt-get update && apt-get install -y --no-install-recommends \26 python3.11 \27 python3.11-venv \28 python3.11-dev \29 build-essential \30 git31 && rm -rf /var/lib/apt/lists/*3233# Create virtual environment34ENV VIRTUAL_ENV=/opt/venv35RUN python3.11 -m venv $VIRTUAL_ENV36ENV PATH="$VIRTUAL_ENV/bin:$PATH"3738# Upgrade pip39RUN pip install --no-cache-dir --upgrade pip setuptools wheel4041# Install PyTorch with BuildKit cache42RUN --mount=type=cache,target=/root/.cache/pip \43 pip install torch torchvision torchaudio \44 --index-url https://download.pytorch.org/whl/cu1184546# Install project dependencies47COPY requirements.txt .48RUN --mount=type=cache,target=/root/.cache/pip \49 pip install -r requirements.txt5051# ==============================================================================52# Stage 2: Runtime - Minimal production image53# ==============================================================================54FROM nvidia/cuda:11.8.0-cudnn8-runtime-ubuntu22.04 AS runtime5556# Labels57LABEL maintainer="Generated by DockerFit"58LABEL version="2.1.2"59LABEL description="PYTORCH 2.1.2 + CUDA 11.8"6061# Environment variables62ENV PYTHONUNBUFFERED=163ENV PYTHONDONTWRITEBYTECODE=164ENV NVIDIA_VISIBLE_DEVICES=all65ENV NVIDIA_DRIVER_CAPABILITIES=compute,utility6667# Install Python 3.11 runtime from deadsnakes PPA (Ubuntu 22.04)68RUN apt-get update && apt-get install -y --no-install-recommends \69 software-properties-common \70 && add-apt-repository -y ppa:deadsnakes/ppa \71 && apt-get update && apt-get install -y --no-install-recommends \72 python3.11 \73 libgomp174 && apt-get remove -y software-properties-common \75 && apt-get autoremove -y \76 && rm -rf /var/lib/apt/lists/*7778# Create non-root user for security79ARG USERNAME=appuser80ARG USER_UID=100081ARG USER_GID=$USER_UID82RUN groupadd --gid $USER_GID $USERNAME \83 && useradd --uid $USER_UID --gid $USER_GID -m $USERNAME8485# Copy virtual environment from builder86COPY --from=builder --chown=$USERNAME:$USERNAME /opt/venv /opt/venv87ENV VIRTUAL_ENV=/opt/venv88ENV PATH="$VIRTUAL_ENV/bin:$PATH"8990# Set working directory91WORKDIR /app9293# Copy application code94COPY --chown=$USERNAME:$USERNAME . .9596# Switch to non-root user97USER $USERNAME9899# Expose port100EXPOSE 8000101102# Default command103CMD ["python", "main.py"]
🚀 推荐部署
高性能 GPU 与 AI 云服务器
为您的 Docker 容器提供强大的 NVIDIA 算力支持,支持 A100/H100,全球 32 个机房可选。
- 支持 NVIDIA A100/H100 GPU 实例
- 按小时计费,测试成本低至 $0.004/h
- 全球 32+ 数据中心,极低访问延迟
- 一键运行容器化应用与裸金属服务器
常见问题
需要什么版本的 NVIDIA 驱动?
PyTorch 2.1.2 + CUDA 11.8 需要 NVIDIA 驱动版本 >=520.61.05 或更高。
运行 nvidia-smi 检查当前驱动版本。
应该使用哪个 Python 版本?
PyTorch 2.1.2 支持 Python 版本: 3.8, 3.9, 3.10, 3.11。
推荐使用 Python 3.10 以获得最佳兼容性。
如何验证容器中的 GPU 访问?
构建镜像后运行:
docker run --gpus all your-image python -c "import torch; print(torch.cuda.is_available())"
如果 GPU 可访问,将输出 True。