Wie man PyTorch mit Conda installiert
James Reed
Infrastructure Engineer · Leapcell

Key Takeaways
- Verwenden Sie Conda für eine reibungslosere PyTorch-Installation und ein besseres Abhängigkeitsmanagement
- Befolgen Sie immer die offizielle PyTorch-Seite für die neuesten, korrekten Installationsbefehle
- Überprüfen Sie die Installation, um sicherzustellen, dass PyTorch und die GPU-Unterstützung funktionieren
Einführung
PyTorch ist eine beliebte Open-Source-Bibliothek für Deep Learning. Während pip
es installieren kann, vereinfacht Conda die Handhabung von Abhängigkeiten – ideal für diejenigen, die die Anaconda-Distribution verwenden.
1. Wählen Sie Ihre Umgebung
Beginnen Sie mit dem Erstellen und Aktivieren einer sauberen Conda-Umgebung:
conda create --name pytorch_env python=3.8 conda activate pytorch_env
Die Verwendung von Umgebungen gewährleistet die Unabhängigkeit von Ihrem System-Python.
2. Wählen Sie Build-Optionen auf der offiziellen Seite
Besuchen Sie die offizielle PyTorch-Seite "Get Started" und konfigurieren Sie die Optionen:
-
Package: Conda
-
Language: Python
-
Compute Platform: Wählen Sie eine der folgenden Optionen:
- cpuonly – Wenn Sie keine GPU-Unterstützung benötigen
- CUDA x.x – Für NVIDIA GPU-Benutzer (z. B. CUDA 11.8 oder 12.1)
- ROCm – Für AMD GPU-Benutzer
Die Seite stellt dann den exakten conda install
-Befehl bereit.
3. Führen Sie den Conda Install-Befehl aus
Kopieren Sie den von der Seite vorgeschlagenen Befehl. Hier sind typische Beispiele für PyTorch Version ≥ 2.5:
-
CPU-only:
conda install pytorch torchvision torchaudio cpuonly -c pytorch
-
CUDA 11.8 GPU-Unterstützung:
conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia
Diese Befehle ziehen aus dem pytorch
-Kanal (und nvidia
, wenn GPUs verwendet werden).
4. Überprüfen Sie die Installation
Testen Sie nach der Installation, ob PyTorch und die GPU-Unterstützung funktionieren:
import torch print(torch.__version__) # Check for GPU availability: print(torch.cuda.is_available())
Erwartete Ausgabe:
- Eine Version wie
2.5.1
True
, wenn die CUDA-Unterstützung korrekt aktiviert ist.
5. Tipps zur Fehlerbehebung
- Fehlende Pakete: Wenn Sie “PackagesNotFoundError” erhalten, stellen Sie sicher, dass Sie
-c pytorch
(und optional-c nvidia
) verwenden. - Verwenden Sie offizielle Befehle: Vermeiden Sie von der Community gepflegte Kanäle wie
conda-forge
für GPU-Builds – halten Sie sich an die Empfehlungen der offiziellen Seite. - CUDA-Versionskonflikt: Richten Sie
pytorch-cuda=
an Ihrem installierten CUDA-Toolkit aus; inkompatible Versionen können zu Importfehlern führen.
6. Optional: Bauen aus der Quelle
Wenn Sie die absolut neueste Entwicklungsversion benötigen, bauen Sie aus der Quelle:
-
Installieren Sie Entwicklertools (CUDA/ROCm, C++-Compiler).
-
Klonen Sie das PyTorch-Repo.
-
Ausführen:
python setup.py install
Dies ist für fortgeschrittene Benutzer; Mainstream-Benutzer sollten die Standard-Conda-Installation bevorzugen.
7. Zusammenfassungstabelle
Szenario | Beispielbefehl |
---|---|
CPU-only | conda install pytorch torchvision torchaudio cpuonly -c pytorch |
GPU mit CUDA 11.8 | conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia |
Fazit
Die Verwendung von Conda zur Installation von PyTorch ist zuverlässig und bequem. Durch die Verwendung des offiziellen Selektors auf der PyTorch-Website können Sie sicherstellen, dass die korrekte Version und die korrekten Abhängigkeiten installiert sind – egal, ob Sie auf der CPU oder der GPU laufen.
FAQs
Use the command provided on the official PyTorch website.
Run print(torch.cuda.is_available())
in Python after installation.
Check you are using the correct channels: -c pytorch
and -c nvidia
for GPU.
We are Leapcell, your top choice for hosting backend projects.
Leapcell is the Next-Gen Serverless Platform for Web Hosting, Async Tasks, and Redis:
Multi-Language Support
- Develop with Node.js, Python, Go, or Rust.
Deploy unlimited projects for free
- pay only for usage — no requests, no charges.
Unbeatable Cost Efficiency
- Pay-as-you-go with no idle charges.
- Example: $25 supports 6.94M requests at a 60ms average response time.
Streamlined Developer Experience
- Intuitive UI for effortless setup.
- Fully automated CI/CD pipelines and GitOps integration.
- Real-time metrics and logging for actionable insights.
Effortless Scalability and High Performance
- Auto-scaling to handle high concurrency with ease.
- Zero operational overhead — just focus on building.
Explore more in the Documentation!
Follow us on X: @LeapcellHQ