Wie man PyTorch herunterlädt und installiert
Emily Parker
Product Engineer · Leapcell

Key Takeaways
- PyTorch kann einfach über pip oder conda mit offiziellen Befehlen installiert werden.
- Die Auswahl des richtigen Betriebssystems, Paketmanagers und der richtigen Rechenplattform gewährleistet eine korrekte Installation.
- Die Überprüfung Ihrer Einrichtung mit einem einfachen Python-Test bestätigt die erfolgreiche Installation.
Einführung
PyTorch ist ein führendes Open-Source-Deep-Learning-Framework, das von Meta entwickelt wurde. Es bietet leistungsstarke Tools wie Tensor-Operationen, dynamische Berechnungsgraphen und GPU-Beschleunigung für Aufgaben in den Bereichen Computer Vision, NLP und mehr.
Schritt 1: Wählen Sie Ihre Installationsmethode 🎯
Besuchen Sie die offizielle Seite "Get Started" und wählen Sie die Optionen aus, die zu Ihrem System passen:
- PyTorch-Build: Typischerweise die neueste stabile Version (z. B. 2.7.0).
- Betriebssystem: Linux, macOS oder Windows.
- Paketmanager: Pip oder Conda.
- Sprache: Python (am gebräuchlichsten).
- Rechenplattform: Nur-CPU, CUDA (GPU) oder ROCm (AMD-GPUs).
Kopieren Sie dann den generierten Installationsbefehl.
Schritt 2: Installation über Pip
Stellen Sie sicher, dass Python 3.9+ und pip installiert sind. Für pip:
Nur-CPU:
pip3 install torch torchvision torchaudio
Mit NVIDIA CUDA:
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu<XX>
Ersetzen Sie <XX>
durch Ihre CUDA-Version (z. B. cu118
).
Schritt 3: Installation über Conda
Anaconda vereinfacht die Abhängigkeitsverwaltung:
Nur-CPU:
conda install pytorch torchvision torchaudio cpuonly -c pytorch
Mit CUDA:
conda install pytorch torchvision torchaudio cudatoolkit=<XX> -c pytorch
Schritt 4: Alternative Methoden
-
Manuelle
.whl
-Datei: Direkt vondownload.pytorch.org/whl/cu118
herunterladen und dann installieren mit:pip install torch‑<version>‑<scheme>.whl pip install torchvision torchaudio
Hilfreich, wenn Ihre Verbindung während des Pip-Fetch abbricht.
-
Aus der Quelle erstellen: Klonen Sie das PyTorch-Repo und verwenden Sie
python setup.py develop
, nachdem Sie Voraussetzungen wie CUDA, cuDNN, cmake, ninja installiert haben. -
Docker-Container:
docker pull pytorch/pytorch:latest docker run -it --rm --gpus all pytorch/pytorch:latest bash
Ideal für isolierte Setups.
Schritt 5: Installation überprüfen
Öffnen Sie Python und führen Sie Folgendes aus:
import torch x = torch.rand(5, 3) print(x) print("CUDA available:", torch.cuda.is_available())
Sie sollten einen zufälligen Tensor und eine boolesche Bestätigung für den GPU-Zugriff sehen.
Hilfreiches Video
Hier ist eine klare Demonstration der Installation von PyTorch unter Windows mit Pip:
Install PyTorch 2.0 on Windows | Pip | PyTorch 2.0
Tipps zur Fehlerbehebung
- Virtuelle Umgebungen: Aktivieren Sie immer venv oder conda env vor der Installation. Die Verwendung der falschen Shell kann PyTorch global installieren.
- Große Downloads: Wenn die Pip-Installation wiederholt fehlschlägt, laden Sie die
.whl
-Datei manuell herunter und installieren Sie sie mit Pip, um die Unterstützung für die Wiederaufnahme zu erhalten.
Zusammenfassungstabelle
Schritt | Was ist zu tun |
---|---|
1 | Gehen Sie zur PyTorch-Website → wählen Sie Build, Betriebssystem, Paket, Sprache, Rechenleistung |
2 | Verwenden Sie pip oder conda mit dem generierten Befehl |
3 | Installieren Sie .whl manuell, Docker oder erstellen Sie bei Bedarf aus der Quelle |
4 | Überprüfen Sie die Installation mit einem Tensor- und CUDA-Check |
FAQs
Verwenden Sie die offiziellen Pip- oder Conda-Befehle von der PyTorch-Website.
Importieren Sie torch in Python und führen Sie einen Tensor-Erstellungstest durch.
Laden Sie die PyTorch .whl-Datei manuell herunter und installieren Sie sie mit Pip.
Wir sind Leapcell, Ihre erste Wahl für das Hosten von Backend-Projekten.
Leapcell ist die Serverless-Plattform der nächsten Generation für Webhosting, asynchrone Aufgaben und Redis:
Multi-Language-Unterstützung
- Entwickeln Sie mit Node.js, Python, Go oder Rust.
Stellen Sie unbegrenzt Projekte kostenlos bereit
- zahlen Sie nur für die Nutzung - keine Anfragen, keine Gebühren.
Unschlagbare Kosteneffizienz
- Pay-as-you-go ohne Leerlaufgebühren.
- Beispiel: 25 US-Dollar unterstützen 6,94 Millionen Anfragen bei einer durchschnittlichen Antwortzeit von 60 ms.
Optimierte Entwicklererfahrung
- Intuitive Benutzeroberfläche für mühelose Einrichtung.
- Vollautomatische CI/CD-Pipelines und GitOps-Integration.
- Echtzeitmetriken und -protokollierung für umsetzbare Einblicke.
Mühelose Skalierbarkeit und hohe Leistung
- Automatische Skalierung zur einfachen Bewältigung hoher Parallelität.
- Kein Betriebsaufwand - konzentrieren Sie sich einfach auf den Aufbau.
Erfahren Sie mehr in der Dokumentation!
Folgen Sie uns auf X: @LeapcellHQ