Nvidia Fundamentals of Accelerated Computing with CUDA Python (FACCP)
Classroom Schulung | Deutsch | Anspruch
Schulungsdauer: 1 Tag
Ziele
During this one-day training "Fundamentals of Accelerated Computing with CUDA Python (FACCP)", you will learn how to use Numba, the just-in-time (JIT) compiler for Python with specialized type adaptation, to accelerate Python programs for execution on massively parallel NVIDIA GPUs. You will discover how to use Numba to compile CUDA kernels from NumPy universal functions (ufuncs), create and launch custom CUDA kernels, and apply key GPU memory management techniques. Upon completion of the training, you will be able to use Numba to compile and execute CUDA kernels to accelerate your Python applications on NVIDIA GPUs. Please note that once a booking has been confirmed, it is non-refundable and cannot be canceled, regardless of attendance.
Zielgruppe
- data scientists
- engineers
- researchers
Voraussetzungen
Intermediate experience writing CUDA C/C++ applications.
Suggested materials to satisfy the prerequisites:
- Fundamentals of Accelerated Computing with CUDA C/C++
- Accelerating CUDA C++ Applications with Multiple GPUs
- Accelerating CUDA C++ Applications with Concurrent Streams
- Scaling Workloads Across Multiple GPUs with CUDA C++
Agenda
Introduction
- Lernen Sie den Kursleiter kennen.
- Erstellen Sie ein Konto unter NVIDIA Learn.
Introduction to CUDA Python with Numba
- Erste Schritte mit dem Numba-Compiler und CUDA-Programmierung in Python.
- Verwenden Sie Numba-Dekoratoren, um numerische Python-Funktionen für die GPU zu beschleunigen.
- Optimieren Sie Speicherübertragungen zwischen Host und Gerät (host-to-device und device-to-host)
Custom CUDA Kernels in Python with Numba
- Erlernen Sie die parallele Thread-Hierarchie von CUDA und erweitern Sie die Möglichkeiten paralleler Programme.
- Starten Sie massiv parallele benutzerdefinierte CUDA-Kernels auf der GPU.
- Nutzen Sie CUDA-atomare Operationen, um Race Conditions während der parallelen Ausführung zu vermeiden.
Multidimensional Grids and Shared Memory for CUDA Python with Numba
- Erstellen Sie mehrdimensionale Grids und arbeiten Sie parallel mit 2D-Matrizen.
- Nutzen Sie shared memory auf dem Gerät, um Speicher-Coalescing beim Umformen von 2D-Matrizen zu fördern.
Final Review
- Wiederholen Sie die wichtigsten Lerninhalte und klären Sie offene Fragen.
- Schließen Sie die Bewertung ab, um ein Zertifikat zu erhalten.
- Nehmen Sie an der Workshop-Umfrage teil.
Ziele
During this one-day training "Fundamentals of Accelerated Computing with CUDA Python (FACCP)", you will learn how to use Numba, the just-in-time (JIT) compiler for Python with specialized type adaptation, to accelerate Python programs for execution on massively parallel NVIDIA GPUs. You will discover how to use Numba to compile CUDA kernels from NumPy universal functions (ufuncs), create and launch custom CUDA kernels, and apply key GPU memory management techniques. Upon completion of the training, you will be able to use Numba to compile and execute CUDA kernels to accelerate your Python applications on NVIDIA GPUs. Please note that once a booking has been confirmed, it is non-refundable and cannot be canceled, regardless of attendance.
Zielgruppe
- data scientists
- engineers
- researchers
Voraussetzungen
Intermediate experience writing CUDA C/C++ applications.
Suggested materials to satisfy the prerequisites:
- Fundamentals of Accelerated Computing with CUDA C/C++
- Accelerating CUDA C++ Applications with Multiple GPUs
- Accelerating CUDA C++ Applications with Concurrent Streams
- Scaling Workloads Across Multiple GPUs with CUDA C++
Agenda
Introduction
- Lernen Sie den Kursleiter kennen.
- Erstellen Sie ein Konto unter NVIDIA Learn.
Introduction to CUDA Python with Numba
- Erste Schritte mit dem Numba-Compiler und CUDA-Programmierung in Python.
- Verwenden Sie Numba-Dekoratoren, um numerische Python-Funktionen für die GPU zu beschleunigen.
- Optimieren Sie Speicherübertragungen zwischen Host und Gerät (host-to-device und device-to-host)
Custom CUDA Kernels in Python with Numba
- Erlernen Sie die parallele Thread-Hierarchie von CUDA und erweitern Sie die Möglichkeiten paralleler Programme.
- Starten Sie massiv parallele benutzerdefinierte CUDA-Kernels auf der GPU.
- Nutzen Sie CUDA-atomare Operationen, um Race Conditions während der parallelen Ausführung zu vermeiden.
Multidimensional Grids and Shared Memory for CUDA Python with Numba
- Erstellen Sie mehrdimensionale Grids und arbeiten Sie parallel mit 2D-Matrizen.
- Nutzen Sie shared memory auf dem Gerät, um Speicher-Coalescing beim Umformen von 2D-Matrizen zu fördern.
Final Review
- Wiederholen Sie die wichtigsten Lerninhalte und klären Sie offene Fragen.
- Schließen Sie die Bewertung ab, um ein Zertifikat zu erhalten.
- Nehmen Sie an der Workshop-Umfrage teil.