Skalierbare KI/ML-Infrastrukturen
Liebel, Oliver
| Autor: | Liebel, Oliver |
|---|---|
| Themengebiete: | Cloud Computing EDV / Theorie / Allgemeines Informatik Intelligenz / Künstliche Intelligenz KI Künstliche Intelligenz - AI |
| Veröffentlichungsdatum: | 05.01.2023 |
| EAN: | 9783836273930 |
| Sprache: | Deutsch |
| Seitenzahl: | 468 |
| Produktart: | Gebunden |
| Verlag: | Rheinwerk Verlag GmbH |
| Untertitel: | NVIDIA-GPUs in Container-Systemen - Expertenwissen zur Evaluierung, Automatisierung und für die Praxis |
Produktinformationen "Skalierbare KI/ML-Infrastrukturen"
Wie Sie abseits der Hypes resiliente, hochautomatisierte und autoskalierbare Systeme für Produktiv-Workloads aufbauen, zeigt Ihnen Oliver Liebel in diesem Wegweiser. Sie erfahren, wie Sie NVIDIAs Datacenter-GPUs nahtlos in Hypervisoren und moderne Container-Infrastrukturen integrieren, sie Operator-gestützt mit Kubernetes bzw. OpenShift verwalten und daraus praxistaugliche Setups machen.Betrachtet wird der ganze Infrastruktur-Stack: Von On-Premises-Installationen auf vSphere oder Cloud-Setups auf GCP und AWS über Plattform-Automation per IaaS/IaC sowie den GPU- und Network-Operatoren bis hin zu einem Ausblick auf AI End-to-End-Tool-Stacks. Aus dem Inhalt: KI/ML: Grundlagen und Use Cases Infrastruktur planen: On-Premises, Cloud oder Hybrid? Technischer Background: KI/ML mit NVIDIA-GPUs GPU-Modi: Passthrough-MIG vs. MIG-backed vGPU vs. vGPU NVIDIA-GPUs auf vSphere On-Prem implementieren NVIDIA AI Enterprise KI/ML-Cluster mit Kubernetes und OpenShift GPU-spezifische Operatoren GPU-Cluster mit OpenShift Von CI/CD über GitOps zu MLOps ML-Pipelines & AI End-to-End
Sie möchten lieber vor Ort einkaufen?
Sie haben Fragen zu diesem oder anderen Produkten oder möchten einfach gerne analog im Laden stöbern? Wir sind gerne für Sie da und beraten Sie auch telefonisch.
Juristische Fachbuchhandlung
Georg Blendl
Parcellistraße 5 (Maxburg)
8033 München
Montag - Freitag: 8:15 -18 Uhr
Samstags geschlossen