Zum Hauptinhalt springen Zur Suche springen Zur Hauptnavigation springen
Produktgalerie überspringen

Das könnte Sie auch interessieren:

MLOps - Kernkonzepte im Überblick
Machine-Learning-Prozesse im Unternehmen nachhaltig automatisieren und skalierenMachine-Learning-Modelle zu entwickeln ist das eine, sie im Produktivbetrieb effizient einzusetzen, eine ebenfalls nicht zu unterschätzende Herausforderung – so die Erfahrung vieler Unternehmen. Dieses Buch zeigt Ihnen, wie Sie mithilfe durchdachter MLOps-Strategien eine stabile DevOps-Umgebung für Ihre ML-Anwendungen aufbauen, Ihre Modelle kontinuierlich verbessern und langfristig warten.Das Buch erläutert MLOps-Schlüsselkonzepte, mit denen Data Scientists und Data Engineers ML-Pipelines und -Workflows optimieren können. Anhand von Fallbeispielen aus der ganzen Welt geben neun ML-Experten praxiserprobte Hilfestellungen zu den fünf Schritten des Modelllebenszyklus – Entwicklung, Preproduction, Deployment, Monitoring und Governance. Sie erfahren auf diese Weise, wie robuste MLOps-Prozesse umfassend in den ML-Produktworkflow integriert werden können.
34,90 €*
Artikel-Beschreibung

Evaluieren, Automatisieren, Praxis 

Moderne KI/ML-Modelle brauchen leistungsstarke Infrastrukturen. Wie Sie abseits der Hypes resiliente, hochautomatisierte und autoskalierbare Systeme für Produktiv-Workloads aufbauen, zeigt Ihnen Oliver Liebel in diesem Wegweiser. Sie erfahren, wie Sie NVIDIAs Datacenter-GPUs nahtlos in Hypervisoren und moderne Container-Infrastrukturen integrieren, sie Operator-gestützt mit Kubernetes bzw. OpenShift verwalten und daraus praxistaugliche Setups machen, die im Unternehmenseinsatz und echten Business Cases bestehen.


Betrachtet wird der ganze Infrastruktur-Stack, mit Fokus auf effizienter Vollautomation: Von On-Premises-Installationen auf vSphere oder Cloud-Setups auf GCP und AWS über Plattform-Automation per IaaS/IaC sowie den GPU- und Network-Operatoren bis hin zu einem Ausblick auf AI End-to-End-Tool-Stacks.


Aus dem Inhalt: 

  • KI/ML: Grundlagen und Use Cases
  • Infrastruktur planen: On-Premises, Cloud oder Hybrid?
  • Technischer Background: KI/ML mit NVIDIA-GPUs
  • GPU-Modi: Passthrough-MIG vs. MIG-backed vGPU vs. vGPU
  • NVIDIA-GPUs auf vSphere On-Prem implementieren
  • NVIDIA AI Enterprise
  • KI/ML-Cluster mit Kubernetes und OpenShift
  • GPU-spezifische Operatoren
  • GPU-Cluster mit OpenShift
  • Von CI/CD über GitOps zu MLOps
  • ML-Pipelines & AI End-to-End


Autor:

Dipl.-Ing. Oliver Liebel ist LPI-zertifizierter Linux-Enterprise-Experte, Partner von Red Hat und SUSE und steht in engem Kontakt mit NVIDIAs EGX-Abteilung.


Artikel-Details
Anbieter:
Rheinwerk Verlag
Autor:
Oliver Liebel
Artikelnummer:
9783836273930
Veröffentlicht:
05.01.23
Seitenanzahl:
468