Large Language Models selbst programmieren
Mit Python und PyTorch ein eigenes LLM entwickeln
- Der Bestseller aus den USA jetzt in deutscher Übersetzung der ideale Einstieg in das Thema Large Language Models
- Auf dem eigenen Laptop entwickeln, trainieren und tunen Sie ein LLM, das mit GPT-2 vergleichbar ist, und bekommen dadurch einen tiefen Einblick in die Funktionsweise von LLMs
- Bestsellerautor Sebastian Raschka erklärt die Grundlagen und die Vorgehensweise Schritt für Schritt und sehr gut verständlich
LLMs selbst erstellen und von Grund auf verstehen!
Der Bestseller aus den USA ist jetzt endlich in deutscher Übersetzung erhältlich und bietet den idealen Einstieg in die Welt der Large Language Models (LLMs). Auf dem eigenen Laptop entwickeln, trainieren und optimieren Sie ein LLM, das mit GPT-2 vergleichbar ist – ganz ohne vorgefertigte Bibliotheken. Bestsellerautor Sebastian Raschka erklärt die Grundlagen und Vorgehensweise Schritt für Schritt und leicht verständlich.
Das Buch nimmt Sie mit auf eine spannende Reise in die Blackbox der generativen KI: Sie programmieren ein LLM-Basismodell, bauen daraus einen Textklassifikator und schließlich einen eigenen Chatbot, den Sie als persönlichen KI-Assistenten nutzen können. Dabei lernen Sie nicht nur die technischen Details kennen, sondern auch, wie Sie Datensätze vorbereiten, Modelle mit eigenen Daten verfeinern und mithilfe von menschlichem Feedback verbessern. Ein praxisnaher Leitfaden für alle, die wirklich verstehen wollen, wie LLMs funktionieren – weil sie ihren eigenen gebaut haben.
Über den Autor:
Sebastian Raschka, PhD, arbeitet sehr mehr als einem Jahrzehnt im Bereich Machine Learning und KI. Er ist Staff Research Engineer bei Lightning AI, wo er LLM-Forschung betreibt und Open-Source-Software entwickelt. Sebastian ist nicht nur Forscher, sondern hat auch eine große Leidenschaft für die Vermittlung von Wissen. Bekannt ist er für seine Bestseller zu Machine Learning mit Python und seine Beiträge zu Open Source.
Richtet sich an:
- Data Scientists
- Python-Programmierer*innen, die sich tiefer in die Funktionsweise von LLMs einarbeiten möchten und ML-Grundkenntnisse haben