Datenbanken
Einstieg in SQL (3. Auflage)
Die 3. aktualisierte und überarbeitete Auflage. Jetzt vorbestellen!Den leichten Einstieg in SQL und die Modellierung von Daten finden Sie hier! Schritt für Schritt führt Sie dieser Leitfaden durch die SQL-Kommandos und macht Sie mit allen wichtigen Befehlen vertraut. Auf diesem Fundament aufbauend lernen Sie, wie Sie Ihre Daten richtig modellieren, verknüpfen und bearbeiten. Mit diesen Anleitungen wird die Datenmodellierung mit SQL einfach und unkompliziert: So schaffen Sie Ordnung und sorgen für performante Abfragen.Aus dem Inhalt: Eine kurze Einführung in Tabellen und SQLGrundfunktionen der Tabellenabfrage: SELECT und WHEREZeilen einfügen, ändern und löschen: INSERT, UPDATE und DELETETabellen anlegen: CREATE TABLEMengenoperationenDatenbanken modellieren und optimierenDatenmodelle in Tabellen überführenBeziehungen zwischen Tabellen: JOINsTransaktionenSkalarfunktionen und BedingungslogikSpaltenwerte gruppieren: GROUP BYAbfragen in virtuellen Tabellen speichern: VIEWsLeseprobe (PDF-Link)Autor: Michael Laube arbeitet schon seit vielen Jahren mit relationalen Datenbanken und SQL. Mit dieser Erfahrung aus der Praxis zeigt er Ihnen, was alles in der Abfragesprache steckt und wie Sie Probleme bei der Datenbankentwicklung elegant lösen.
Werde ein Data Head
Data Science, Machine Learning und Statistik verstehen und datenintensive Jobs meistern. Fundierte Datenkompetenz für den Arbeitsplatz entwickeln – auch ohne Programmierkenntnisse.Dieses Buch ist ein umfassender Leitfaden für das Verständnis von Datenanalyse am Arbeitsplatz. Alex Gutman und Jordan Goldmeier lüften den Vorhang der Data Science und geben Ihnen die Sprache und die Werkzeuge an die Hand, die Sie benötigen, um informiert mitreden zu können, kritisch über die Auswertung von Daten zu sprechen und die richtigen Fragen zu stellen. Dank dieses Buchs kann jede:r ein Data Head werden und aktiv an Data Science, Statistik und Machine Learning teilnehmen – auch ohne einen technischen Background.In diesem unterhaltsamen und gut verständlichen Buch werden die aktuellen, zum Teil komplexen Data-Science- und Statistik-Konzepte anhand einfacher Beispiele und Analogien veranschaulicht. Sie lernen statistisches Denken, das Vermeiden häufiger Fallstricke bei der Interpretation von Daten, und Sie erfahren, was es mit Machine Learning, Textanalyse, Deep Learning und künstlicher Intelligenz wirklich auf sich hat. Wenn Sie in Ihrem Unternehmen konkret mit Daten arbeiten, Führungskraft oder angehender Data Scientist sind, zeigt Ihnen dieses Buch, wie Sie ein echter Data Head werden.Die Autoren:Alex J. Gutman ist Data Scientist, Unternehmenstrainer und Accredited Professional Statistician®. Sein beruflicher Schwerpunkt liegt auf statistischem und maschinellem Lernen, und er verfügt über umfangreiche Erfahrungen als Data Scientist für das US-Verteidigungsministerium und zwei Fortune-50-Unternehmen. Seinen Doktortitel in angewandter Mathematik erhielt er vom Air Force Institute of Technology.Jordan Goldmeier ist ein international anerkannter Analytik- und Datenvisualisierungs-Experte, Autor und Redner. Er wurde sieben Mal mit dem Microsoft Most Valuable Professional Award ausgezeichnet und hat Mitglieder von Pentagon und Fortune-500-Unternehmen in Analytik unterrichtet. Er ist Autor der Bücher Advanced Excel Essentials und Dashboards for Excel.
Data Science mit AWS
End-to-End-Pipelines für Continuous Machine Learning implementieren Mit diesem Buch lernen Machine-Learning- und KI-Praktiker:innen, wie sie erfolgreich Data-Science-Projekte mit Amazon Web Services erstellen und in den produktiven Einsatz bringen. Das praxisorientierte Handbuch stellt den KI- und Machine-Learning-Stack von Amazon vor, der Data Science, Data Engineering und Anwendungsentwicklung umfasst. Chris Fregly und Antje Barth zeigen Ihnen, wie Sie ML-Pipelines in der Cloud anlegen und die Ergebnisse innerhalb von Minuten in Anwendungen integrieren. Sie erfahren zudem, wie Sie Kosten senken können und die Performance Ihrer Anwendungen optimieren.Aus dem Inhalt: Wenden Sie den KI- und ML-Stack von Amazon auf reale Use Cases an, insbesondere aus den Bereichen Natural Language Processing, Computer Vision, Betrugserkennung oder dialogfähige GeräteNutzen Sie AutoML, um sich wiederholende Aufgaben mit Amazon SageMaker Autopilot zu automatisierenTauchen Sie tief in den kompletten Lebenszyklus einer NLP-Modellentwicklung auf BERT-Basis ein und lernen Sie dabei, wie Sie Daten einlesen und analysieren sowie Modelle trainieren und deployenBündeln Sie alle Teilschritte eines Workflows zu einer wiederverwendbaren MLOps-PipelineVerwenden Sie Amazon Kinesis und Amazon Managed Streaming for Apache Kafka für Echtzeit-ML, Anomalieerkennung und Streaming-AnalysenProfitieren Sie von bewährten Sicherheitspraktiken für das Identitäts- und Zugriffsmanagement, die Authentifizierung und AutorisierungAutoren: Chris Fregly ist Principal Developer Advocate für KI und Machine Learning bei AWS in San Francisco. Er spricht regelmäßig auf Konferenzen auf der ganzen Welt zu KI und Machine Learning, unter anderem bei der O'Reilly AI Superstream Series. Zuvor hat er PipelineAI gegründet, war Solutions Engineer bei Databricks und Software Engineer bei Netflix. In den letzten zehn Jahren hat er sich auf den Aufbau von KI- und Machine-Learning-Pipelines mit AWS konzentriert. Antje Barth ist Senior Developer Advocate für KI und Machine Learning bei AWS in Düsseldorf. Sie ist Mitbegründerin der Düsseldorfer Gruppe von „Women in Big Data“ und spricht häufig auf KI- und Machine Learning-Konferenzen und Meetups auf der ganzen Welt. Außerdem leitet und kuratiert sie Inhalte für O'Reilly-AI-Superstream-Veranstaltungen. Zuvor war sie als Software Engineer bei Cisco und MapR tätig und beschäftigte sich mit Infrastrukturen für Rechenzentren, Big Data und KI-Anwendungen.Zielgruppe: Data ScientistsData EngineersMachine Learning Engineers
C# und .NET 6 - Grundlagen, Profiwissen und Rezepte
Dieser komplett überarbeitete Klassiker der C#-/.NET-Programmierung bietet Ihnen Know-how und zahlreiche Rezepte, mit denen Sie häufig auftretende Probleme meistern. Einsteiger erhalten ein umfangreiches Tutorial zu den Grundlagen der C# 10-Programmierung mit Visual Studio 2022, dem Profi liefert es fortgeschrittene Programmiertechniken zu allen wesentlichen Einsatzgebieten der Programmierung mit .NET 6. Zum sofortigen Ausprobieren finden Sie am Ende eines jeden Kapitels hochwertige Lösungen für nahezu jedes Problem. Das Buch gliedert sich in einen Grundlagenteil zur Programmierung, eine Einführung in die Desktop-Programmierung (WPF, MAUI (Multi-platform App UI), einen Technologieteil zu fortgeschrittenen Themen sowie einen komplett neuen Teil zur Web-Programmierung (ASP.NET Core, MVC, Razor, Web-API, Blazor). Es ist der ideale Begleiter für Ihre tägliche Arbeit und zugleich – dank der erfrischenden und unterhaltsamen Darstellung – eine spannende Lektüre, die Lust macht, Projekte auch in der Freizeit umzusetzen.Aus dem Inhalt:Grundlagen der SpracheOOP-KonzepteArrays, Strings, FunktionenEinführung in LINQNeuerungen in C#Einführung in WPFWPF Controls, WPF-DatenbindungAsynchrone Programmierung & Task Parallel LibraryDebugging, Fehlersuche und -behandlungEntity Framework CoreWebanwendungen und APIs mit ASP.NET CoreSingle-Page Applications (SPAs mit BlazorAusblick auf .NET MAUI Leseprobe (PDF)Autoren: Jürgen Kotz arbeitet seit über 20 Jahren als freiberuflicher Trainer, Berater, Entwickler und Autor. Mit .NET beschäftigt er sich seit der ersten Beta-Version. Mit seiner Firma PrimeTime Software in München entwickelt er .NET-Projekte und führt Schulungen in diesem Umfeld durch. Seine Hauptthemen sind dabei die Entwicklung von REST- bzw. SOAP-basierten Services und der Datenzugriff mittels Entity Framework. Darüber hinaus hat er zahlreiche Fachbücher und -artikel geschrieben. Christian Wenz arbeitet als Berater, Trainer und Autor mit Schwerpunkt auf Webtechnologien und ist Autor oder Co-Autor von über 100 Computerbüchern. Er schreibt regelmäßig Beiträge für verschiedene IT-Magazine und hält Vorträge auf Konferenzen rund um den Globus. In seiner täglichen Arbeit ist er einer der Gründer der Webagentur Arrabiata Solutions mit Büros in München und London.
Agilität für IT-Governance, Prüfung & Revision
Agilität und der Einsatz agiler Methoden sind heute nicht mehr nur auf IT-Projekte begrenzt, sondern prägen zunehmend ganze Organisationen. Dieses Buch zeigt auf, wie sich IT-Governance, Prüfung und Revision erfolgreich dem durch Agilität ausgelösten Wandel stellen können und wie sich der Umgang mit den Kernthemen Risiko und Unsicherheit verändert. Zum einen werden Ansätze für eine agile IT-Governance und eine agile Prüfung und Revision beschrieben, indem sie sich agile Werte und Vorgehensweisen zu eigen machen. Zum anderen werden IT-Governance, Prüfung und Revision befähigt, agile Projekte angemessen steuern und wirksam prüfen zu können. Zielgruppe:IT-Leiter*innen und -FührungskräfteIT-Governance-Verantwortliche(IT-)Prüfer*innen und Revisor*innenRisikomanager*innen und Compliance-BeauftragteDatensicherheits- und Informationssicherheitsbeauftragte Autor: Urs Andelfinger ist Professor an der Hochschule Darmstadt und unterrichtet Wirtschaftsinformatik und Softwaretechnik. Er ist CMMI-Instruktor sowie SAFe Agilist und begleitet Organisationen in (nicht nur agilen) IT-Projekten sowie bei Digitalisierungsvorhaben. Petra Haferkorn ist Regierungsdirektorin bei der BaFin und prüft die Governance von Banken und Versicherungen vor Ort. Seit zwei Jahren leitet sie IT-Prüfungen mit den Schwerpunkten IT-Governance und Informationssicherheitsmanagement. Daneben ist sie als Dozentin an der Frankfurt School of Finance and Management in der Executive Education tätig.
Datenvisualisierung mit Power BI
Visualisieren Sie Ihre Daten schnell und ausdrucksstark mit Power BI, um praktisch umsetzbare Ergebnisse zu erhalten. Alexander Loth und Peter Vogel zeigen Ihnen Schritt für Schritt, wie Sie ganz einfach visuelle Analysen erstellen und so selbst komplexe Datenstrukturen verstehen sowie gewonnene Erkenntnisse effektiv kommunizieren können.Das Buch richtet sich an die folgenden Zielgruppen:Alle, die Zugang zu Daten haben und diese verstehen möchtenFührungskräfte, die Entscheidungen auf Grundlage von Daten treffennAnalysten und Entwickler, die Visualisierungen und Dashboards erstellen angehende Data ScientistsZum Verständnis dieses Buches und dem Erwerb von Power BI Kenntnissen sind weder besondere mathematische Fähigkeiten noch Programmiererfahrung nötig. Es eignet sich daher auch für Einsteiger und Anwender, die sich dem Thema Datenvisualisierung und -analysepraxisbezogen nähern möchten, ohne ausschweifende theoretische Abhandlungen. Die grundlegenden Funktionen von Power BI werden Schritt für Schritt erläutert und Sie lernen, welche Visualisierungsmöglichkeiten wann sinnvoll sind. Die Autoren zeigen Fallbeispiele auf, die weit über eine »Standardanalyse« hinausreichen und gehen auf Funktionen ein, die selbst erfahrenen Nutzern oft nicht hinlänglich bekannt sind. Sie geben Ihnen außerdem wertvolle Hinweise und Tipps, die das Arbeiten mit Power BI merklich erleichtern. So können Sie zukünftig Ihre eigenen Daten bestmöglich visualisieren und analysieren.Aus dem Inhalt:Einführung und erste Schritte in Power BIDatenquellen in Power BI anlegenVisualisierungen erstellenAggregationen, Berechnungen und ParameterDimensionsübergreifende Berechnungen mit DAX-AusdrückenMit Karten zu weitreichenden ErkenntnissenTiefgehende Analysen mit Trends, Prognosen, Clustern und VerteilungInteraktive DashboardsAnalysen teilenLeseprobe (PDF-Link)
Design Patterns für Machine Learning
Entwurfsmuster für Datenaufbereitung Modellbildung und MLOpsDie Design Patterns in diesem Buch zeigen praxiserprobte Lösungen für wiederkehrende Aufgaben im Machine Learning. Die Autor:innen – ML-Experten bei Google – beschreiben Methoden, die Data Scientists helfen, typische Probleme im gesamten ML-Prozess zu bewältigen. Die Entwurfsmuster verdichten die Erfahrungen von Hunderten von Expert:innen zu klar strukturierten, zugänglichen Best Practices. Das Buch bietet detaillierte Erläuterungen zu 30 Mustern für die Daten- und Problemdarstellung, Operationalisierung, Wiederholbarkeit, Reproduzierbarkeit, Flexibilität, Erklärbarkeit und Fairness. Zu jedem Muster erhält man eine Beschreibung des Problems, eine Vielzahl möglicher Lösungen sowie Empfehlungen, welche Technik die beste für Problemstellungen ist. Aus dem Inhalt:Herausforderungen beim Trainieren, Bewerten und Deployen von ML-Modellen erkennen und überwindenDaten für verschiedene ML-Modelltypen mit Einbettungen, Feature Crosses und mehr darstellenden richtigen Modelltyp für bestimmte Fragestellungen auswähleneine robuste Trainingsschleife mit Checkpoints, Verteilungsstrategie und Hyperparameter-Tuning erstellenskalierbare ML-Systeme deployen, die bei erneutem Training aktuelle Daten berücksichtigenModellvorhersagen für Stakeholder interpretierenModellgenauigkeit, Reproduzierbarkeit, Resilienz und Fairness verbessernAutoren:Valliappa Lakshmanan ist Global Head für Datenanalyse und KI-Lösungen bei Google Cloud. Sara Robinson ist Developer Advocate im Google-Cloud-Team, sie ist spezialisiert auf Machine Learning. Michael Munn ist ML Solutions Engineer bei Google. Er unterstützt Kunden bei der Entwicklung, Implementierung und Bereitstellung von Machine-Learning-Modellen.
Architekturen für BI & Analytics
Konzepte, Technologien und Anwendung - Erstauflage aus November 2021.Sowohl regulatorische Vorgaben als auch gesteigerte Anforderungen seitens der Fachanwender haben in den letzten Jahren zu immer komplexeren Business-Intelligence- und Analytics-Landschaften geführt, die es zu entwickeln und betreiben gilt. So setzt sich eine heute übliche Architektur aus zahlreichen Einzelkomponenten zusammen, deren Zusammenspiel und funktionale Abdeckung als wesentlicher Erfolgsfaktor für zugehörige BIA-Initiativen zu werten ist.»Architekturen für Business Intelligence & Analytics« setzt sich das Ziel, die derzeit gebräuchlichen Architekturmuster zu beschreiben und dabei einen Überblick über die aktuell verwendeten Technologien zu liefern. Dabei werden nicht nur die architektonischen Frameworks der großen Produktanbieter aufgegriffen, sondern darüber hinaus Lösungen für konkrete Anwendungsfälle präsentiert. Im Einzelnen werden behandelt:Anforderungen an eine ganzheitliche BIA-ArchitekturArchitekturen und Technologien für Data LakesDatenzugriffsstrategien für AnalyticsEnterprise Application IntegrationCloud-Konzepte und -ArchitekturenEinfluss regulatorischer AnforderungenDatenvirtualisierungBIA-Architekturen für KMU Das Buch vermittelt wertvolle Einblicke und hilfreiche Anregungen für die erfolgreiche Konzeptionierung und Realisierung von BIA-Ökosystemen und -Landschaften in der Praxis. Zielgruppe:Business-Intelligence-Manager*innenDaten- und InformationsverantwortlicheProjektleiter*innenStudierende der Informatik und Wirtschaftsinformatik Autoren:Prof. Dr. Peter Gluchowski leitet den Lehrstuhl für Wirtschaftsinformatik, insb. Systementwicklung und Anwendungssysteme, an der Technischen Universität in Chemnitz und konzentriert sich dort mit seinen Forschungsaktivitäten auf das Themengebiet Business Intelligence & Analytics. Er beschäftigt sich seit mehr als 25 Jahren mit Fragestellungen, die den praktischen Aufbau dispositiver bzw. analytischer Systeme zur Entscheidungsunterstützung betreffen. Seine Erfahrungen aus unterschiedlichsten Praxisprojekten sind in zahlreichen Veröffentlichungen zu diesem Themenkreis dokumentiert. Frank Leisten ist passionierter Berater für datengetriebene Vorhaben mit modernen Technologien. Seine Expertise in den Funktionen des Datenmanagements sowie jahrelange Praxiserfahrung in verschiedenen IT-Domänen und Rollen kommen seinen Kunden bei der Orchestrierung sowie der kulturellen und strategischen Entwicklung ihrer Transformationen zugute. Dr. Gero Presser ist Mitgründer und Geschäftsführer bei der QuinScape GmbH, einem Dortmunder IT-Dienstleistungsunternehmen mit 170 Mitarbeitern und Fokus auf Data & Analytics. Er organisiert die Meetup-Gruppe „Business Intelligence & Analytics Dortmund“ mit über 1.000 Mitgliedern und ist Vorsitzender des TDWI Roundtable Ruhrgebiet.
Apache Kafka
Die Zukunft eines Unternehmens ist sicher, wenn es mit Daten richtig umgeht. Neben dem Sammeln, Speichern und Auswerten ist der Austausch von Daten zwischen unterschiedlichen Systemen hierbei von immenser Bedeutung. Denn er soll zuverlässig und möglichst in Echtzeit erfolgen. Diese Anforderungen sind der Grund, weshalb sich Apache Kafka als Standard etabliert hat. Immer mehr Unternehmen setzen Apache Kafka heute als Streaming-Plattform und Messaging-System ein, um die Komplexität moderner IT-Architekturen beherrschbar zu machen. Um bei dieser Mission erfolgreich zu sein, ist Wissen entscheidend. Dieses Buch nimmt Software-Architekten, Entwickler und Administratoren gleichermaßen auf eine spannende Apache-Kafka-Mission mit. Eine Mission, die von den Grundlagen bis zum Produktiveinsatz von Kafka-basierten Daten-Pipelines reicht. Erleben Sie, wie Apache Kafka Zuverlässigkeit und Performance erreicht und wie Sie Komplikationen frühzeitig meistern können. Anhand zahlreicher Praxisbeispiele lernt man zudem, wie Best-Practice-Lösungen im eigenen Unternehmen umgesetzt werden können. Aus dem Inhalt:Warum Kafka? – Motivation für Kafka und verbreitete NutzungsartenWas ist Kafka? – Kafka als verteilter LogWie erreicht Kafka seine Performance? – Partitionen und Consumer GroupsWie erreicht Kafka seine Zuverlässigkeit? – Replikation, ACKs und Exactly OnceNachrichten produzieren und konsumieren: Was passiert in den Clients und auf den Brokern?Nachrichten aufräumen: Wie können nicht mehr benötigte Daten gelöscht und Speicherplatz frei geräumt werden?• Einblicke in das Kafka-Ökosystem: Kafka über Kafka Connect mit anderen Systemen wie Datenbanken und externen Systemen verbindenAutoren: Anatoly Zelenin vermittelt als IT-Trainer hunderten Teilnehmern Apache Kafka in interaktiven Schulungen. Seine Kunden aus dem DAX-Umfeld und dem deutschen Mittelstand schätzen seit über einem Jahrzehnt seine Expertise und seine begeisternde Art. Darüber hinaus ist er nicht nur IT-Berater und -Trainer, sondern erkundet auch als Abenteurer unseren Planeten. Alexander Kropp ist seit seiner Kindheit leidenschaftlicher Informatiker und programmiert seit er 10 Jahre alt ist. Als Forscher und Berater unterstützt Alexander seit einem Jahrzehnt namhafte Unternehmen bei der Digitalisierung und Prototypen-Entwicklung. Parallel ist er als Dozent und Trainer im Cloud-Umfeld tätig
Synology NAS - Die praktische Anleitung
Sie möchten mit einem Synology NAS Ihre Daten zentral speichern, eigene Backups erstellen und Fotos, Filme und Dokumente streamen? Dennis Rühmer hilft Ihnen bei diesen Aufgaben und erklärt, wie Sie Ihr Synology NAS richtig konfigurieren und eine private Cloud aufsetzen. Damit können Sie Ihre Daten sicher ablegen und verwalten, Live-TV aufnehmen, automatische Sicherungen Ihrer Rechner anlegen, Kalender und Kontakte verwalten und noch viel mehr. Vom reibungslosen Einstieg und einer Kaufberatung über zentrale Grundlagen bis zu den vielfältigen Diensten erfahren Sie in diesem Ratgeber, was Sie über Ihr Synology NAS für einen reibungslosen Betrieb wissen müssen.Aus dem Inhalt:Das richtige NAS wählenDas Gerät sicher einrichtenNetzwerkfreigaben verwaltenKalender und AdressbuchMusik per NAS abspielenFotos organisieren und teilenVideos genießen und verwaltenEin zentrales Backup erstellenEinen zentralen Drucker einrichtenKameraüberwachung steuernEinen TV-Server nutzenSicherheit im HeimnetzAutor: Dennis Rühmer ist promovierter Ingenieur der Elektrotechnik, an der TU Braunschweig als wissenschaftlicher Mitarbeiter tätig und erfahrener Buchautor. Er befasst sich intensiv mit Datensicherung und Streaming, ist großer Raspberry Pi- und Kodi-Fan, bekennender Linuxer und interessiert sich seit frühester Kindheit für digitale Fotografie.
Daten- und Prozessanalyse für Fachinformatiker*innen
Ideal für Aus- und Weiterbildung Big Data, Machine Learning und künstliche Intelligenz sind aktuell wohl die am schnellsten wachsenden Teilgebiete der Informatik. Nicht umsonst wurde daher 2020 der neue Fachinformatik-Ausbildungsgang Daten- und Prozessanalyse eingeführt. Worauf es dabei ankommt, zeigt dieses neue Lehr- und Praxisbuch. Auszubildende dieser Fachrichtung finden hier alle nötigen mathematischen Grundlagen, eine Einführung in die Python-Programmierung, Algorithmen und insbesondere Machine-Learning-Verfahren sowie in die Geschäftsprozessanalyse. Für alle Themen kommen praxiserprobte Sprachen, Tools und Bibliotheken zum Einsatz. Inkl. zahlreicher Übungsaufgaben. Aus dem Inhalt:Arbeitsoberfläche, Navigation und ObjekteModelling und SculptingShading, Texturing und MappingLichtquellen, Kameras und TrackingAnimationen mit Keyframes, Pfaden und DrivernPartikelsysteme, Haare und KollisionenRauch, Feuer und FlüssigkeitenDie neuen Geometry Nodes2D-Animationen mit Grease PencilRendering mit Eevee und CyclesCompositing, Schnitt und Ton Import und ExportAutor: Sascha Kersken arbeitet seit vielen Jahren als Softwareentwickler sowie als Trainer für EDV-Schulungen in den Themengebieten Netzwerke und Internet, interaktive Medien und Programmierung. Er hat zahlreiche Fachbücher und Artikel zu verschiedenen IT-Themen geschrieben.Leseprobe (PDF-Link)
Praktische Statistik für Data Scientists (2. Auflg.)
50+ essenzielle statistische Konzepte mit R und Python aus der Perspektive von Data Scientists erläutert.Statistische Methoden sind ein zentraler Bestandteil der Arbeit mit Daten, doch nur wenige Data Scientists haben eine formale statistische Ausbildung. In Kursen und Büchern über die Grundlagen der Statistik wird das Thema aber selten aus der Sicht von Data Scientists behandelt. Viele stellen daher fest, dass ihnen eine tiefere statistische Perspektive auf ihre Daten fehlt.Dieses praxisorientierte Handbuch mit zahlreichen Beispielen in Python und R erklärt Ihnen, wie Sie verschiedene statistische Methoden speziell in den Datenwissenschaften anwenden. Es zeigt Ihnen auch, wie Sie den falschen Gebrauch von statistischen Methoden vermeiden können, und gibt Ratschläge, welche statistischen Konzepte für die Datenwissenschaften besonders relevant sind. Wenn Sie mit R oder Python vertraut sind, ermöglicht diese zugängliche, gut lesbare Referenz es Ihnen, Ihr statistisches Wissen für die Praxis deutlich auszubauen.
Data Science
KNOW-HOW FÜR DATA SCIENTISTS * übersichtliche und anwendungsbezogene Einführung * zahlreiche Anwendungsfälle und Praxisbeispiele aus unterschiedlichen Branchen * Potenziale, aber auch mögliche Fallstricke werden aufgezeigt Data Science steht derzeit wie kein anderer Begriff für die Auswertung großer Datenmengen mit analytischen Konzepten des Machine Learning oder der künstlichen Intelligenz. Nach der bewussten Wahrnehmung der Big Data und dabei insbesondere der Verfügbarmachung in Unternehmen sind Technologien und Methoden zur Auswertung dort gefordert, wo klassische Business Intelligence an ihre Grenzen stößt. Dieses Buch bietet eine umfassende Einführung in Data Science und deren praktische Relevanz für Unternehmen. Dabei wird auch die Integration von Data Science in ein bereits bestehendes Business-Intelligence-Ökosystem thematisiert. In verschiedenen Beiträgen werden sowohl Aufgabenfelder und Methoden als auch Rollen- und Organisationsmodelle erläutert, die im Zusammenspiel mit Konzepten und Architekturen auf Data Science wirken. Diese 2., überarbeitete Auflage wurde um neue Themen wie Feature Selection und Deep Reinforcement Learning sowie eine neue Fallstudie erweitert.
Data Science (2. Auflg.)
Know-how für Data Scientists. Grundlagen, Architekturen und Anwendungen in 2. Auflage 02/2021Data Science steht derzeit wie kein anderer Begriff für die Auswertung großer Datenmengen mit analytischen Konzepten des Machine Learning oder der künstlichen Intelligenz. Nach der bewussten Wahrnehmung der Big Data und dabei insbesondere der Verfügbarmachung in Unternehmen sind Technologien und Methoden zur Auswertung dort gefordert, wo klassische Businss Intelligence an ihre Grenzen stößt.Dieses Buch bietet eine umfassende Einführung in Data Science und deren praktische Relevanz für Unternehmen. Dabei wird auch die Integration von Data Science in ein bereits bestehendes Business-Intelligence-Ökosystem thematisiert. In verschiedenen Beiträgen werden sowohl Aufgabenfelder und Methoden als auch Rollen- und Organisationsmodelle erläutert, die im Zusammenspiel mit Konzepten und Architekturen auf Data Science wirken.Diese 2., überarbeitete Auflage wurde um neue Themen wie Feature Selection und Deep Reinforcement Learning sowie eine neue Fallstudie erweitert.
Einführung in SQL
Grundlagen und Schlüsseltechniken verstehen und mit vielen Beispielen vertiefen Konzepte und typische Arbeitsschritte verständlich und kompakt erklärt Die SQL-Beispiele laufen ohne Änderungen auf MySQL und (ggf. mit geringfügigen Änderungen) auf neueren Versionen von Oracle Database, DB2 und SQL Server Mit SQL Daten von diversen Plattformen und nicht-relationalen Datenbanken verarbeiten SQL-Kenntnisse sind nach wie vor unverzichtbar, um das Beste auf Ihren Daten herauszuholen. In seinem Handbuch vermittelt Alan Beaulieu die nötigen SQL-Grundlagen, um Datenbankanwendungen zu schreiben, administrative Aufgaben durchzuführen und Berichte zu erstellen. Sie finden neue Kapitel zu analytischen Funktionen, zu Strategien für die Arbeit mit großen Datenbanken sowie zu SQL und großen Datenmengen. Jedes Kapitel präsentiert eine in sich geschlossene Lektion zu einem Schlüsselkonzept oder einer Schlüsseltechnik von SQL und nutzt hierfür zahlreiche Abbildungen und kommentierte Beispiele. Durch Übungen vertiefen Sie die erlernten Fähigkeiten.
Einführung in SQL (3. Auflg.)
Daten erzeugen, bearbeiten und abfragen. Grundlagen und Schlüsseltechniken verstehen und mit vielen Beispielen vertiefen.SQL ist nach wie vor das Werkzeug der Wahl, um Daten in kürzester Zeit zu bearbeiten und das Beste aus ihnen herauszuholen. Alan Beaulieu vermittelt in »Einführung in SQL« die praxisrelevanten Grundlagen, um Datenbankanwendungen zu schreiben, administrative Aufgaben durchzuführen und Berichte zu erstellen.Jedes Kapitel präsentiert eine in sich geschlossene Lektion zu einem Schlüsselkonzept oder einer Schlüsseltechnik von SQL und nutzt hierfür zahlreiche Abbildungen und kommentierte Beispiele. Durch Übungen können Sie die erlernten Fähigkeiten nachhaltig vertiefen. Die Einführung wendet sich an alle, die im Unternehmen mit SQL arbeiten möchten, sie kann aber ebenso begleitend zu IT-Ausbildung und Studium eingesetzt werden.In der 3. Auflage (01/2021) finden Sie neue Kapitel zu analytischen Funktionen, zu Strategien für die Arbeit mit großen Datenbanken und zu SQL und großen Datenmengen.SQL-Kenntnisse sind ein Muss für die Interaktion mit Daten. Mit »Einführung in SQL« werden Sie schnell herausfinden, wie Sie die Möglichkeiten dieser Sprache in ihrem ganzen Umfang nutzen können.Eignen Sie sich zügig die SQL-Grundlagen und wichtige erweiterte Funktionen anVerwenden Sie SQL-Datenanweisungen zum Erzeugen, Bearbeiten und Abrufen von DatenErstellen Sie mit SQL-Schemaanweisungen Datenbankobjekte wie Tabellen, Indizes und ConstraintsLernen Sie, wie Datens.tze mit Abfragen interagieren; verstehen Sie die Bedeutung von UnterabfragenKonvertieren und bearbeiten Sie Daten mit den integrierten Funktionen von SQL und verwenden Sie in Datenanweisungen bedingte Logik
SAP, The Agile Way
Praxisbewährte Tipps für die erfolgreiche agile Arbeit mit weltweit verteilten SAP-Teams.Der weltweit tätige SAP-Berater und Agile Coach Klaus Wybranietz zerlegt in diesem Buch das hartnäckige Vorurteil: »Ja, Scrum ist toll, aber mit SAP funktioniert das nicht.« Er beweist nämlich seit Jahren das Gegenteil: Scrum und SAP können auf einen Nenner gebracht werden – und das sogar sehr erfolgreich. Denn in seinen Projekten für internationale Großkonzerne hat Klaus Wybranietz immer wieder die Erfahrung gemacht: Selbst über den Globus verteilte SAP-Teams können mit Scrum in der halben Zeit dreimal so effektiv sein.In diesem Buch erklärt der Autor die Entwicklungsstufen, über die er SAP-Teams aus dem klassischen Wasserfalldenken heraus und stattdessen hinein in die agile Performance führt. Das fängt beim Teambuilding trotz Superstars an, führt über den Aufbau von gezielten Kompetenzen und hilfreichen Regelwerken bis hin zum Schaffen echter Kundenwerte durch die Anwendung von Kanban-Metriken. Das alles funktioniert seit vielen Jahren auch mit weltweit verteilten SAP-Teams – »Ja, aber …« hat als Argument somit ausgedient.AUS DEM INHALT //- SAP und Scrum – das geht doch nicht?- Die Grundlagen von Scrum- Mit verteilten SAP-Teams remote arbeiten- Mit agilen SAP-Teams starten- Skalierung mit dem Agile Working Model 4 SAP- Praktiken für fortgeschrittene agile SAP-Teams
Skalierbare Container-Infrastrukturen (3. Auflg.)
Das Handbuch für Administratoren. Die Referenz für DevOps-Teams und Admins in 3. Auflage 2020.Virtualisierung hat die nächste Evolutionsstufe erreicht – hochskalierbare, automatisierte und ausfallsichere Container-Umgebungen. Leistungsfähige IaaS/IaC-Mechanismen rollen Ihre virtuelle Infrastruktur auf Knopfdruck vollautomatisiert aus und provisionieren Cluster und Applikationen in jedem gewünschten Versionsstand. Mit GitOps-basierten, vollautomatisierten CI/CD-Pipelines, automatischer Skalierung von Applikationen und Cluster-Nodes on-demand, flexiblen Service-Meshes und Serverless-Architekturen sowie intelligenten Operatoren machen Sie Ihre Infrastruktur fit für die Zukunft.Die dritte, komplett überarbeitete Auflage der bewährten Container-Referenz liefert Ihnen tiefes, fundiertes Profi-Know-how und praxiserprobte Anleitungen. Sorgen Sie dafür, dass Ihr Unternehmen dank der aktuellsten Container-Technologien auf Basis von Kubernetes und OpenShift wettbewerbsfähig bleibt und bereits jetzt zukünftigen Anforderungen an Skalierbarkeit, Flexibilität, Hochverfügbarkeit und Planungssicherheit gewachsen ist!Container-Engines und Tools: CRI-O, Podman, Buildah, Skopeo und DockerProfessionelle Container-Orchestrierung mit Kubernetes und OpenShift, Vollautomation mit IaaS/IaC, intelligente Operatoren selbst erstellen und einsetzenService Meshes, Serverless-Architekturen und Integration von IDM-LösungenGitOps-basierte und vollautomatisierte Pipelines für maximale EffizienzStorage-Provisioner, containerisierte SDS-Lösungen, Security, Logging, Monitoring, Custom Metrics, Autoscaler und vieles mehr.Leseprobe (PDF-Link)
Vom Monolithen zu Microservices
Bestehende Systeme erfolgreich in eine Microservices-Architektur umgestaltenUnerlässliches Expertenwissen für Organisationen, die ihre Codebasis modernisieren wollen Autor des geschätzten Grundlagenwerks »Building Microservices« Orientierung und Anleitung für den anspruchsvollen Migrationsprozess Wie entflechtet man ein monolithisches System und überführt es in eine Microservices-Architektur? Und wie erhält man gleichzeitig den normalen Betrieb aufrecht? Sam Newman, Autor des viel beachteten Titels »Building Microservices«, beschreibt Szenarien und erprobte Strategien, um bestehende Systeme erfolgreich zu migrieren: von der ersten Planung bis zum Zerlegen von Anwendung und Datenbank. Newman greift hierbei auf viele anschauliche Beispiele zurück, stellt aufschlussreiche Pattern für die Migration vor und gibt praktische Ratschläge. Für Organisationen, die ihre Codebasis in Richtung einer Microservices-Architektur überführen und nicht komplett neu aufbauen wollen Unterstützt Unternehmen bei der Frage, ob und wann sie migrieren und wo sie konkret beginnen sollten Befasst sich mit der Integration und Migration von Legacy-Systemen und der Kommunikation mit diesen Systemen Stellt Migrationspattern vor und beschreibt, wo und wie sie am besten eingesetzt werden Bietet Beispiele für die Datenbankmigration und begleitende Synchronisationsstrategien Beschreibt das Zerlegen von Anwendungen einschließlich einer Reihe von Refaktorisierungspattern
Keynote, Pages, Numbers Handbuch
Für macOS und iOSMit diesem umfangreichen Benutzerhandbuch für die drei iWork-Programme Pages, Keynote und Numbers sparen Sie wertvolle Zeit: Warum selbst auf die Suche nach Funktionen und Werkzeugen gehen, wenn Sie hier sämtliche Tools und Möglichkeiten ausführlich beschrieben finden? Sie kommen zügig zu passenden Lösungen für Ihre Aufgaben und lernen gleichzeitig neue und leistungsstarke Fähigkeiten der drei Applikationen kennen. Für die besondere Würze sorgen die vielen Schritt-für-Schritt-Anleitungen. Sie helfen Ihnen beim zügigen und effizienten Erstellen und Bearbeiten Ihrer Dokumente.Aus dem Inhalt: • Die drei Apps unter macOS, iOS und in der iCloud: Egal, wo und wie Sie mit einem der Programme arbeiten – Sie finden die für jede Variante notwendigen Informationen. • Identische Funktionen: Wir zeigen die Grundprinzipien auf, damit Sie reibungslos von einem Programm zum nächsten wechseln können. • Export- und Importformate: Alle gängigen Formate lassen sich mit den iWork-Programmen weiterbearbeiten. iWork-Dokumente wiederum können Sie auf verschiedene Weise weiterreichen. • Pages: Alles, was Sie wissen müssen, um professionell wirkende Textdokumente zu erstellen. • Keynote: Ausführliche Beschreibung der Besonderheiten für eindrucksvolle Präsentationen. • Numbers: Sie lernen, aussagekräftige Tabellen und Diagramme ohne Schwierigkeiten zu erstellen. • Zusammenarbeiten unter iOS, macOS und in der iCloud: Sie arbeiten an unterschiedlichen Orten oder im Team an Ihrem Dokument.
Deep Learning
Deep Learning ist die Schlüsseltechnologie des derzeitigen Booms der Künstlichen Intelligenz. Neuronale Netze können Höchstleistung erbringen, wenn sie als Deep-Learning-Netze aufgestellt sind und mit großen Datenmengen trainiert werden – und wenn Sie wissen, wie man dieses maschinelle Lernen geschickt implementiert. Mit TensorFlow und Keras stehen dafür mächtige Frameworks bereit. Lernen Sie hier, sie in realer Projektpraxis erfolgreich einzusetzen. Unsere Autoren zeigen Ihnen sowohl die Arbeit mit Python und Keras als auch für den Browser mit JavaScript, HTML5 und TensorFlow.js.
Datenbanken (6. Aufl. 2018)
Inhalt Konzepte, Entwurf, Design, Implementierung Dieses Buch richtet sich an alle, die sich grundlegend und fundiert in das Thema Datenbanken einarbeiten wollen. Der Fokus liegt dabei auf einer strukturierten, leicht nachvollziehbaren und praxisrelevanten Darstellung des Stoffes, der anhand eines durchgängigen Beispiels präsentiert wird. Der Autor stellt die Inhalte soweit möglich herstellerneutral dar, so dass die verwendeten Techniken auf jedem relationalen Datenbanksystem umgesetzt werden können. Der Leser wird umfassend in das Thema Datenbanken eingeführt und erhält zugleich eine praxisnahe Sichtweise auf die professionelle Realisierung von Datenbanksystemen von einem seit Langem in der Praxis arbeitenden Datenbankentwickler. Über den Autor Frank Geisler hat an der University of Liverpool Information Technology studiert und er beschäftigt sich seit 1995 mit den unterschiedlichsten Datenbank- und Business-Intelligence-Lösungen. Frank Geisler ist geschäftsführender Gesellschafter der Geisler Datensysteme GmbH & Co. KG, eines der führenden Microsoft-IT-Beratungshäuser im Ruhrgebiet.
Data Science mit Python
Python ist für viele die erste Wahl für Data Science, weil eine Vielzahl von Ressourcen und Bibliotheken zum Speichern, Bearbeiten und Auswerten von Daten verfügbar ist. In diesem Buch erläutert der Autor den Einsatz der wichtigsten Tools. Für Datenanalytiker und Wissenschaftler ist dieses umfassende Handbuch von unschätzbarem Wert für jede Art von Berechnung mit Python sowie bei der Erledigung alltäglicher Aufgaben. Dazu gehören das Bearbeiten, Umwandeln und Bereinigen von Daten, die Visualisierung verschiedener Datentypen und die Nutzung von Daten zum Erstellen von Statistiken oder Machine-Learning-Modellen. Dieses Handbuch erläutert die Verwendung der folgenden Tools:• IPython und Jupyter für datenintensive Berechnungen• NumPy und Pandas zum effizienten Speichern und Bearbeiten von Daten und Datenarrays in Python• Matplotlib für vielfältige Möglichkeiten der Visualisierung von Daten• Scikit-Learn zur effizienten und sauberen Implementierung der wichtigsten und am meisten verbreiteten Algorithmen des Machine Learnings Der Autor zeigt Ihnen, wie Sie die zum Betreiben von Data Science verfügbaren Pakete nutzen, um Daten effektiv zu speichern, zu handhaben und Einblick in diese Daten zu gewinnen. Grundlegende Kenntnisse in Python werden dabei vorausgesetzt.
Machine Learning mit Python
Beschreibung Machine Learning und Predictive Analytics verändern die Arbeitsweise von Unternehmen grundlegend. Die Fähigkeit, in komplexen Daten Trends und Muster zu erkennen, ist heutzutage für den langfristigen geschäftlichen Erfolg ausschlaggebend und entwickelt sich zu einer der entscheidenden Wachstumsstrategien. Sebastian Raschka gibt Ihnen einen detaillierten Einblick in die Techniken der Predictive Analytics. Er erläutert die grundlegenden theoretischen Prinzipien des Machine Learnings und wendet sie praktisch an. Dabei konzentriert er sich insbesondere auf das Stellen und Beantworten der richtigen Fragen. Python zählt zu den führenden Programmiersprachen im Bereich Data Science und ist besonders gut dazu geeignet, grundlegende Erkenntnisse aus Ihren Daten zu gewinnen sowie ausgefeilte Algorithmen und statistische Modelle auszuarbeiten, die neue Einsichten liefern und wichtige Fragen beantworten. Der Autor erläutert in diesem Buch ein breites Spektrum leistungsfähiger Python-Bibliotheken wie scikit-learn, Theano oder Keras. Sie lernen Schritt für Schritt die Grundlagen von Python für maschinelle Lernverfahren kennen und setzen dabei eine Vielfalt von statistischen Modellen ein. Über den Autor Sebastian Raschka ist Doktorand an der Michigan State University und entwickelt neue Rechenverfahren im Bereich der Bioinformatik. Er wurde auf GitHub von Analytics Vidhya als einflussreichster Datenanalytiker eingestuft. Er verfügt über jahrelange Erfahrung in der Python-Programmierung und hat mehrere Seminare über praktische Data-Science-Anwendungen und maschinelles Lernen geleitet. Seine Erfahrungen mit Data Science, maschinellem Lernen und Python-Programmierung haben ihn dazu motiviert, dieses Buch zu schreiben, um es auch Leuten ohne Kenntnisse maschineller Lernverfahren zu ermöglichen, datengesteuerte Lösungen zu entwickeln. Außerdem hat er aktiv Beiträge zu Open-Source-Projekten geleistet und die von ihm implementierten Verfahren werden inzwischen erfolgreich in Wettbewerben eingesetzt, die maschinelles Lernen zum Thema haben, wie z.B. Kaggle. In seiner Freizeit entwickelt er Vorhersagemodelle für Sportergebnisse.