- Table View
- List View
Datadog Cloud Monitoring Quick Start Guide: Proactively create dashboards, write scripts, manage alerts, and monitor containers using Datadog
by Thomas Kurian TheakanathA comprehensive guide to rolling out Datadog to monitor infrastructure and applications running in both cloud and datacenter environmentsKey FeaturesLearn Datadog to proactively monitor your infrastructure and cloud servicesUse Datadog as a platform for aggregating monitoring efforts in your organizationLeverage Datadog's alerting service to implement on-call and site reliability engineering (SRE) processesBook DescriptionDatadog is an essential cloud monitoring and operational analytics tool which enables the monitoring of servers, virtual machines, containers, databases, third-party tools, and application services. IT and DevOps teams can easily leverage Datadog to monitor infrastructure and cloud services, and this book will show you how. The book starts by describing basic monitoring concepts and types of monitoring that are rolled out in a large-scale IT production engineering environment. Moving on, the book covers how standard monitoring features are implemented on the Datadog platform and how they can be rolled out in a real-world production environment. As you advance, you'll discover how Datadog is integrated with popular software components that are used to build cloud platforms. The book also provides details on how to use monitoring standards such as Java Management Extensions (JMX) and StatsD to extend the Datadog platform. Finally, you'll get to grips with monitoring fundamentals, learn how monitoring can be rolled out using Datadog proactively, and find out how to extend and customize the Datadog platform. By the end of this Datadog book, you will have gained the skills needed to monitor your cloud infrastructure and the software applications running on it using Datadog.What you will learnUnderstand monitoring fundamentals, including metrics, monitors, alerts, and thresholdsImplement core monitoring requirements using Datadog featuresExplore Datadog's integration with cloud platforms and toolsExtend Datadog using custom scripting and standards such as JMX and StatsDDiscover how proactive monitoring can be rolled out using various Datadog featuresUnderstand how Datadog can be used to monitor microservices in both Docker and Kubernetes environmentsGet to grips with advanced Datadog features such as APM and Security MonitoringWho this book is forThis book is for DevOps engineers, site reliability engineers (SREs), IT Production engineers, software developers and architects, cloud engineers, system administrators, and anyone looking to monitor and visualize their infrastructure and applications with Datadog. Basic working knowledge of cloud and infrastructure is useful. Working experience of Linux distribution and some scripting knowledge is required to fully take advantage of the material provided in the book.
DataFlow Supercomputing Essentials: Research, Development and Education (Computer Communications and Networks)
by Dejan Markovic Jakob Salom Veljko Milutinovic Dragan Veljovic Nenad Korolija Luka PetrovicThis informative text/reference highlights the potential of DataFlow computing in research requiring high speeds, low power requirements, and high precision, while also benefiting from a reduction in the size of the equipment. The cutting-edge research and implementation case studies provided in this book will help the reader to develop their practical understanding of the advantages and unique features of this methodology. This work serves as a companion title to DataFlow Supercomputing Essentials: Algorithms, Applications and Implementations, which reviews the key algorithms in this area, and provides useful examples. Topics and features: reviews the library of tools, applications, and source code available to support DataFlow programming; discusses the enhancements to DataFlow computing yielded by small hardware changes, different compilation techniques, debugging, and optimizing tools; examines when a DataFlow architecture is best applied, and for which types of calculation; describes how converting applications to a DataFlow representation can result in an acceleration in performance, while reducing the power consumption; explains how to implement a DataFlow application on Maxeler hardware architecture, with links to a video tutorial series available online. This enlightening volume will be of great interest to all researchers investigating supercomputing in general, and DataFlow computing in particular. Advanced undergraduate and graduate students involved in courses on Data Mining, Microprocessor Systems, and VLSI Systems, will also find the book to be a helpful reference.
DataFlow Supercomputing Essentials: Algorithms, Applications and Implementations (Computer Communications and Networks)
by Nemanja Trifunovic Veljko Milutinovic Milos Kotlar Marko Stojanovic Igor Dundic Zoran BabovicThis informative text/reference highlights the potential of DataFlow computing in research requiring high speeds, low power requirements, and high precision, while also benefiting from a reduction in the size of the equipment. The cutting-edge research and implementation case studies provided in this book will help the reader to develop their practical understanding of the advantages and unique features of this methodology. This work serves as a companion title to DataFlow Supercomputing Essentials: Algorithms, Applications and Implementations, which reviews the key algorithms in this area, and provides useful examples. Topics and features: reviews the library of tools, applications, and source code available to support DataFlow programming; discusses the enhancements to DataFlow computing yielded by small hardware changes, different compilation techniques, debugging, and optimizing tools; examines when a DataFlow architecture is best applied, and for which types of calculation; describes how converting applications to a DataFlow representation can result in an acceleration in performance, while reducing the power consumption; explains how to implement a DataFlow application on Maxeler hardware architecture, with links to a video tutorial series available online. This enlightening volume will be of great interest to all researchers investigating supercomputing in general, and DataFlow computing in particular. Advanced undergraduate and graduate students involved in courses on Data Mining, Microprocessor Systems, and VLSI Systems, will also find the book to be a helpful reference.
The DataOps Revolution: Delivering the Data-Driven Enterprise
by Simon TrewinDataOps is a new way of delivering data and analytics that is proven to get results. It enables IT and users to collaborate in the delivery of solutions that help organisations to embrace a data-driven culture. The DataOps Revolution: Delivering the Data-Driven Enterprise is a narrative about real world issues involved in using DataOps to make data-driven decisions in modern organisations. The book is built around real delivery examples based on the author’s own experience and lays out principles and a methodology for business success using DataOps. Presenting practical design patterns and DataOps approaches, the book shows how DataOps projects are run and presents the benefits of using DataOps to implement data solutions. Best practices are introduced in this book through the telling of a story, which relates how a lead manager must find a way through complexity to turn an organisation around. This narrative vividly illustrates DataOps in action, enabling readers to incorporate best practices into everyday projects. The book tells the story of an embattled CIO who turns to a new and untested project manager charged with a wide remit to roll out DataOps techniques to an entire organisation. It illustrates a different approach to addressing the challenges in bridging the gap between IT and the business. The approach presented in this story lines up to the six IMPACT pillars of the DataOps model that Kinaesis (www.kinaesis.com) has been using through its consultants to deliver successful projects and turn around failing deliveries. The pillars help to organise thinking and structure an approach to project delivery. The pillars are broken down and translated into steps that can be applied to real-world projects that can deliver satisfaction and fulfillment to customers and project team members.
The Datapreneurs: The Promise of AI and the Creators Building Our Future
by Bob Muglia Steve HammA leader in the data economy explains how we arrived at AI—and how we can navigate its future In The Datapreneurs, Bob Muglia helps us understand how innovation in data and information technology have led us to AI—and how this technology must shape our future. The long-time Microsoft executive, former CEO of Snowflake, and current tech investor maps the evolution of the modern data stack and how it has helped build today&’s economy and society. And he explains how humanity must create a new social contract for the artificial general intelligence (AGI)—autonomous machines intelligent as people—that he expects to arrive in less than a decade. Muglia details his personal experience in the foundational years of computing and data analytics, including with Bill Gates and Sam Altman, the CEO of OpenAI, the creator of ChatGPT, and others that are not household names—yet. He builds upon Isaac Asimov&’s Laws of Robotics to explore the moral, ethical, and legal implications of today&’s smart machines, and how a combination of human and machine intelligence could create an era of progress and prosperity where all the people on Earth can have what they need and want without destroying our natural environment.The Datapreneurs is a call to action. AGI is surely coming. Muglia believes that tech business leaders, ethicists, policy leaders, and even the general public must collaborate answer the short- and long-term questions raised by its emergence. And he argues that we had better get going, because advances are coming so fast that society risks getting caught flatfooted—with potentially disastrous consequences.
Daten-Teams: Ein einheitliches Managementmodell für erfolgreiche, datenorientierte Teams
by Jesse AndersonErfahren Sie, wie Sie erfolgreiche Big-Data-Projekte durchführen, wie Sie Ihre Teams mit Ressourcen ausstatten und wie die Teams miteinander arbeiten sollten, um kosteneffizient zu sein. In diesem Buch werden die drei Teams vorgestellt, die für erfolgreiche Projekte erforderlich sind, und es wird erläutert, welche Aufgaben die einzelnen Teams haben.Die meisten Unternehmen scheitern mit Big-Data-Projekten, und der Misserfolg wird fast immer auf die verwendeten Technologien geschoben. Um erfolgreich zu sein, müssen sich Unternehmen sowohl auf die Technologie als auch auf das Management konzentrieren.Die Nutzung von Daten ist ein Teamsport. Es bedarf verschiedener Menschen mit unterschiedlichen Fähigkeiten, die alle zusammenarbeiten müssen, um etwas zu erreichen. Bei allen Projekten, mit Ausnahme der kleinsten, sollten die Mitarbeiter in mehreren Teams organisiert werden, um das Scheitern von Projekten und unzureichende Leistungen zu vermeiden.Dieses Buch konzentriert sich auf das Management. Vor einigen Jahren wurde wenig bis gar nicht über das Management von Big-Data-Projekten oder -Teams geschrieben oder gesprochen. Data Teams zeigt, warum Managementfehler die Ursache für so viele Projektmisserfolge sind und wie Sie solche Misserfolge in Ihrem Projekt proaktiv verhindern können.Was Sie lernen werdenEntdecken Sie die drei Teams, die Sie benötigen, um mit Big Data erfolgreich zu seinVerstehen, was ein Datenwissenschaftler ist und was ein Datenwissenschaftsteam tutVerstehen, was ein Data Engineer ist und was ein Data Engineering Team machtVerstehen, was ein Betriebsingenieur ist und was ein Betriebsteam tutWissen, wie sich die Teams und Titel unterscheiden und warum Sie alle drei Teams brauchenErkennen, welche Rolle das Unternehmen bei der Zusammenarbeit mit Datenteams spielt und wie der Rest der Organisation zu erfolgreichen Datenprojekten beiträgtFür wen dieses Buch gedacht istFührungskräfte aller Ebenen, einschließlich derjenigen, die über einige technische Fähigkeiten verfügen und ein Big-Data-Projekt in Angriff nehmen wollen oder bereits ein Big-Data-Projekt begonnen haben. Es ist besonders hilfreich für diejenigen, die Projekte haben, die nicht vorankommen und nicht wissen, warum, oder die an einer Konferenz teilgenommen oder über Big Data gelesen haben und nun damit beginnen, zu prüfen, was nötig ist, um ein Projekt zu realisieren.Dieses Buch ist auch für leitende Mitarbeiter oder technische Architekten relevant, die in einem Team arbeiten, das vom Unternehmen beauftragt wurde, herauszufinden, was nötig ist, um ein Projekt zu starten, in einem Projekt, das nicht vorankommt, oder die feststellen müssen, ob es nichttechnische Probleme gibt, die ihr Projekt beeinträchtigen.
Daten- und Informationsqualität: Auf dem Weg zur Information Excellence
by Knut Hildebrand Marcus Gebauer Holger Hinrichs Michael MielkeDas erste deutsche Buch zum Thema Daten- und Informationsqualität in der dritten, erweiterten Auflage. Wissenschaftlich fundiert und von Praktikern geschrieben, wird der aktuelle Stand aus Forschung und praktischer Anwendung präsentiert, in den wichtigen Facetten dieses wichtigen Themas. Ein Muss für alle IT-Profis.
Daten- und Informationsqualität: Auf dem Weg zur Information Excellence
by Knut Hildebrand Marcus Gebauer Holger Hinrichs Michael MielkeDie Verbesserung und Sicherung der Informationsqualität (IQ) wird in immer mehr Unternehmen als eigenständige und wichtige Managementaufgabe begriffen. IQ-Management ist mittlerweile ein elementarer Baustein in Systemintegrationsprojekten. Aber auch für laufende Prozesse mit heterogenen Daten und Nutzern ist eine hohe Informationsqualität die Grundvoraussetzung für funktionierende betriebliche Abläufe. Das erste deutschsprachige Buch zum Thema behandelt Daten- und Informationsqualität umfassend: von Definitionen zur Datenqualität über Methoden und Regelwerke für ihr Management bis hin zur Verankerung in der Organisation – mit Fallbeispielen aus zahlreichen Unternehmen. Im einführenden Kapitel erläutern die Autoren zunächst die Grundlagen. Sie stellen wissenschaftliche Modelle der Informationstheorie vor und erläutern die Rolle von Daten im Wissens- und Informationsmanagement und als Produktionsfaktor. Ein weiteres grundlegendes Kapitel widmet sich den verschiedenen Dimensionen der Informationsqualität. Anhand von 15 Begriffen und erläuternden Beispielen werden die IQ-Dimensionen wie beispielsweise Zugänglichkeit (accessibility), Umfang (appropriate amount of data) oder Glaubwürdigkeit (believability) präzise beschrieben. Dieses Kapitel ist zugleich Ergebnis der Arbeit einer Projektgruppe in der DGIQ (Deutsche Gesellschaft für Informations- und Datenqualität). Im zweiten Teil des Buchs werden die Methoden, Tools und Techniken für das Management der Datenqualität erläutert. Dazu zählen unter anderem Datenqualitätsmetriken, Methoden wie Total Data Quality Management, die strukturierte Datenanalyse oder Maßnahmen wie Datenbereinigung. Der Band wurde für die vierte Auflage erweitert und an zahlreichen Stellen überarbeitet. Wissenschaftlich fundiert und von Praktikern geschrieben, präsentiert es den aktuellen Stand aus Forschung und Anwendung. Das Buch richtet sich an Unternehmensführungen, IT-Manager, beispielsweise in Banken und Versicherungen, und an alle Datenspezialisten. Ein Muss für alle IT-Profis.
Daten- und Informationsqualität: Die Grundlage der Digitalisierung
by Knut Hildebrand Marcus Gebauer Michael MielkeDieses Buch war das erste deutsche Buch zum Thema Daten- und Informationsqualität und ist mittlerweile ein Klassiker. Es wurde für die fünfte Auflage um neue Inhalte erweitert, aktualisiert und an zahlreichen Stellen überarbeitet. Von Wissenschaftlern und Praktikern geschrieben, präsentiert es den aktuellen Stand aus Forschung und Anwendung und ist somit ein Muss für alle IT-Profis.
Daten- und Informationsqualität: Die Grundlage der Digitalisierung
by Knut Hildebrand Michael Mielke Marcus GebauerDieses Buch war das erste deutsche Buch zum Thema Daten- und Informationsqualität und ist mittlerweile ein Klassiker. Es wurde für die sechste Auflage um neue Inhalte erweitert, aktualisiert und an zahlreichen Stellen überarbeitet. Von Wissenschaftlern und Praktikern geschrieben, präsentiert es den aktuellen Stand aus Forschung und Anwendung und ist somit ein Muss für alle IT-Profis.
Datenanonymisierung im Kontext von Künstlicher Intelligenz und Big Data: Grundlagen – Elementare Techniken – Anwendung
by Heinz-Adalbert Krebs Patricia HagenweilerDie fortschreitende Digitalisierung, die immer höhere Verfügbarkeit des Internets in Echtzeit sowie die progressive Entwicklung der IT ermöglichen es Unternehmen und Organisationen, Daten in einem nie zuvor dagewesenen Umfang zu erzeugen und zu verarbeiten, wodurch sie einen enormen Stellen- und Marktwert erhalten haben. Zudem kann mithilfe der künstlichen Intelligenz (KI) das in den Daten enthaltene Wissen extrahiert werden. Oft handelt es sich dabei um gesammelte Daten von Personen, mit denen Vorhersagen über verschiedene Aspekte der Personen getroffen werden können.Das Buch befasst sich mit der Anonymisierung im Kontext der KI und Big Data. Dazu werden die wesentlichen Grundlagen dargestellt sowie pseudonymisierte und anonymisierte Daten mit Personenbezug im Rahmen der Datenschutz-Grundverordnung (DSGVO) und des Bundesdatenschutzgesetzes (BDSG) beleuchtet. Es werden Möglichkeiten zur Pseudonymisierung, zu den jeweiligen Techniken und Verfahren der Anonymisierung sowie entsprechende Risikobetrachtungen behandelt. Abschließend wird die Vorgehensweise der Anonymisierung aus rechtlicher und technischer Sicht unter Anwendung entsprechender Software behandelt.
Datenaustausch in der Anlagenplanung mit AutomationML: Integration von CAEX, PLCopen XML und COLLADA (VDI-Buch)
by Rainer DrathDas Buch gibt erstmals einen umfassenden Überblick über die Technologie AutomationML und die Integration von CAEX, COLLADA und PLCopen XML. Mit AutomationML soll die Interoperabilität zwischen digitalen Werkzeugen im Engineering-Prozess gefördert werden. Es ist das erste kostenfrei zugängliche, offene und XML-basierte Format, das übergreifend eine Vielzahl von Planungsaspekten kombiniert. Das Buch ist ein Gemeinschaftswerk des AutomationML-Konsortiums. Es wurde so konzipiert, dass es als Kompendium und zugleich als Entscheidungshilfe dienen kann.
Datenbanken für Nichtinformatiker: Eine praxisnahe Einführung
by Jörg MielebacherDaten sind zu einem wichtigen Rohstoff in vielen Bereichen geworden. Auch Nichtinformatiker müssen große Datenbestände pflegen und nach den für sie relevanten Informationen durchsuchen. Dieses praxisnahe Lehrbuch zeigt, wie man hierfür Datenbanken einsetzt, wie man deren Inhalte mit der Abfragesprache SQL auswertet und worauf man bei Entwurf und Betrieb von Datenbanken achten muss.Zahlreiche Abbildungen und Anwendungsbeispiele vermitteln einen gut verständlichen Einblick in dieses wichtige Thema. Aber auch Berufspraktiker mit Interesse an Datenbanken finden wichtige Hinweise und Lösungsansätze für ihre Arbeit.
Datenbanken und SQL: Eine praxisorientierte Einführung mit Anwendungen in Oracle, SQL Server und MySQL (Informatik & Praxis #17)
by Edwin SchickerDatenbanken entstanden ab etwa 1960 aus der Notwendigkeit, die logischen auf die immer gr#65533;#65533;er werdenden Datenmengen zu vereinfachen und Zugriffe zu normieren. Wurden diese Datenbanken #65533;ber mehr als zwei Jahrzehnte hin#65533; weg ausschlie#65533;lich auf Gro#65533;rechnern eingesetzt, so haben sie inzwischen ihren Siegeszug auch auf Kleinrechnern angetreten. Erm#65533;glicht wurde dies aus dreierlei Gr#65533;nden: erstens durch die enorm gestiegene Rechnerleistung der letzten Jahre, zweitens durch die Verwendung relationaler Datenbanken und drittens durch die Einf#65533;hrung grafischer Oberfl#65533;chen. Die Anfang der 70er Jahre entwickelten relationalen Datenbanken erm#65533;gli#65533; chen eine einfache Erstellung und Programmierung. Grafische Oberfl#65533;chen unterst#65533;tzen den Anwender und Datenbankdesigner dank einer leichten Benut#65533; zerf#65533;hrung und anschaulichen Musterbeispielen, so da#65533; auch dem interessier#65533; ten Laien diese Form der Datenhaltung mit all ihren M#65533;glichkeiten offen steht. Der Laie sei aber davor gewarnt, gr#65533;#65533;ere Datenbanken ohne theoretische Grundkenntnisse selbst zu erstellen. Denn hier leitet sich der Datenbankent#65533; wurf in der Regel nicht mehr direkt aus der AufgabensteIlung ab. Doch nur ein guter Entwurf garantiert #65533;bersichtliche und optimale Zugriffe und erm#65533;glicht je nach Bedarf Erg#65533;nzungen und Erweiterungen der Datenbank. Auch wird nur dadurch die Konsistenz und Integrit#65533;t der Datenbank erm#65533;glicht, so da#65533; feh#65533; lerhafte, widerspr#65533;chliche und nicht mehr zugreifbare Datenbest#65533;nde verhin#65533; dert werden. Grundlagen zu Datenbankentwurf und -programmierung sollten f#65533;r den Datenbankprogrammierer daher selbstverst#65533;ndlich sein. Dieses Buch entstand aus mehreren Vorlesungen zu Datenbanken, die ich an der Fachhochschule Regensburg f#65533;r Informatiker gelesen habe. Doch ich will auch den Nicht-Informatiker und interessierten Laien gezielt ansprechen. Dazu wird mit zahlreichen Beispielen die Theorie direkt in die Praxis umgesetzt.
Datenbanken und SQL: Eine praxisorientierte Einführung mit Anwendungen in Oracle, SQL Server und MySQL (Informatik & Praxis #17)
by Edwin SchickerZiel des Buches ist es, dem Leser fundierte Grundkenntnisse in Datenbanken und SQL zu vermitteln. Das Buch richtet sich an Anwendungsprogrammierer, die mit Hilfe von SQL auf Datenbanken zugreifen und an alle, die Datenbanken entwerfen oder erweitern wollen. Die Schwerpunkte des Buches sind relationale Datenbanken, Entwurf von Datenbanken und die Programmiersprache SQL. Aber auch Themen wie Recovery, Concurrency, Sicherheit und Integrität werden ausführlich besprochen.
Datenbanksysteme für Dummies (Für Dummies)
by Wolfgang GerkenDatenbanken sind unverzichtbare Basis fast aller heutigen Informationssysteme. Dieses Buch vermittelt Ihnen das notwendige Grundlagenwissen dazu, vor allem zu relationalen Datenbanksystemen. Der Inhalt orientiert sich an den neuesten Empfehlungen der Gesellschaft für Informatik für das Studienfach Informatik. Im Mittelpunkt des praktischen Teils stehen die Datenbankmanagementsysteme Oracle Database XE und MySQL. Mit den zahlreich vorhandenen Übungsaufgaben können Sie Ihren Lernfortschritt überprüfen. Musterlösungen sind vorhanden.
Datenbanksysteme für Dummies (Für Dummies)
by Wolfgang GerkenDatenbanken sind die unverzichtbare Basis fast aller heutigen Informationssysteme. Dieses Buch vermittelt Ihnen das notwendige Grundlagenwissen dazu, vor allem zu relationalen Datenbanksystemen. Der Inhalt orientiert sich an den neuesten Empfehlungen der Gesellschaft für Informatik für das Studienfach Informatik. Im Mittelpunkt des praktischen Teils stehen die Datenbankmanagementsysteme Oracle Database XE und MySQL. Mit den zahlreich vorhandenen Übungsaufgaben können Sie Ihren Lernfortschritt überprüfen ? Musterlösungen sind vorhanden.
Datenbasiert entscheiden: Ein Leitfaden für Unternehmer und Entscheider (essentials)
by Paul Niebler Dominic LindnerDieses Buch befasst sich mit der zielgerichteten Auswertung von vorhandenen Daten im Unternehmen. Während früher viele Entscheidungen aus dem Bauch heraus getroffen wurden, sind heute die resultierenden Erfolge durch das gestiegene Datenvolumen so gut messbar wie nie zuvor. Doch nicht jede Entscheidung wird durch Daten automatisch besser. Es gilt, Daten im Unternehmen zu identifizieren, Ziele zu definieren und die vorhandenen Daten sinnvoll auszuwerten. Damit dieser Schritt gelingt, zeigt dieses Buch mit praktischen Tipps, wie auf Grundlage von Daten bessere Entscheidungen getroffen werden können. Neben den Grundlagen zur Datenanalyse wird ein Praxisbeispiel vorgestellt, aus dem anschließend Anregungen für Unternehmen abgeleitet werden.
Datenbasiert entscheiden: Data Analytics in der Unternehmenspraxis (essentials)
by Paul Niebler Dominic LindnerDieses Buch befasst sich mit der zielgerichteten Auswertung von vorhandenen Daten im Unternehmen. Während früher viele Entscheidungen aus dem Bauch heraus getroffen wurden, sind heute die resultierenden Erfolge durch das gestiegene Datenvolumen so gut messbar wie nie zuvor. Doch nicht jede Entscheidung wird durch Daten automatisch besser. Es gilt, Daten im Unternehmen zu identifizieren, Ziele zu definieren und die vorhandenen Daten sinnvoll auszuwerten. Damit dieser Schritt gelingt, zeigt dieses Buch anhand praktischer Tipps, wie auf Grundlage von Daten bessere Entscheidungen getroffen werden können. Neben den Grundlagen zur Datenanalyse werden Praxisbeispiele vorgestellt, aus denen anschließend Anregungen für Unternehmen abgeleitet werden.
Datengetriebenes Marketing: Wie Unternehmen Daten zur Skalierung ihres Geschäfts nutzen können
by Jonas RashediWir leben in einer Zeit, in der Daten immer mehr Relevanz besitzen, und zwar sowohl für die Geschäftsmodelle von Unternehmen im Gesamten als auch für einzelne Funktionsbereiche. Insbesondere im Marketing besitzen Daten eine hohe Relevanz, denn sie helfen, den Kunden zu verstehen und geeignete Maßnahmen abzuleiten. Doch viele Unternehmen tun sich schwer, einen Einstieg in das datengetriebene Marketing zu finden.Jonas Rashedi stellt mit diesem Buch einen Orientierungs- und Handlungsrahmen vor, der Unternehmen bei der Umsetzung und organisatorischen Verankerung eines datengetriebenen Marketings unterstützt. Der vorgestellte Prozess ist unabhängig von aktuell vorhandenen technologischen Lösungen gestaltet, sodass er für Unternehmen längerfristig Gültigkeit besitzt.
Datengetriebenes Qualitätsmanagement: Bericht zur GQW-Jahrestagung 2019 in Aachen
by Robert H. SchmittDie Gesellschaft für Qualitätswissenschaft e.V. GQW hat sich seit ihrer Gründung im Dezember 1994 dem Ziel verschrieben, die Qualitätswissenschaft in Lehre und Forschung zu fördern und den Wissenstransfer in die industrielle Anwendung zu unterstützen. Seit 1998 werden hierzu im Rahmen von Jahrestagungen Forschungs- und Entwicklungsergebnisse vorgestellt, die für die Qualitätswissenschaft aktuelle und relevante Themen aufgreifen.Die Jahrestagung 2019 der Gesellschaft für Qualitätswissenschaft e.V. (GQW) fand unter der Leitung von Prof. Dr.-Ing. Robert H. Schmitt am 30. Oktober in Aachen statt. Der Themenschwerpunkt adressierte die Potenziale der gesteigerten Datenverfügbarkeit und von Data Analytics für die Qualitätswissenschaft. Der Tagungsband beinhaltet die eingereichten und begutachteten Beiträge, die im Rahmen der Tagung präsentiert worden sind.
Datenmanagement und Datenanalyse: Konzepte, Technologien und Methoden für die Organisation und Aufbereitung von Daten in Unternehmen
by Peter GluchowskiDerzeit wird kaum noch ernsthaft bestritten, dass die Daten eines Unternehmens ein wichtiges Wirtschaftsgut darstellen und in erheblicher Weise zum Erfolg beitragen können. Allerdings gilt es, nicht nur den Wert der Daten zu erkennen, sondern diese auch in den zugehörigen Geschäftsprozessen gewinnbringend einzusetzen. Als zwingende Voraussetzung erweist sich dabei, eine organisatorische und technische Basis zu etablieren, die nachhaltig darauf ausgerichtet ist, die fachlichen Ausgabenstellungen bestmöglich zu unterstützen. Unter dem Oberbegriff Datenmanagement werden dazu diejenigen Führungs- und Durchführungstätigkeiten diskutiert, die einen tragfähigen Rahmen für den Umgang mit Daten in der Organisation aufspannen. Daneben erweisen sich vor allem die Verfahren zur Auswertung und Analyse der verfügbaren Datenbestände als leistungsfähige Instrumente, um langfristige Wettbewerbsvorteile zu erlangen. Vor diesem Hintergrund widmet sich das vorliegende Buch den stetig an Bedeutung gewinnenden Themenfeldern Datenmanagement und Datenanalyse, denen insbesondere im Rahmen der digitalen Transformation eine große Bedeutung zukommt.
Datenmodellierung: Einführung in die Entity-Relationship-Modellierung und das Relationenmodell (essentials)
by Andreas GadatschAndreas Gadatsch schließt mit dem vorliegenden essential eine Lücke in einführenden Werken zur Datenmodellierung. Diese Modelle gehören zum Basiswissen in Einführungsveranstaltungen zur Wirtschaftsinformatik für Betriebswirte. Die Literatur dazu ist für diese Zielgruppe häufig zu speziell, da sie sich eher an Informatiker richtet. Der Autor bietet hier nun einen kompakten Einstieg in die klassische CHEN-Notation anhand eines durchgängigen Fallbeispiels, auf der viele neue Modellierungsansätze aufbauen. Die zweite Auflage enthält einige formale Korrekturen und Ergänzungen (z. B. Rekursive Relationen).Der Autor:Dr. Andreas Gadatsch ist Professor für Betriebswirtschaftslehre, insbesondere Wirtschaftsinformatik im Fachbereich Wirtschaftswissenschaften der Hochschule Bonn-Rhein-Sieg in Sankt Augustin.
Datenmodellierung für Einsteiger: Einführung in die Entity-Relationship-Modellierung und das Relationenmodell (essentials)
by Andreas GadatschAndreas Gadatsch schließt mit dem vorliegenden essential eine Lücke in einführenden Werken zur Datenmodellierung. Diese Modelle gehören zum Basiswissen einführender Lehrveranstaltungen zur Wirtschaftsinformatik für Betriebswirte. Die Literatur dazu ist für diese Zielgruppe häufig zu speziell, da sie sich eher an Informatiker richtet. Der Autor bietet hier nun eine kompakte Einführung anhand eines durchgängigen Fallbeispiels in die klassische CHEN-Notation, auf der viele neue Modellierungsansätze aufbauen.
Datenorganisation und Datenbanken: Praxisorientierte Übungen mit MS Access 2016
by Frank HerrmannHinter jedem elektronischen Informationssystem, hinter jeder Bestellung im Internet steht eine Datenbank. Wer solche Datenbanken entwerfen und aufbauen will, benötigt umfassende theoretische Kenntnisse über die logische und physische Datenorganisation Dieses Lehrbuch verknüpft Theorie und Praxis und führt in die Grundlagen der Datenorganisation und ihre Anwendung in Datenbanken mit Access ein. Der Autor behandelt ein breites Themenspektrum, mit dem Leser umfassende Kenntnisse zu verschiedenen Datenorganisationsmodellen, wie beispielsweise relationale oder Netzwerk-Datenmodelle, zu den unterschiedlichen Datenbankmanagementsystemen sowie zur Weiterentwicklung von bestehenden Datenbanken erwerben. Das Buch zeichnet sich durch eine klar strukturierte und anwendungsnahe Vermittlung der Lehrinhalte aus. Die verschiedenen Problemstellungen werden durch zahlreiche Lösungshinweise, Beispiele und Bilder veranschaulicht. Anhand der vielen begleitenden Übungen, die sich gleichermaßen für die Einzel- und Gruppenarbeit eigenen, können Leser ihre frisch erworbenen Kenntnisse zur Datenbankentwicklung direkt in die Praxis umsetzen.Mit dem Lehrbuch bildet der Autor den gesamten Stoff einer Hochschul-Veranstaltung in den Fächern Informatik oder Wirtschaftsinformatik mit einem Umfang von 20 Stunden Vorlesung und 20 Stunden Übungen ab. Studierende finden hier ein begleitendes Lernbuch zu Vorlesungen und Übungen, während Dozenten es zur Vorbereitung von Lehrveranstaltungen einsetzen können. Darüber hinaus eignet sich das Buch für den Informatik-Unterricht an Schulen und für Schulungen sowie für die individuelle Weiterbildung im Bereich Datenbankanwendung und Datenbankentwicklung mit Microsoft Access.