AI & Data
Die Zukunft gestalten: Künstliche Intelligenz und der Einfluss auf Ihr Unternehmen
e:ndlich ist ihr Partner über den gesamten Prozess ihres Data-Science Projekts!
Intelligente Systeme unterstützen uns schon heute beim Autofahren, als Sprachassistenten oder im Kundenservice. Die Faszination und gleichzeitig Unsicherheit, die künstliche Intelligenz hervorruft, sind in der Geschäftswelt spürbar. Unternehmen stellen sich die Frage, welche Voraussetzungen sie benötigen, um auch zukünftig innovative Produkte und Dienstleistungen anbieten zu können. Die Antwort darauf lautet: Machine Learning.
Um das Konzept kurz zu erläutern: Herkömmliche Computerprogramme folgen einem festen Regelwerk, ähnlich einem Kochrezept. Zuerst werden die Anforderungen gesammelt, anschließend werden die Regeln (Algorithmen) programmiert, damit das System die definierten Aufgaben erfüllen kann. Dieser Ansatz bildet die Grundlage für die meisten herkömmlichen Unternehmenssoftware. Im Gegensatz dazu steht das Machine Learning, bei dem das System aus Mustern, Gesetzmäßigkeiten und Erfahrungen lernt – ähnlich wie ein Mensch.

Machine Learning
Durch das Erkennen von Mustern in vorliegenden Datenbeständen sind IT-Systeme in der Lage, eigenständig Lösungen für Probleme zu finden. Im Gegensatz zu klassischer Software entwickelt man nicht den Algorithmus direkt, sondern lernt/trainiert anhand von Daten ein Modell des Problems.

Datenquellen und -aufnahme

Datenverarbeitung und -aufbereitung
Prozess der Abbildung und Umwandlung von Rohdaten in ein anderes Format. Ziel dieses Vorgangs ist es, die Daten so zu modifizieren, dass sie für verschiedene nachgelagerte Zwecke, wie beispielsweise Analysen, besser geeignet und wertvoller werden.
Zusammenführung von Daten aus verschiedenen Quellen in ein einheitliches Format.
Prozess der Umwandlung von Datenformaten und -strukturen zur weiteren Analyse und Integration. Inhalt kann das Bereinigen, Aggregieren oder Neukonstruieren sein.
Analyse, Modifikation und Synthese von Signalen, um nützliche Informationen zu extrahieren oder zu verbessern, z.B. in der Audio- und Bildverarbeitung.
Künstliche Erzeugung zusätzlicher Trainingsdaten durch Transformationen bestehender Daten, um die Leistung eines Modells zu verbessern.

Datenmanagement

Datenanalyse und -modellierung
Vorläufige Analyse der Daten mittels Diagrammen und grafischer Darstellungen, um Muster, Trends und Ausreißer zu erkennen. Ziel ist es, zentrale Zusammenhänge und Eigenschaften der Daten sichtbar zu machen.
Optimierung von Modellen, indem relevante Merkmale (Features) aus Rohdaten erstellt und ausgewählt werden. So wird die Datenmenge reduziert und die Modellleistung gesteigert.
Entwicklung, Training und Validierung von Modellen zur Vorhersage oder Klassifikation unter Einsatz von Machine Learning, Deep Learning und anderen Techniken.
Einsatz spezifischer Analysemethoden wie Time Series Analysis, Natural Language Processing (NLP) und Computer Vision zur Lösung spezialisierter Aufgaben.
Optimierung der Modellparameter, Verbesserung der Modellleistung und Sicherstellung der Erklärbarkeit und Verständlichkeit der Modelle.

Evaluierung und Validierung
Überprüfung von Genauigkeit und Zuverlässigkeit eines Modells durch Model Validation, um sicherzustellen, dass es auf neuen, nicht gesehenen Daten gut generalisiert. Anschließend folgt das Model Tuning, bei dem die Modellparameter gezielt optimiert werden, um die Leistung weiter zu verbessern. Ein weiterer Ansatz ist das A/B Testing, bei dem Experimente durchgeführt werden, um die Auswirkungen von Änderungen an den Modellen zu messen und zu bewerten, welche Variante bessere Ergebnisse liefert.
Data Literacy
Fähigkeit, Daten zu lesen, zu verstehen und zu interpretieren.
Data Ethics
Berücksichtigung ethischer Aspekte bei der Datenverarbeitung und Nutzung.
Data Security
Schutz der Daten vor unbefugtem Zugriff und Missbrauch.
Data Privacy
Schutz der Privatsphäre und Einhaltung datenschutzrechtlicher Vorschriften.
Big Data
Bezeichnung großer, komplexer und schnell wachsender Datenmengen, die mit herkömmlichen Methoden schwer zu verarbeiten sind. Der Begriff lässt sich anhand der „5 Vs“ aufschlüsseln: Volume (Datenmenge), Velocity (Daten-Geschwindigkeit), Variety (Datenvielfalt), Veracity (Datenrichtigkeit) und Value (Datenwert)
