Mittels Algorithmen oder händischen Analysen sollen aus großen Datenbeständen (“Big Data”), nutzbringende Informationen extrahiert und eingesetzt werden. Ziel ist es aus Daten Informationen zu schöpfen und diese zu verteilen bzw. zu vernetzen um neues Wissen zu erlangen.

Datenplattformen können den Austausch von Informationen, aber auch neue intelligente Dienste und die Automation von Verwaltungsprozessen fördern.

Die Informationsmöglichkeiten einer Stadt verbessern

Die Stadtverwaltung und öffentliche Einrichtungen bieten nützliche Informationen und Funktionen für ihre Bürger an. So soll es möglich sein für einen Standort auf einer interaktiven Karte, die genauen Öffnungszeiten, Kontaktinformationen und die geschätzte Wartezeit für Behördengänge anzuzeigen. Man könnte über eine mobile App sogar direkt einen Termin bei der Behörde vereinbaren.

Ideen für neue innovative Online-Services entwickeln

Insgesamt könnten alle öffentlichen Gebäude und Behörden auf der Karte verzeichnet werden. Bürger und Bürgerinnen können öffentliche Einrichtungen und Verwaltungsstellen der Stadt auf einer Karte über ein Formular bewerten. So kann die Stadtverwaltung die Qualität ihrer Angebote und Dienste auswerten, gezielter auf Beschwerden eingehen und ihre Leistungen punktuell verbessern. Angestellte der Verwaltung erhalten sogar ihr personalisiertes Cockpit (Dashboard) um tagesaktuelle Statistiken, Beschwerdeeingänge, Termine, Anfragen etc. zu überblicken.

Bewertungen von öffentlichen Einrichtungen und Diensten könnten auch anonymisiert abgegeben werden. Alle Bewertungen müssen vorher von einem entsprechenden Administrator der Stadt freigeschalten werden. Ein besorgter Bürger könnte ein Schlagloch auf dem Fahrradweg melden, andere Bürger aus der Nachbarschaft können dies entdecken und ebenfalls ihre Stimme laut machen damit der Schaden schnell behoben wird.

Menschen im Quartier vernetzen und Kooperationen stärken

Über öffentliche und private Chat-Kanäle können sich Bürger/innen untereinander, oder mit der Stadtverwaltung besser vernetzen. Die Kombination aus einer Karte, Suche und Chat-Möglichkeit in geschlossenen oder offenen Gruppen, ermöglicht viele neue Möglichkeiten. So können Bürger spielend leicht wie in einem offenen sozialen Netzwerk, Aktuelles aus der Stadt entdecken oder neue gemeinsame Initiativen starten.

(Behörden-)Alltag im Quartier verbessern und das Leben erleichtern

Über einen Chat-Bot können Formulare leichter und schneller angefragt bzw. heruntergeladen werden. Man könnte sogar eine automatisierte Hilfestellung anbieten um Formulare direkt auf dem Handy im Chat auszufüllen und gesichert an die Behörde zu übermitteln. Anschließend könnten sogar Termine oder Erinnerungen für einzelne Behördengänge über die App abgewickelt werden.

Nachbarschaften und Nachbarschaftshilfe im Quartier fördern

Da manche Chat-Räume öffentlich und über die Karte oder Suche schnell und einfach zu finden sind, können sich Bürger gezielt untereinander austauschen und zusammenschließen. Über die App können gemeinsame Initiativen angestoßen und organisiert werden die das Zusammenleben fördern und einen Schritt nach vorne machen um die Stadt der Zukunft mitzugestalten.

Ähnlich wie bei einem Wetterbericht können mit Hilfe der prädiktiven Analytik, mögliche Szenarien der Zukunft mit einer gewissen Wahrscheinlichkeit vorhergesagt werden. Möglicherweise möchte der Marketingleiter eines E-Commerce Shops wissen ob es sich lohnt, weiterhin Geld in eine Maßnahme oder Online-Werbekampagne zu investieren. Mit Hilfe der prädiktiven Analyse kann der Marketingleiter auf Basis vergangener Messwerte, die Erwartungen der Zukunft ein Stück weit prognostizieren. Damit hat er eine viel bessere Entscheidungsgrundlage und verringert gleichzeitig die Wahrscheinlichkeit mehr Geld zu verlieren.

Was bedeutet prädiktive Analytik und wo wird es eingesetzt?

Der Begriff “prädiktiv” beschreibt das Etwas prognostiziert, berechenbar, anbahnend bzw. vorhersehbar ist. Im lateinischen wird die Bezeichnung “prae” erwähnt, welches als Adverb “voran”,  bzw. “voraus” bedeutet [1] . Die prädiktive Analytik umfasst eine Vielzahl von statistischen Techniken aus den Bereichen Data Mining, Predictive Modeling und Machine Learning, die aktuelle und historische Fakten analysieren um Vorhersagen über zukünftige oder anderweitig unbekannte Ereignisse zu treffen.

Die prädiktive Analytik ist ein recht junger Teilbereich der Analytik und wird in vielen technologiegetriebenen Branchen eingesetzt. Eine der bekanntesten Anwendungen ist das Credit Scoring, das in allen Finanzdienstleistungen eingesetzt wird.

Zeitreihenmodelle werden zur Vorhersage oder Prognose des zukünftigen Verhaltens von Variablen verwendet

Die im Laufe der Zeit aufgenommenen Datenpunkte können interne Strukturen aufweisen die kaum vorhersehbar sind. Daher sollten Trends oder saisonale Schwankungen berücksichtigt werden. Infolgedessen können Standard-Regressionsverfahren nicht auf Zeitreihendaten angewendet werden. Dafür wurden spezielle Methoden entwickelt, um die Trend-, Saison- und Konjunkturkomponente der Serie zu zerlegen. Die Modellierung des dynamischen Pfades einer Variablen kann die Prognosen verbessern, da die vorhersehbare Komponente der Serie in die Zukunft projiziert werden kann [2].

Wie erstelle ich selbst eine prädiktive Analyse auf Basis meiner Daten?

Alteryx ist eines der bekanntesten Tools in diesem Bereich. Die Produkte des Unternehmens werden für die Datenwissenschaft und Analytik eingesetzt. Die Software wurde entwickelt, um fortgeschrittene Analysen zugänglich zu machen [3].

Das Analytics-Tool Alteryx, bietet eine kostenlose Testversion an. Die Preise für eine jährliche Lizenz starten ab ca. 5.000 Euro. Im folgenden Screenshot präsentiere ich einen Analytics-Workflow, wo Daten aus dem Facebook Werbeanzeigen Manager verwendet wurden, um wichtige KPIs wie die Click-Through-Rate, Cost-per-Click etc. vorherzusagen. Ich habe mich in meiner Zeitreihenanalyse für das ARIMA-Verfahren entschieden. ARIMA ist ein Akronym, das für Auto-Regressive-Integrated-Moving-Average steht. Es handelt sich dabei um eine Modellklasse, die eine Reihe von verschiedenen Standardzeitstrukturen in Zeitreihendaten erfasst. [4].

Workflow for predictive analytics based on arima for facebook business kpis

Die Grafik stellt den Fluss von Daten dar. Man fängt von links an zu lesen und bewegt sich nach rechts. Erstmal muss man auf einen Datensatz zugreifen, also eine “Quelle”, dazwischen kommen einige Verarbeitungsschritte bis es in eine “Senke” (Zieltabelle) zurückgeschrieben werden kann. Jeder Knotenpunkt stellt eine Operation dar. Knapp 70% meiner Zeit habe ich damit verbracht, die Daten in das richtige Format zu bekommen. Insgesamt habe ich für den Workflow knapp drei Arbeitstage benötigt. Dargestellt durch die “blauen” Knoten wird auch klar das ein Großteil des Workflows genau eben aus diesen Datenbereinigungsprozessen besteht.

Was war das Ergebnis meiner prädiktiven Analyse für die Facebook Business KPIs?

Im nachfolgenden Chart wird die Entwicklung der “CTR”, bzw. Click-Through-Rate eines Facebook Werbekontos dargestellt. Die CTR ist eine Social Media KPI, die das Verhältnis von Klicks zu Impressionen auf einer Werbeanzeige in Prozent berechnet. Die “blaue Linie” beschreibt den tatsächlichen Ist-Wert im täglichen Verlauf. Die anderen “Farben” grün, gelb, rot, orange und türkis, beschreiben mögliche Erwartungswerte basierend auf der prädiktiven Analyse. Klar, die CTR kann nicht negativ sein deswegen lassen wir die Betrachtung der “türkisen-Linie” außer Acht.

7 days forecast based on arima time series analysis and facebook ad manager click through rate

 

Wie man auf Basis einer prädiktiven Zeitreihen-Analyse Anomalien erkennen kann

Als Unternehmen ist es nicht nur wichtig Daten zu sammeln und auf einen “Haufen” zu werfen, siehe Big Data sondern eben diese Daten in Erkenntnisse umzuwandeln, siehe Smart Data. Wie oben beschrieben, kann man mit Hilfe der prädiktiven Analyse den Erwartungswert einer Kennzahl vorhersagen. Trifft diese Erwartung nicht ein, so spricht man von einer Anomalie, also einer Abweichung von der statistischen “Normalität”. In der Prüfung meiner eigenen Vorhersagen bin ich ziemlich nah an die tatsächliche Entwicklung der Kennzahl herangekommen.

time series forecast with predictive analytics based on facebook data in dashboard - abis reporting tool

Die CTR – Vorhersage hat sich als zutreffend herausgestellt. Es wurden auch einige Anomalien erkannt.

Von der prädiktiven Analyse zum intelligenten und digitalen Assistenten

Falls nun bestimmte Grenzen einer Kennzahl unter- oder überschritten werden, so kann innerhalb der Software ein intelligenter Alert ausgelöst werden. Diese Grenzen passen sich dynamisch im Laufe der Zeit je nach Erfahrungswert selbst wieder an. Der Algorithmus lernt so zu sagen selbständig mit. Dieses Prinzip kann flächendeckend auf unterschiedliche Zeitreihen und Dimensionen angewendet werden. So wäre es denkbar, eine komplette Webseite in Echtzeit zu monitoren um passive Benachrichtigungen erst dann zu erhalten, wenn sich auch wirklich etwas in den Daten ändert. Der intelligente Algorithmus übernimmt den Job es Analysten. Damit kommen wir dem Web Operating System noch einen Schritt näher. Für den Marketingleiter eine super Sache, denn damit muss er nicht mehr selbst, proaktiv in die Zahlen reinschauen. Er kann nun in Echtzeit reagieren und die Daten im Dashboard erst prüfen, wenn der digitale Analyse-Assistent interessante Vorkommnisse gemeldet hat.

 

Fazit: 

Mittels der prädiktiven Analytik kann man mit einer gewissen Wahrscheinlichkeit die Entwicklung einer Kennzahl vorhersagen und mit dem Abgleich der Ist-Werte auch Anomalien erkennen, falls der Erwartungswert nicht eintrifft. Man sollte jedoch darauf achten wie man die Parameter einstellt. Das kann von Industrie und Branche sehr unterschiedlich sein. Vor allem im Handel sind meist saisonale Schwankungen die Regel. Zum Beispiel das Kaufverhalten eines neuen Produktes vorherzusagen ist ziemlich schwer, wenn noch keine validen Erfahrungswerte vorhanden sind.

 

Quellen:

[1] http://www.enzyklo.de/Begriff/pr%C3%A4diktiv

[2] https://en.wikipedia.org/wiki/Predictive_analytics

[3] https://en.wikipedia.org/wiki/Alteryx

[4] https://machinelearningmastery.com/arima-for-time-series-forecasting-with-python/

 

data is everywhere we can just retrieve it

Der wohl wichtigste Rohstoff des 21. Jahrhunderts

Jeder kennt die Zitate aus der Presse oder den Medien.

“Daten sind das neue Gold des 21. Jahrhunderts. Du kannst Daten ohne Informationen haben aber keine Informationen ohne Daten”.

Unsere Gesellschaft diskutiert rund um das Thema Datenschutz, Privatsphäre und zeigt wie immer auf die amerikanischen Internetunternehmen wie Google und Facebook, die vor allem in Europa mit großer Skepsis betrachtet werden. Und doch, fast jeder von uns nutzt Facebook und Google täglich. Der Anteil der Nutzer aus Deutschland, die “Google” als Suchmaschine verwenden ist mit über 85% sogar beachtlich höher als in anderen Ländern. Welche Ironie?

Und dabei zählt Google zu den wertvollsten Unternehmen der Welt. Woher kommt also dieses Misstrauen zumal Google und andere Konzerne aus dem Silikon Valley doch großartiges für die Welt geschaffen haben, nämlich ein Stückchen mehr Informationszugang und das für einen “Nulltarif”.

Daten, definiert

Daten = Plural von Datum. Meist Zahlenwerte, die durch Beobachtungen oder Messungen von echten Ereignissen erhoben wurden. Die Semiotik (altgriechisch = Signal), also die Lehre von Zeichen, beschreibt Daten als potentielle Informationen. Die Basis für Daten bilden Zeichen. Laut dem semiotischen Dreieck gibt es eine fest Beziehung zwischen Zeichen bzw. Symbol, dem tatsächlichen Gegenstand und dem Begriff. Dabei steht das Symbol für ein Ding bzw. Gegenstand. Symbole erwecken bei Menschen einen Begriff der sich auf das Ding bezieht.

„Die gesprochenen Worte sind die Zeichen von Vorstellungen in der Seele und die geschriebenen Worte sind die Zeichen von gesprochenen Worten. So wie nun die Schriftzeichen nicht bei allen Menschen dieselben sind, so sind auch die Worte nicht bei allen Menschen dieselben; aber die Vorstellungen in der Rede, deren unmittelbare Zeichen die Worte sind, sind bei allen Menschen dieselben und eben so sind die Gegenstände überall dieselben, von welchen diese Vorstellungen die Abbilder sind.“ – Aristoteles, Peri hermeneias, Erstes Kapitel

Ort und Zeit Messung

Sie haben sich schon lange gefragt warum auf ihrem Ausweis ihr Geburtsort und Datum steht? Zeit und Ort bestimmen fast immer ein Ergebnis das tatsächlich stattgefunden hat. Somit können Sie als Person neben ihrem Namen und Geschlecht auch eindeutig identifiziert werden. Jedes reale Ereignis, ob es der Besuch einer Webseite ist, oder die Lieferung der letzten Amazon Bestellung. Jeder Messpunkt besitzt in der Regel immer mindestens zwei Dimensionen nämlich Zeit und Ort. Diese bestimmen ein Ereignis mehr oder weniger exakt.

data is the result of the observation of real events

Der Ursprung von Daten

Wenn Daten also immer einen Zeitpunkt und einen Ort als Merkmal haben kann man auch davon ausgehen das es Daten seit der Messung der Zeit geben muss. Die Geschichte der Zeitmessgeräte lässt sich schon bis zu den Sumerern und dem alten Ägypten zurückverfolgen. Bereits vor 3.000 Jahren vor Christus gab es Sonnenuhren die, die aktuelle Tageszeit angezeigt haben. So genau was das wohl damals noch nicht. Man sagt auch das die Zeit relativ ist also ist wohl auch die Messung an sich relativ genau.

Man unterscheidet folgende Arten von Daten:

  • Strukturierte Daten die eine gleichartige Struktur aufweisen z.B. formuliert in einem Datenmodell
  • Semistrukturierte Daten z.B. Extensible Markup Language (XML)
  • Unstrukturierte Daten bspw. Texte, Grafiken, sonstige Dokumente

Daten unterliegen wie alles einem Lebenszyklus. Dieser entspricht auch den Operationen die man auf Daten anwenden kann auch “CRUD” genannt.

“C”, steht für “create”: Diese werden erzeugt.
“R”, steht für “read/retrieve”: Diese werden gelesen oder beschaffen.
“U”, steht für “update”: Diese werden verändert bzw. angereichert.
“D”, steht für “delete”: Diese werden gelöscht.

Das Zeitalter von Big Data

Das “Daten-Kambrium”

Big Data” steht als Synonym für eine große Ansammlung von Daten mit unterschiedlicher Ausprägung. Man spricht auch von den s.g. 4 V’s also dem “Volumen”, der “Velocity” – die Zeitintervalle in denen Daten erzeugt werden, der “Variety” – der Vielfalt von unterschiedlichen Datenquellen und der “Veracity” – also dem Wahrheitsgehalt der in den Daten vorhanden ist.

In den kommenden Jahren soll sich laut der “IDC” die weltweit, jährlich erzeugte Datenmengen vor allem auf Grund von Sensordaten nochmal verzehnfachen. Unternehmen haben heute schon Probleme mit ihren vorhandenen Datenmengen richtig umzugehen. Wie soll das in Zukunft dann aussehen?

Smart Data soll das Datenchaos in den Griff bekommen

Wie kommt man von Big Data zu Smart Data? Mittels Algorithmen oder händischen Analysen können aus unterschiedlichen Datenmengen wertvolle Informationen extrahiert werden. Die Informationen die aus einer Analyse resultieren nennt man Smart Data. Ein Beispiel für Smart Data ist zum Beispiel “Google Trends”. Aus vielen Suchanfragen die weltweit erzeugt werden kann man mittels Google Trends schnell feststellen wie sich diese entwickelt haben. Mit Google Trends bekommt man nicht nur die Rohdaten, sondern erhält direkt die Information.

Smart Data Initiativen sind im vollen Gange. Die Bundesregierung selbst hat viele Programme z.B. das “Smart Data Forum”, dafür eingeleitet. Smart Data ist von großer Bedeutung, da es den Weg für eine künstliche Intelligenz ebnet.

Quellen:
https://smartdataforum.de/en/
https://seo-summary.de/suchmaschinen/
https://de.wikipedia.org/wiki/Semiotik

Literatur:
Daten- und Wissensmanagement (Prof. Dr. Freimut Bodendorf)

 

without smart data there is no ai

»Smart Data bereitet den Weg für die künstliche Intelligenz.«

Jeder spricht heutzutage von Big Data, aber was heißt das eigentlich? Big Data ist ein Begriff der sich vor allem durch die Entwicklung des Internets stark verbreitet hat, doch die wenigsten wissen was das wirklich ist.

Big Data definiert

“Big Data”, steht als Synonym für große Datenmengen. Die Daten können unstrukturiert und verteilt sein und deuten auf eine vielfältige Anhäufung von unterschiedlichen Datenquellen hin. Was Big Data ausmacht sind die so genannten 4 V’s, diese stehen für:

Volume – Volumen: Es werden z.B. auch durch soziale Netzwerke enorme Datenmengen erzeugt.
Velocity – Geschwindigkeit: Es werden immer schneller neue Daten erzeugt sogar millisekündlich.
Variety – Vielfalt: Mehr Datenquellen z.B. Sensoren, Mobile Geräte, Cloud, ERP, CRM etc.
Veracity – Wahrheitsgehalt: Liegt die gewünschte Datenqualität vor bzw. sind die Messwerte korrekt?

 

forecast about the data volume increase until 2025

Grafik-Quelle: IDC. 1 ZB entsprechen ungefähr so viele Informationen wie es Sandkörner an allen Stränden der Welt gibt.

Wir leben im “Daten-Kambrium”

Seit der Entwicklung des Buchdrucks steigen die weltweiten Datenmengen rasant an. Laut der “IDC” sollen sich die weltweiten Datenmengen in den kommenden 5 Jahren, vor allem durch Sensordaten verzehnfachen. Wir leben in einer sehr spannenden Zeit. In den kommenden Jahren werden mit Internet-of-Things, E-Mobility, Industrie 4.0 und Smart City neue Datenquellen entstehen.

Was Smart Data damit zu Tun hat

Was ist Smart Data? Folgendes Zitat bringt es gut auf den Punkt.

“Ziel ist es, Daten in Informationen und Informationen in Wissen zu verwandeln” – Carly Fiorina (ehemalige CEO von HP)

Wir leben in einer Zeit der “Reiz- und Informationsüberflutung”. Wir haben sehr viele Daten und doch wissen wir eigentlich fast nichts darüber. Wir sind uns gar nicht mehr sicher was richtig oder falsch ist, siehe “Fake-News”. Umso wichtiger wird es in Zukunft werden, dass jeder Mensch kostenlos auf “fundiertes Wissen” mit Hilfe von intelligenten Computern zugreifen kann. Das war ja die ursprüngliche Idee des Internets, eine Wissensdatenbank die validiert ist und Fakten aufzeigt, anstatt politischen Meinungsmachern zu dienen.

Aus Symbolen kann Wissen entstehen

Die Lehre von Zeichen auch “Semiotik” beschreibt es ganz gut. Wir Menschen sehen Zeichen (Signale) in unserer Umwelt, die wir durch die Erfahrungen und auf Grund der Ordnung der Dinge zu deuten wissen. Die Wissenspyramide hilft beim Verständnis und ist ein vereinfachtes Modell das beschreibt wie aus der Bedeutung von Zeichen (Semantik), Wissen entsteht. Es ist ein wesentlicher Grundsatz der Wissenschaft die Informationen und Daten zu teilen die man zur Verfügung hat um daraus neues Wissen zu schaffen.

Wie kommt man von Big Data zu Smart Data?

Big Data kann als Rohstoff von Smart Data gesehen werden. Das Ziel von Smart Data ist es, sinnvolle und verwertbare Informationen einzusetzen. Dies kann mittels folgender Formel auch grob beschrieben werden: Smart Data = Big Data + Nutzen + Semantik + Datenqualität + Sicherheit + Datenschutz. Es geht also um nutzbringende, hochwertige und abgesicherte Daten.

 

smart data is the extraction of information gained from big data

 

Was Smart Data für die Zukunft bedeutet

Daten und Informationen sind reichlich vorhanden, doch “smart” sind sie noch lange nicht. Wenn man die Entwicklung und Entstehung des Internets näher betrachtet wird man feststellen wo die Reise auch künftig hingehen wird. Derzeit befinden wir uns am Ende des Web 3.0, dem semantischen Web. Google leitet mit seinem digitalen AI-basierten Assistenten “Duplex” eine neue Ära des Internets ein. Das so genannte Web 4.0 auch Web OS- Web Operating System genannt.

Dieses Zeitalter des Internet wird geprägt durch intelligente Maschinen und Assistenten, die viel enger mit den Menschen auf natürlicher Ebene kommunizieren, als wir es uns heute überhaupt vorstellen können. Was wir bereits in vielen “Science-Fiction-Filmen” gesehen haben, rückt immer näher. Es liegt nun an uns die neuen Technologien mit den Werten und Normen der Gemeinschaft zu vereinen.

Quellen:

https://smartdataforum.de/en/

https://de.wikipedia.org/wiki/Smart_Data

https://www.seagate.com/files/www-content/our-story/trends/files/idc-seagate-dataage-whitepaper.pdf

https://de.wikipedia.org/wiki/Semiotik

Wie das Münchner Startup DBI Analytics GmbH mit ihrer cloudbasierten Smart Data Plattform ABIS, die perfekte kollaborative Datenlösung für Unternehmen liefern möchte.

Der Begriff Digitalisierung steht ganz oben auf der Agenda der deutschen Politiker und während, die Repräsentanten des Volkes noch so manche Definition auf ganz unterschiedliche Art und Weise gebrauchen, oder diese versuchen zu erklären, macht ein Münchner Start-Up Nägel mit Köpfen. Das Team der DBI Analytics GmbH möchte mit ihrer kollaborativen Smart Data Plattform ABIS, „Smart Data“, vor allem für klein- bis mittelständische Unternehmen einfacher in der Cloud zugänglich machen, so der Gründer und Geschäftsführer David Patrick Chang.

Unter dem Motto: „Komplexe Datenanalysen vereinfachen, relevante Informationen teilen und entdecken“, startete das Münchner Unternehmen im Frühjahr 2014 seine Mission. Im Frühjahr 2018 gelang es dem dreiköpfigen Entwicklerteam den ersten lauffähigen Prototypen der ABIS Analytics Cloud in den Pilotbetrieb zu nehmen. Derzeit arbeitet das Team an der Markteinführung der ersten Softwareversion, “ABIS OS Alpha”. Das Unternehmen DBI erkannte bereits frühzeitig ein enormes Potential für ihre Technologie und möchte sich als robuste Datenlösung aus Deutschland für die Digitalisierung des Mittelstands aufstellen.

“Daten sind der neue Treibstoff des 21. Jahrhunderts. Allerdings denkt jeder, der nicht mit dem Thema vertraut ist, sofort an umständliche IT-Strukturen und teure Prozesse”, so der Mitgründer Daniel Janz. Hier will sich das Team der DBI mit ihrer Smart Data Plattform ABIS platzieren und Aufklärung leisten, denn bei allen Unternehmen, wie auch bei Behörden werden tagtäglich immer höhere Datenmengen erzeugt. Sowohl offline als auch online. Im Austausch mit lokalen Unternehmen, sieht die DBI, dass Daten immer noch nicht optimal eingesetzt werden. „Es gibt noch sehr viel Potential für den Einsatz von Daten in der Verwaltung, dem Handel und der Industrie”, so der Firmengründer David Patrick Chang.

„Eine intelligente Datenanalyse fängt bei der laufenden Messung der Marketingkanäle an und hört beim automatischen Abgleich der Lieferdaten auf“, erklärt der CTO Daniel Janz. Die DBI Analytics GmbH möchte mit ihrem cloudbasierten Applikationsbaukasten vor allem klein- bis mittelständischen Unternehmen dabei helfen, ihre Daten einfacher, kosteneffizienter und schneller auszuwerten. „Intelligente Assistenten sollen mit Hilfe künstlicher Intelligenz bei der Interpretation von Unternehmensdaten unterstützen. Auf Anfrage kann die Plattform eine Echtzeitanalyse des Betriebs vornehmen und dabei helfen, ineffiziente Prozesse aufzudecken und Optimierungsmaßnahmen vorschlagen“, prognostiziert das Gründerteam.

Hierfür stellt die DBI für Unternehmen, schlüsselfertige Datenapplikationen, und passgenaue Entwicklungs-dienste bereit. Jeder Datenbesitzer hat die volle Kontrolle über den Ablageort und den sicheren Transfer seiner Datensätze. Zudem kann jeder Nutzer über sein personalisiertes Cockpit und einer integrierten Chat-Funktion, einen direkten Dialog über Kennzahlen, Daten und Auswertungen mit Kollegen, Kunden, oder Partnern führen. Es ließen sich in naher Zukunft sogar rechtsgültige Geschäfte mittels der Blockchain-Technologie über die Plattform abbilden. So kann sich, laut den Gründern ein zuverlässiges und föderalisiertes Datennetzwerk zwischen Unternehmen und sogar Behörden etablieren.

Als erste Smart Data Applikation auf der Plattform, kann die Socialmedia Piraten Reporting App, Kennzahlen aus den sozialen Netzwerken in einer einheitlichen Datenbasis aggregieren und für das Online-Performance-Marketing über die ABIS Analytics Cloud zur Verfügung stellen. Die DBI plant weitere Kooperationsprojekte in den Bereichen Umweltdaten, Internet-of-Things und Industrie 4.0 aufzubauen.

Smart Data and Analytics Cloud platform

“Smart Data” Begriff definiert

Mittels automatisierter Verfahren oder Algorithmen werden aus großen Datenmengen (“Big Data”) relevante Informationen extrahiert. Ein Unternehmen verfolgt meist das Ziel aus Big Data, wichtige Erkenntnisse in Echtzeit zu generieren. Smart Data wird im Zuge der digitalen Transformation für Unternehmen und die Gesellschaft eine immer größere Rolle spielen. Mehr darüber unter: https://www.bmwi.de/Redaktion/DE/Artikel/Digitale-Welt/smart-data.html

 

Über die DBI Analytics GmbH:

Die DBI wurde im Mai 2014 nach einem erfolgreichen Digitalprojekt mit E.ON von dem Gründer David Chang ins Leben gerufen. Im Sommer 2016 startete die technische Entwicklung der ABIS Analytics Cloud mit dem Mitgründer Daniel Janz.

Ein Jahr später konnte ein Prototyp in den Testbetrieb genommen werden. Die Entwicklung der ersten Testversion wurde im Herbst 2018 und mit Unterstützung des Frontend-Designers Christopher Matt erfolgreich abgeschlossen. Das Team hat die Produktentwicklung ohne Investment aus eigener Kraft gemeistert. Derzeit befindet sich das Cloud Analytics Betriebssystem ABIS OS Alpha in der Markteinführungsphase. Dabei unterstützt Maximilian Anzile für die Pressearbeit und den Aufbau von neuen Kontakten zur Wirtschaft und Industrie.

 

Weiterer Ausblick:

Die DBI plant ab Mitte des Jahres, öffentlich zugängliche, regionale Umweltdaten an ihre Datenplattform anzuschließen und über eine interaktive Weltkarte unter dem Motto, “Daten aus der Region erleben” frei zur Verfügung zu stellen. Zudem arbeitet die DBI mit einem Online-Shop aus Kaufbeuren zusammen. Dieser bietet handgemachte traditionelle Schmuckware aus der Region an. Die DBI plant weitere Kooperationsprojekte in den Bereichen Umweltdaten, Internet-of-Things und Industrie 4.0 aufzubauen.

Das vierköpfige Team ist davon überzeugt, dass “Smart Data” im Zuge der Digitalisierung, für alle Unternehmen immer wichtiger wird. Das Team der DBI schafft eine technische Basis um komplexe Datenauswertungen mit Hilfe digitaler Kollaboration und durch assistenten-gestützte Analyseservices für Mitarbeiter mittels der Cloud zu ermöglichen.

Der Firmengründer David Chang hält Ende Januar ein Webinar auf der Bitkom Akademie zum Thema “Von Smart Data zu Big Data”.

https://www.bitkom-akademie.de/seminare/digitale-transformation/von-big-data-zu-smart-data-%E2%80%93-effizienter-und-schneller-handeln