Datenplattformen können den Austausch von Informationen, aber auch neue intelligente Dienste und die Automation von Verwaltungsprozessen fördern.

Die Informationsmöglichkeiten einer Stadt verbessern

Die Stadtverwaltung und öffentliche Einrichtungen bieten nützliche Informationen und Funktionen für ihre Bürger an. So soll es möglich sein für einen Standort auf einer interaktiven Karte, die genauen Öffnungszeiten, Kontaktinformationen und die geschätzte Wartezeit für Behördengänge anzuzeigen. Man könnte über eine mobile App sogar direkt einen Termin bei der Behörde vereinbaren.

Ideen für neue innovative Online-Services entwickeln

Insgesamt könnten alle öffentlichen Gebäude und Behörden auf der Karte verzeichnet werden. Bürger und Bürgerinnen können öffentliche Einrichtungen und Verwaltungsstellen der Stadt auf einer Karte über ein Formular bewerten. So kann die Stadtverwaltung die Qualität ihrer Angebote und Dienste auswerten, gezielter auf Beschwerden eingehen und ihre Leistungen punktuell verbessern. Angestellte der Verwaltung erhalten sogar ihr personalisiertes Cockpit (Dashboard) um tagesaktuelle Statistiken, Beschwerdeeingänge, Termine, Anfragen etc. zu überblicken.

Bewertungen von öffentlichen Einrichtungen und Diensten könnten auch anonymisiert abgegeben werden. Alle Bewertungen müssen vorher von einem entsprechenden Administrator der Stadt freigeschalten werden. Ein besorgter Bürger könnte ein Schlagloch auf dem Fahrradweg melden, andere Bürger aus der Nachbarschaft können dies entdecken und ebenfalls ihre Stimme laut machen damit der Schaden schnell behoben wird.

Menschen im Quartier vernetzen und Kooperationen stärken

Über öffentliche und private Chat-Kanäle können sich Bürger/innen untereinander, oder mit der Stadtverwaltung besser vernetzen. Die Kombination aus einer Karte, Suche und Chat-Möglichkeit in geschlossenen oder offenen Gruppen, ermöglicht viele neue Möglichkeiten. So können Bürger spielend leicht wie in einem offenen sozialen Netzwerk, Aktuelles aus der Stadt entdecken oder neue gemeinsame Initiativen starten.

(Behörden-)Alltag im Quartier verbessern und das Leben erleichtern

Über einen Chat-Bot können Formulare leichter und schneller angefragt bzw. heruntergeladen werden. Man könnte sogar eine automatisierte Hilfestellung anbieten um Formulare direkt auf dem Handy im Chat auszufüllen und gesichert an die Behörde zu übermitteln. Anschließend könnten sogar Termine oder Erinnerungen für einzelne Behördengänge über die App abgewickelt werden.

Nachbarschaften und Nachbarschaftshilfe im Quartier fördern

Da manche Chat-Räume öffentlich und über die Karte oder Suche schnell und einfach zu finden sind, können sich Bürger gezielt untereinander austauschen und zusammenschließen. Über die App können gemeinsame Initiativen angestoßen und organisiert werden die das Zusammenleben fördern und einen Schritt nach vorne machen um die Stadt der Zukunft mitzugestalten.

wenn intelligente analysebots die aufgaben eines datenanalysten übernehmen

Intelligente Analysebots könnten Daten bald selbständig auswerten und an Mitarbeiter kommunizieren

Laut einer Studie der IDC, soll sich die jährlich erzeugte Datenmenge, bis 2025 verzehnfachen. Viele mittelständische Unternehmen ersticken bereits jetzt, in einer Flut von Daten. Überall fehlen Fachkräfte und Analysten. Wer soll das enorme Potential von Daten überhaupt noch heben? Das Berichtswesen und die Datenanalyse werden immer zeitaufwendiger, die Kosten steigen.

Ein Abteilungsleiter einer Marketingagentur investiert fast 30% seiner Zeit, Auswertungen zu erstellen, Daten zu interpretieren, oder wichtige Erkenntnisse ad hoc an Kollegen weiterzuleiten. Gleichzeitig ist die Kommunikation von Kennzahlen und Auswertungen oft mühsam. Vor allem wenn komplexe Berichte von Mitarbeitern oder Kunden, ohne fachliche Vorkenntnisse, nicht ohne weiteres verstanden werden.

Ein Startup aus München arbeitet bereits an der Vision

In ABIS übernehmen intelligente Analysebots, die komplexen Aufgaben eines Datenanalysten. Damit müssen Mitarbeiter ihre Daten nicht mehr selbst laufend auswerten um aktuelle Ergebnisse zu erhalten. Bei signifikanten Vorfällen erstellt der Analysebot selbständig, einen leicht verständlichen Bericht, der dann an die verantwortliche Person kommuniziert wird.

Mitarbeiter können ihren Analysebots, ad hoc Auswertungen zuweisen und erhalten blitzschnell ein Ergebnis. Der Mitarbeiter bekommt ein automatisiertes Reporting auf Knopfdruck oder Zuruf. Zudem könnte ein Analysebot die Erhöhung eines Werbebudgets in sozialen Netzwerken vorschlagen, da diese sich womöglich, positiv auf die Ergebnisse einer Kampagne auswirken könnte. Der Mitarbeiter hat nun die Möglichkeit mit ABIS die vorgeschlagene Maßnahme direkt in Auftrag zu geben.

Smart Data City App München

Zu den beiden Firmengründern

Die Gründer David Patrick Chang und Daniel Janz sind überzeugte Datenaktivisten. Sie haben während ihrer Tätigkeit in Konzernen und mittelständischen Unternehmen bereits früh erkannt, dass Daten und Informationen ein wertvolles Allgemeingut sind und nicht einfach Wenigen überlassen werden sollten. Daten können Menschen dazu bewegen umzudenken. Aus diesem Grund möchten die Gründer die Daten-Demokratisierung weiter vorantreiben. Mehr erfahrt ihr hier 🙂

founder of abis cloud

 

 

Ähnlich wie bei einem Wetterbericht können mit Hilfe der prädiktiven Analytik, mögliche Szenarien der Zukunft mit einer gewissen Wahrscheinlichkeit vorhergesagt werden. Möglicherweise möchte der Marketingleiter eines E-Commerce Shops wissen ob es sich lohnt, weiterhin Geld in eine Maßnahme oder Online-Werbekampagne zu investieren. Mit Hilfe der prädiktiven Analyse kann der Marketingleiter auf Basis vergangener Messwerte, die Erwartungen der Zukunft ein Stück weit prognostizieren. Damit hat er eine viel bessere Entscheidungsgrundlage und verringert gleichzeitig die Wahrscheinlichkeit mehr Geld zu verlieren.

Was bedeutet prädiktive Analytik und wo wird es eingesetzt?

Der Begriff “prädiktiv” beschreibt das Etwas prognostiziert, berechenbar, anbahnend bzw. vorhersehbar ist. Im lateinischen wird die Bezeichnung “prae” erwähnt, welches als Adverb “voran”,  bzw. “voraus” bedeutet [1] . Die prädiktive Analytik umfasst eine Vielzahl von statistischen Techniken aus den Bereichen Data Mining, Predictive Modeling und Machine Learning, die aktuelle und historische Fakten analysieren um Vorhersagen über zukünftige oder anderweitig unbekannte Ereignisse zu treffen.

Die prädiktive Analytik ist ein recht junger Teilbereich der Analytik und wird in vielen technologiegetriebenen Branchen eingesetzt. Eine der bekanntesten Anwendungen ist das Credit Scoring, das in allen Finanzdienstleistungen eingesetzt wird.

Zeitreihenmodelle werden zur Vorhersage oder Prognose des zukünftigen Verhaltens von Variablen verwendet

Die im Laufe der Zeit aufgenommenen Datenpunkte können interne Strukturen aufweisen die kaum vorhersehbar sind. Daher sollten Trends oder saisonale Schwankungen berücksichtigt werden. Infolgedessen können Standard-Regressionsverfahren nicht auf Zeitreihendaten angewendet werden. Dafür wurden spezielle Methoden entwickelt, um die Trend-, Saison- und Konjunkturkomponente der Serie zu zerlegen. Die Modellierung des dynamischen Pfades einer Variablen kann die Prognosen verbessern, da die vorhersehbare Komponente der Serie in die Zukunft projiziert werden kann [2].

Wie erstelle ich selbst eine prädiktive Analyse auf Basis meiner Daten?

Alteryx ist eines der bekanntesten Tools in diesem Bereich. Die Produkte des Unternehmens werden für die Datenwissenschaft und Analytik eingesetzt. Die Software wurde entwickelt, um fortgeschrittene Analysen zugänglich zu machen [3].

Das Analytics-Tool Alteryx, bietet eine kostenlose Testversion an. Die Preise für eine jährliche Lizenz starten ab ca. 5.000 Euro. Im folgenden Screenshot präsentiere ich einen Analytics-Workflow, wo Daten aus dem Facebook Werbeanzeigen Manager verwendet wurden, um wichtige KPIs wie die Click-Through-Rate, Cost-per-Click etc. vorherzusagen. Ich habe mich in meiner Zeitreihenanalyse für das ARIMA-Verfahren entschieden. ARIMA ist ein Akronym, das für Auto-Regressive-Integrated-Moving-Average steht. Es handelt sich dabei um eine Modellklasse, die eine Reihe von verschiedenen Standardzeitstrukturen in Zeitreihendaten erfasst. [4].

Workflow for predictive analytics based on arima for facebook business kpis

Die Grafik stellt den Fluss von Daten dar. Man fängt von links an zu lesen und bewegt sich nach rechts. Erstmal muss man auf einen Datensatz zugreifen, also eine “Quelle”, dazwischen kommen einige Verarbeitungsschritte bis es in eine “Senke” (Zieltabelle) zurückgeschrieben werden kann. Jeder Knotenpunkt stellt eine Operation dar. Knapp 70% meiner Zeit habe ich damit verbracht, die Daten in das richtige Format zu bekommen. Insgesamt habe ich für den Workflow knapp drei Arbeitstage benötigt. Dargestellt durch die “blauen” Knoten wird auch klar das ein Großteil des Workflows genau eben aus diesen Datenbereinigungsprozessen besteht.

Was war das Ergebnis meiner prädiktiven Analyse für die Facebook Business KPIs?

Im nachfolgenden Chart wird die Entwicklung der “CTR”, bzw. Click-Through-Rate eines Facebook Werbekontos dargestellt. Die CTR ist eine Social Media KPI, die das Verhältnis von Klicks zu Impressionen auf einer Werbeanzeige in Prozent berechnet. Die “blaue Linie” beschreibt den tatsächlichen Ist-Wert im täglichen Verlauf. Die anderen “Farben” grün, gelb, rot, orange und türkis, beschreiben mögliche Erwartungswerte basierend auf der prädiktiven Analyse. Klar, die CTR kann nicht negativ sein deswegen lassen wir die Betrachtung der “türkisen-Linie” außer Acht.

7 days forecast based on arima time series analysis and facebook ad manager click through rate

 

Wie man auf Basis einer prädiktiven Zeitreihen-Analyse Anomalien erkennen kann

Als Unternehmen ist es nicht nur wichtig Daten zu sammeln und auf einen “Haufen” zu werfen, siehe Big Data sondern eben diese Daten in Erkenntnisse umzuwandeln, siehe Smart Data. Wie oben beschrieben, kann man mit Hilfe der prädiktiven Analyse den Erwartungswert einer Kennzahl vorhersagen. Trifft diese Erwartung nicht ein, so spricht man von einer Anomalie, also einer Abweichung von der statistischen “Normalität”. In der Prüfung meiner eigenen Vorhersagen bin ich ziemlich nah an die tatsächliche Entwicklung der Kennzahl herangekommen.

time series forecast with predictive analytics based on facebook data in dashboard - abis reporting tool

Die CTR – Vorhersage hat sich als zutreffend herausgestellt. Es wurden auch einige Anomalien erkannt.

Von der prädiktiven Analyse zum intelligenten und digitalen Assistenten

Falls nun bestimmte Grenzen einer Kennzahl unter- oder überschritten werden, so kann innerhalb der Software ein intelligenter Alert ausgelöst werden. Diese Grenzen passen sich dynamisch im Laufe der Zeit je nach Erfahrungswert selbst wieder an. Der Algorithmus lernt so zu sagen selbständig mit. Dieses Prinzip kann flächendeckend auf unterschiedliche Zeitreihen und Dimensionen angewendet werden. So wäre es denkbar, eine komplette Webseite in Echtzeit zu monitoren um passive Benachrichtigungen erst dann zu erhalten, wenn sich auch wirklich etwas in den Daten ändert. Der intelligente Algorithmus übernimmt den Job es Analysten. Damit kommen wir dem Web Operating System noch einen Schritt näher. Für den Marketingleiter eine super Sache, denn damit muss er nicht mehr selbst, proaktiv in die Zahlen reinschauen. Er kann nun in Echtzeit reagieren und die Daten im Dashboard erst prüfen, wenn der digitale Analyse-Assistent interessante Vorkommnisse gemeldet hat.

 

Fazit: 

Mittels der prädiktiven Analytik kann man mit einer gewissen Wahrscheinlichkeit die Entwicklung einer Kennzahl vorhersagen und mit dem Abgleich der Ist-Werte auch Anomalien erkennen, falls der Erwartungswert nicht eintrifft. Man sollte jedoch darauf achten wie man die Parameter einstellt. Das kann von Industrie und Branche sehr unterschiedlich sein. Vor allem im Handel sind meist saisonale Schwankungen die Regel. Zum Beispiel das Kaufverhalten eines neuen Produktes vorherzusagen ist ziemlich schwer, wenn noch keine validen Erfahrungswerte vorhanden sind.

 

Quellen:

[1] http://www.enzyklo.de/Begriff/pr%C3%A4diktiv

[2] https://en.wikipedia.org/wiki/Predictive_analytics

[3] https://en.wikipedia.org/wiki/Alteryx

[4] https://machinelearningmastery.com/arima-for-time-series-forecasting-with-python/

 

Vor allem in Zeiten einer schwächelnden Konjunktur ist es für den Fortbestand eines Unternehmens unerlässlich eine Kostenanalyse zu betreiben. Mit einer umfangreichen Kostenanalyse können Kostentreiber und Einsparungspotentiale identifiziert werden. Hierbei sollte man nicht den Fehler machen, durch falsche Budgetkürzungen das Geschäft zurückzubauen. Für viele Unternehmen ist und bleibt die Kostenanalyse eine Gratwanderung.

Mit der Kosten-Nutzen-Analyse überflüssige Ausgaben erkennen

Bei dieser Analyse werden die Kosten und der entsprechende Nutzen miteinander verglichen. Dabei wird häufig eine zu erwartende Zielgröße einem Geldeinsatz gegenübergestellt. Im weitesten Sinne spricht man auch vom Return-on-Investment (ROI). Beim ROI wird die Profitabilität einer Investition gemessen.

Die Gedankengänge sind ähnlich, wenn man betrachtet wie viel Geld ein Mitarbeiter erwirtschaftet hat oder wie viel Zeiteinsparung eine Softwarelizenz für die Arbeitseffizienz bringt. Grundlegend ist es meist schwer zu sagen wie viel Einfluss denn nun ein Mitarbeiter auf die Gesamtleistung eines Unternehmens hat. Vielleicht sieht man den direkten Nutzen einer Arbeit auch erst wenn der entsprechende Mitarbeiter nicht mehr im Unternehmen ist? Klar ist, die Kosten zu ermitteln und auf einzelne Positionen aufzuschlüsseln ist relativ einfach. Den Nutzen aber direkt zuzuordnen nicht.

Big Data Analytics hilft bei der Bewertung des tatsächlichen Nutzens

Der Schlüssel für eine erfolgreiche Kostenanalyse, liegt in der Erhebung von quantitativen Messgrößen und deren regelmäßige Auswertung. In folgendem Artikel befinden sich die nötigen Schritte um eine Kostenanalyse zu erstellen. Wir beschäftigen uns primär nicht mit dem zu erwartenden Gewinn, sondern vielmehr mit Faktoren und Kennzahlen, die helfen können den tatsächlichen Nutzen einer Ausgabe zu ermitteln.

Es geht erstmal darum die richtigen Messgrößen zu definieren, an den relevanten Stellen zu erheben und auszuwerten.

Ein paar Beispiele für Performance-Kennzahlen:

  • Umsatz pro Mitarbeiter: Vor allem im Vertrieb eine nützliche Kennzahl um zu ermitteln wie viel Umsatz ein Mitarbeiter generiert hat. Die Kennzahl kann aber auch über den gesamten Jahresumsatz / Anzahl der Mitarbeiter berechnet werden.
  • Marketing ROI (ROMI): Errechnet sich aus den Werbeausgaben, zum Beispiel nach Plattform aufgeschlüsselt. Man möchte wissen, welche Werbeausgaben an welchen Platzierungen, wie viele Abschlüsse und welche Abschlusswerte erzielt haben. Zum Tracking dieser Kennzahlen kann ein Webanalyse Tool eingesetzt werden.
  • EBIT – Earnings before interest and taxes pro Mitarbeiter: Der EBIT ist der Gewinn vor Steuern und wird meist zu Ende eines Jahres berechnet, kann aber auch während des Jahres laufend berechnet und ausgewertet werden. Das geschieht meist auf monatlicher Basis. Wenn man nun wissen möchte wie viel Gewinn ein Mitarbeiter im Durchschnitt erwirtschaftet so kann man dies wie folgt berechnen. EBIT / Anzahl der Mitarbeiter = Erwirtschafteter Gewinn pro Mitarbeiter

Um dies überhaupt erst zu ermöglichen müssen die korrekten Kennzahlen aus dem Unternehmen gemessen und analysiert werden. Dies kann sich von einem Spreadsheet, welches ein Mitarbeiter am Ende eines Tages ausfüllt bis hin zu einem automatisierten und komplexen Tracking-Verfahren erstrecken. Es gilt immer abzuwägen was im Rahmen einer Messung für Aufwand sinnvoll ist denn selbst hier muss der Nutzen klar abgewogen werden.

Binden Sie ihre Mitarbeiter in den Vorgang der Kostenanalyse mit ein und schaffen Sie Transparenz

Die Mitarbeiter sind das Gold Ihres Unternehmens. Gleichzeitig nehmen die Personalkosten meist auch den höchsten Kostenanteil ein. Keiner möchte Schwächen preisgeben oder gar seinen Arbeitsplatz verlieren. Als Führungskraft sollten Sie daher sehr vorsichtig mit dem Thema umgehen denn demotivierte und gar in der Luft hängende Mitarbeiter bringen nur Unruhe in den Betrieb und sorgen dafür das eine “Ellenbogen-Atmosphäre” aufkommt.

team play is important for mastering crisis in companies

Gemeinsam als Team kann man Krisen besser meistern

Sorgen Sie dafür das ihre Mitarbeiter selbst Vorschläge zur Messung von Kennzahlen zur Bewertung der Kosten und des Nutzens mitbringen. Es kann sogar sein das ihre Mitarbeiter Ideen mitbringen an die sie selbst gar nicht gedacht hatten. Der nötige Respekt und die Transparenz sorgen dafür, das sich Mitarbeiter aktiv in diesen komplexen Prozess einbinden. Am Ende entscheidet das Team was wichtig und relevant ist. So kann jedes Unternehmen eine Krise meistern.

Mit einem Social Business Intelligence Tool können Auswertungen Spaß machen

Social Business Intelligence bindet ihre Mitarbeiter da ein wo die Analyse stattfindet. Gleichzeitig kann mit dem Faktor “social”, wie in einem sozialen Intranet gemeinsam über Ausgaben diskutiert werden um kollektive Entscheidungen zu treffen, die von allen Mitarbeitern mitgetragen und mitbestimmt werden können.

data driven marketing dashboards on smartphone with group of people

Business Intelligence Lösung der ABIS Analytics Cloud für die Kostenanalyse einsetzen – Hier mehr erfahren

Was ist die TDWI Konferenz überhaupt?

Auf der TDWI Konferenz in München treffen sich einmal im Jahr die größten Spieler der Data Analytics und Business Intelligence Branche um sich über aktuelle Themen und Trends im dem Umfeld auszutauschen. Die Konferenz wird vom TDWI-Verein organisiert. Der Verein ist einer der größten Business-Intelligence-Wissensplattformen und Netzwerke in Europa.

Dieser hat über 6.000 Mitglieder weltweit und allein in Deutschland 1.200 Mitglieder. Das Format stammt ursprünglich aus den USA und hat in Europa seinen Siegeszug fortgesetzt. Seit 15 Jahren treffen sich BI-Experten, BI-Projektleiter, Leiter BICC, Business & Data Analysts und Consultants auf der TDWI Konferenz um sich fachlich auszutauschen, das Netzwerk zu erweitern und voneinander zu lernen. Auch dieses Jahr gab es wieder spannende Vorträge zu Analytics, Machine Learning, AI, Data Science, Cloud, Digitalisierung, IoT u.v.m.

 

Der BI-Markt wächst das spürt man auch auf der TDWI-Konferenz

Der Business Intelligence Markt wächst laut einer Erhebung der Stratistics MRC jedes Jahr um durchschnittlich 11%. Bis Ende des Jahres 2022 soll dieser einen jährlichen Umsatz von weltweit knapp 30 Mrd. US-Dollar erreichen. Diese Euphorie ist auch auf der TDWI-Konferenz in München deutlich zu spüren. Jedes Jahr kommen mehr Besucher und Formate dazu. Mit Trendthemen wie künstliche Intelligenz, Cloud Analytics und Hackathons konnte die Konferenz deutlich punkten. Es ging primär darum, gemeinsam zu lernen und nicht nur seine Produkte zu vermarkten.

Rick van der Lans Vortrag zum Thema Big SQL Lösungen

SQL lebt, sei kein stumpfer Nachläufer

Besonders gut haben mir die Vorträge von Rick van der Lans gefallen. Die Themen erstreckten sich von Datenvirtualisierung, Big SQL Lösungen bis hin zur Datenarchitektur. Im Konsens bestand seine witzige Art und Weise, die Dinge perfekt und verständlich zu erklären darin, nicht allen neuen Trends hinterher zu laufen, sondern hinter die Kulissen zu schauen und fachlich an guten Konzepten zur Datenmodellierung bzw. Architektur zu arbeiten. Am Ende seien die meisten Technologien auch nur weitere Instrumente um grundlegende Probleme zu lösen. Angefangen bei der Anforderungsanalyse bis hin zur Umsetzung eines Business Intelligence, oder Big Data Projektes kann entweder alles kompliziert oder pragmatisch gelöst werden. Viele weitere spannende Vorträge aus dem TDWI Programm in 2019 haben gezeigt was möglich ist und was getan werden kann um BI-Projekte erfolgreich umzusetzen.

Rick van der Lans zum Thema Big Data Architektur am letzten Tag der Konferenztages

Vor allem Spaß soll es auf der TDWI-Konferenz in München machen

Das ist das Motto der Young Guns. Die Young Guns sind eine Initiative des TDWI e.V. um auch die junge Generation von dem Thema Business Intelligence zu begeistern. Wer bei den Young Guns und dem Verein Mitglied ist profitiert von tollen Networking Events und einem fundierten Expertenaustausch. Regelmäßig werden neue Veranstaltungen geplant und das in der gesamten DACH-Region. Als Neuankömmling der Young Guns freue ich mich gemeinsam mit den Kollegen den Raum München zu repräsentieren und den Verein zu unterstützen.

An dem Stand der Young Guns wurde Mario Cart gespielt :-)

Fazit zur TDWI Konferenz 2019 in München

Es hat sich auf jeden Fall gelohnt dabei zu sein und sich mit der kleinen aber feinen Business-Intelligence-Gemeinschaft zu vernetzen. Viele spannende Fachvorträge sehr viel Wissenstransfer und die besten Kontakte aus der Branche sind mein Fazit zur Konferenz. Ich werde auch nächstes Jahr gerne wieder teilnehmen und eventuell in den kommenden Jahren vielleicht sogar selbst Fachvorträge halten und die Besucher mit spannenden Themen aus der Business Intelligence und Big Data Analytik begeistern 🙂

 

In einem Projekt mit der Hochschule Kiel haben wir unsere Software ABIS zur Verfügung gestellt. Es ging darum mit einem fiktiven Szenario, die 50 Studenten aus dem Kurs für das Thema Social Business Intelligence zu begeistern. Die Studenten sollten ein Szenario innerhalb einer Firma nachstellen und mit Hilfe von ABIS untersuchen, wie Social Business Intelligence für die Steuerung von Teams eingesetzt werden kann und welche Vorteile es bringt.

 

Das Social BI Fallbeispiel und die Aufgabenstellung

Die SmartTech Ltd. vertreibt weltweit verschiedene Hardware Produkte. Die neuesten Produkte sind zwei Versionen eines Smartphones, einer SmartHome Lösung und einer Dashcam für Fahrzeuge.

Produkt Kosten / Einheit Verkaufspreis / Einheit
Smartphone RX20 Lite 300,00 € 699,99 €
Smartphone RX30 Pro 350,00 € 899,99 €
SmartHome 800,00 € 1099,99 €
Dashcam GetFamous 50,00 € 99,99 €

Seit der Markteinführung, der oben benannten Produkte in 2017, wurden auf verschiedenen Werbeplattformen Anzeigen geschaltet. Neben der klassischen Vermarktung sollten in Online-Medien aktuelle Themen angesprochen werden um die Zielgruppe besser zu erreichen.

 

Fragestellungen mit Hilfe des Marketing KPI-Dashboards beantworten

Mithilfe des Social Business Intelligence Tools ABIS sollten die Plattformen Facebook, Twitter, Instagram und Google ausgewertet werden. Folgende Fragestellungen wurden näher beleuchtet:

  1. Über welche Werbeplattform wurden in den letzten 90 Tagen die meisten Impressionen generiert?
  2. Welche Plattform hat bisher den größten Marketing ROI erwirtschaftet?
  3. Gibt es einen Zusammenhang zwischen Anzahl der Impressionen und Anzahl der Bestellungen?

Wer ist der „Verlierer bzw. Gewinner“ der vier Produkte? Mit diesem gewonnenen Wissen sollen die Kampagnen für die Zukunft besser gestaltet und verstärkt auf Social Media beworben werden um die Produkte effizienter zu vermarkten.

Wie wurden die fiktiven Daten für das Fallbeispiel generiert?

Erstmal mussten fiktive Demo-Daten erzeugt werden. In der Regel würde man davon ausgehen, dass es kein Problem sei, solche Daten zu erzeugen. In der Praxis ist jedoch die Erstellung von realistischen Demo-Daten gar nicht so trivial. Es müssen nämlich Variationen und sinnvolle Zusammenhänge in den Daten abgebildet werden. Zugleich sind die Zufallsgeneratoren der meisten Tools nicht ausreichend genug um Anomalien einzusetzen. Wie wurde das Problem also gelöst?

Drei Schritte um realistische Demo-Daten zu erzeugen:

  1. Die Abfolge von Kennzahlen in einem Trichter modellieren. Anders ausgedrückt, die wichtigen KPIs aus dem Online-Nutzer-Fluss von Sichtung der Werbeanzeige bis hin zur Bestellung bzw. Rücksendung korrekt abbilden.
  2. Die Abfolge der Kennzahlen je Produkt und Werbekanal anders gewichten und gruppieren. Manche Kanäle haben mehr, andere weniger Traffic etc.
  3. Für jede Gruppe im zeitlichen Verlauf, Anomalien oder Trends einsetzen. Auf bereits bestehenden Zufallswerten, die jedoch relativ flach verlaufen, wurde eine logarithmische Gleichung eingesetzt um die Tageswerte zu randomisieren.

Als Ergebnis fiel ein CSV-Dokument heraus, welche wiederum in das Data-Warehouse importiert werden sollte. Hier ein Screenshot der Quelldatei:

fh kiel datensatz

Mit einer Excel-Formel wurden die Daten dann so verändert das mehr Zufall eingebaut wurde, siehe Chart:

randomizer chart

Zeitlicher Verlauf der Testdaten nach der Implementierung des Randomizer

Die reproduzierbare Integration der Quelldatei in das Data-Warehouse Zielschema

Um die Daten aus dem CSV in ein auswertbares Format zu übertragen, wurde eine ETL-Strecke entwickelt. “ETL” steht für “Extract, Transform and Load”. Es beschreibt das Verfahren um eine Quelldatei in ein bestimmtes Zielschema der Datenbank zu importieren. Wichtig hierbei ist die Reproduzierbarkeit, damit man über die selbe ETL-Strecke auch neue Daten additiv anfügen kann.

Wir haben dafür in ABIS ein Data-Blending-Verfahren entwickelt, dass es uns erlaubt aus einer korrekt formatierten Quelldatei ein Schema automatisiert zu erkennen und zu erstellen. Damit spart man sich im Vergleich zu anderen Business Intelligence Tools 100% der Zeit für die Modellierung von Daten. So konnte die effektive Arbeitszeit von 6-8 Stunden auf wenige Sekunden reduziert werden. Wir verwenden ein klassisches Sternschema. Hier werden die Eingangsdaten in Dimensionen und Metriken unterteilt. Anbei findet sich das Datenmodell als Skizze:

Erstellung des Dashboards mit entsprechenden Drill-Down Funktionen

Anschließend wurde das Dashboard entwickelt. Mit diesem soll es möglich sein, einen tieferen Einblick in die Kennzahlen zu bekommen. Im Vergleich zu anderen Dashboards, die sich zumeist flach verhalten, besteht in ABIS die Möglichkeiten die Charts je nach Fragestellungen genau in die richtige Ausrichtung zu filtern und zu gruppieren. So können viel schneller Anomalien in den Daten gefunden werden. Entsprechende Filter und Gruppierungen, können als “Set-Konfiguration” in einer Karte gespeichert werden. Diese Karten können anderen Teilnehmern einfacher und reproduzierbar zur Verfügung gestellt werden.

 

Das Ergebnis aus der Aufgabenstellung und die Vorteile in der Analyse mit ABIS

Folgende Teilschritte konnten wir im Vergleich zu einer händischen Erstellung automatisieren. Ein Business Intelligence Experte würde hierfür ca. einen Manntag benötigen. BI-Spezialisten sind derzeit sehr gefragt und verlangen im Durchschnitt 1.000 Euro pro Tag. Mit ABIS konnten wir die Arbeitszeit von einem Manntag auf unter eine Minute reduzieren.

Hier die Teilschritte die durch unser automatisiertes Data-Blending-Verfahren eingespart werden konnten:

  • File in Datenbank laden
  • Datenmodell erstellen
  • Update Skript schreiben

Durch ein automatisiertes Data-Blending Verfahren konnten wir 140.000 Zeilen innerhalb von einer Minute integrieren und dabei 1.000 Euro BI-Kosten einsparen.

Die Studenten konnten nun mit dem Dashboard alle oben genannten Aufgaben innerhalb von kurzer Zeit lösen. Im Vergleich zu anderen BI-Tools konnten wir mit Hilfe des Auto-Data-Blendings viel Zeit einsparen und schnelle Ergebnisse liefern.

dashboard for multiple facebook and google analytics accounts

 

 

munich skyline

Wie zwei Gründer Deutschland digitalisieren möchten

David und Daniel sind Gründer einer innovativen Internetplattform aus München. Die dezentrale Cloud Lösung des Startups ermöglicht den schnellen und effizienten Aufbau von datengetriebenen Apps. Mit ABIS können komplexe Datenströme aus Big Data einfacher zusammengefasst, verwaltet, analysiert und für die effiziente Steuerung von Prozessen eingesetzt werden.

Unser Startup entwickelt die Datenplattform der Zukunft

Einfacher ausgedrückt. Stellen Sie sich vor in ABIS gemeinsam mit anderen Teilnehmern öffentlich über die letzten Wahlergebnisse zu diskutieren und dafür valide Statistiken hinzuzuziehen. ABIS liefert selbständig oder auf Abruf Berichte an Mitarbeiter, damit Probleme und Chancen frühzeitig erkannt werden können. Schüler recherchieren mit Hilfe von ABIS, welche Auswirkung der Klimawandel auf ihre Region hat. Bürger diskutieren über Bauinvestitionen, die von der Gemeinde geplant worden sind.

data interface in car

Smart Data im Fahrzeug und die Mobilität der Zukunft

Die digitale Transformation ist ein Kampf gegen Windmühlen

All das ist nicht mehr nur Science-Fiction, sondern in greifbarer Nähe. Doch es gibt ein Problem. Das Potential von neuen innovativen Digitalprodukten wird immer noch verkannt. Den Meisten ist gar nicht bewusst, welche Chancen sich aus der digitalen Transformation für Gesellschaft, Umwelt und Wirtschaft bieten. Daher haben es sich die beiden Firmengründer zur Aufgabe gemacht aufzuklären.

“Ich bin davon überzeugt, dass die Menschen eines Tages aufwachen werden und eine völlig neue Welt vorfinden. Die Frage ist, wie weit man in der Lage ist diese mitzugestalten oder halt nicht.” – David Chang Gründer von ABIS

Europa kann die Digitalisierung in eine sozialverträgliche Richtung lenken

Und doch, die neue digitale Welt kann nur gemeinsam aufgebaut werden. Europa hat hierfür ein enormes Potential und vor allem auch den Geist, die Digitalisierung in eine sozialverträgliche Richtung zu lenken. Es gibt bereits einige tolle Projekte aus Deutschland, doch die meisten Digitalprodukte stammen nach wie vor aus den USA und jetzt auch China. Und wohin wird die Reise mit künstlicher Intelligenz gehen? Wird Deutschland als Industrienation abgehängt, wenn die Maschinen intelligenter werden und sich von ihren alten Herren lösen?

Wieso es gerade in Deutschland so schwer ist ein Unternehmen aufzubauen?

Das liegt zum einem an der Haltung von Investoren, die jedes Risiko scheuen und erst einsteigen wenn alles läuft. Zum anderen fehlt es an staatlichen Förderprogrammen, die überschaubar und einfach zu beantragen sind. Es gilt aktuell, nur die Stärksten überleben. Gleichzeitig spielt es eine große Rolle wie man vernetzt ist und woher man kommt. Die Probleme und Auswirkungen an dem ganzen Trauerspiel sehen wir jetzt. Immer weniger Gründer und Gründerinnen, die sich trauen ein Startup zu gründen. Der derzeitige Arbeitsmarkt bietet aktuell einfach viel mehr Sicherheit und ein gutes Einkommen. Doch wie lange hält dieser Boom noch an?

Wann anfangen zu digitalisieren wenn nicht jetzt?

Die Gründer von ABIS stehen all dem immer noch positiv gegenüber. Auch wenn es nicht gleich klappt, die aktuelle Marktentwicklung und der ABIS “Digitalisierung-Baukasten” werden uns langfristig Recht geben, so der Firmengründer David. Aus diesem Grund haben es sich die beiden Gründer zum Ziel gesetzt in den nächsten Monaten, viel Zeit und Aufwand reinzustecken um Digitalisierungsprojekte in Rekordzeit umzusetzen und darüber aktiv in den Medien zu berichten.

founder of abis cloud

Die Firmengründer David links im Bild, Daniel rechts vor einer Zeitmaschine einer Künstlerin aus München

Quellen:

https://de.statista.com/statistik/daten/studie/183869/umfrage/entwicklung-der-absoluten-gruenderzahlen-in-deutschland/
https://www.welt.de/wirtschaft/article178632346/Gruenderreport-2018-Darum-wagen-es-viele-nicht-ein-Unternehmen-zu-gruenden.html

Business Intelligence 2.0 (BI 2.0) bezeichnet eine Weiterentwicklung des bestehenden Business-Intelligence-Modells, das Mitte der 2000er Jahre begann. Die Bezeichnung 2.0 wird aus der Terminologie Web 2.0 abgeleitet, die verwendet wurde um die Entwicklung des Internets in verschiedenen charakteristische Phasen zwischen 1.0 bis 4.0 zu unterteilen.

Bezeichnend für die Entwicklung des Business Intelligence 2.0 ist die Fähigkeit, dass Nutzer  in die Lage kommen, Daten einfacher abzurufen, zu analysieren und zu verteilen. Business Intelligence 2.0 Applikationen werden zudem kennzeichnend mit Cloud-Analytics-Technologien umgesetzt. Damit hat man als Nutzer die Möglichkeit auch über den Browser auf entsprechende Dashboards zuzugreifen. Dies steht im Gegensatz zu früheren proprietären Abfragetools, die bisherige BI-Software charakterisieren.

Einer der technischen Hauptfaktoren für die Entwicklung von BI 2.0 Systemen, ist der Einfluss von serviceorientierten Architekturen, auch als SOA bezeichnet. In einer SOA-Architektur werden Bausteine der Software wie die Datenbank, Server und Websites in Dienste gekapselt und dann so koordiniert, dass sie auf einer höheren Ebene orchestriert werden können.

„SOA ist ein Paradigma für die Strukturierung und Nutzung verteilter Funktionalität, die von unterschiedlichen Besitzern verantwortet wird.“

Ziel dabei ist die Wiederverwendung von Services und Komponenten um Ressourcen und Aufwände einzusparen. Gleichzeitig soll der Datenaustausch einfacher gemacht werden. Es soll möglich sein, Daten schnell aus einer Quelle abzurufen, auszuwerten und die Erkenntnisse intern besser zu verteilen.

Das Ziel der Datenanalyse ist die Informationsgewinnung. Wissen kann aber nur daraufhin entstehen wenn diese Informationen unter Mitarbeitern geteilt werden. Weitergefasst spricht man auch von Social BI, da es die Prinzipien eines sozialen Netzwerks adaptiert und mit Business Intelligence kombiniert. BI 2.0 ist zudem weborientierter als herkömmliche Datenabfrage- und Analysetools.

Quellen:

https://en.wikipedia.org/wiki/Business_Intelligence_2.0
https://de.wikipedia.org/wiki/Serviceorientierte_Architektur

zwei personen im spektrum animiert künstliche intelligenz

Die Bezeichnung “KI”, wurde erstmals im Jahr 1955 von John McCarthy in dem Paper “What is Artificial Intelligence“, an der Stanford Universität erwähnt.

Künstliche Intelligenz beschreibt in der Regel Computerprogramme, die selbständig lernen können um Lösungen zu finden. Erst kürzlich habe ich auf einer Fachkonferenz in Wien einen interessanten Vortrag darüber gehört, dass KI sich immer noch ganz am Anfang der Entwicklung befindet.

Der aktuelle Stand von KI im Jahr 2019

Aktuell wird die KI mit unzähligen Datenmengen gefüttert, um zu lernen wie man Probleme oder Aufgaben löst. Das ist doch noch recht umständlich zumal große Datenmengen gar nicht so einfach zur Verfügung stehen. Die großen Daten sind meist den großen Internetfirmen vorbehalten. Es muss also eine allgemeine KI entwickelt werden, die verstehen lernt, was Konzepte sind. Dann reichen auch kleinere Datenmengen aus um eine KI zu trainieren. Zudem muss diskutiert werden was für eine Ethik, einer KI inne wohnen sollte.

“Wenn man erwartet, dass eine Maschine unfehlbar ist, kann sie nicht auch intelligent sein.” – Alan M. Turing, britischer Mathematiker und Kryptoanalytiker

Allgemein verstehen die meisten Menschen nämlich unter künstlicher Intelligenz, die so genannten Killer-Roboter. Man sollte davon weggehen und sich mit den wirklich wichtigen Fragen der KI beschäftigen. Aktuell befinden wir uns nämlich zur Schwelle einer neuen höheren Intelligenz, die man zum Guten, wie auch zum Schlechten einsetzen kann. KI, bzw. das Web 4.0 oder auch Web Operating System genannt, wird kommen und es ist unvermeidlich.

Es liegt also an uns sich mit dem Thema intensiv auseinanderzusetzen bevor es andere Länder tun und uns ihre Konzepte vorschreiben. KI ist die Entstehung einer höheren Intelligenz, die uns als Gesellschaft enorm bereichern kann. Jetzt liegt es an uns sich zusammenzuschließen und die künstliche Intelligenz zum Allgemeingut für Alle zu machen.

Jeder sollte in der Lage sein, sich mit dem Thema KI beschäftigen zu können

Nur wenn wir in vereinten Kräften, unabhängig von Titel und Herkunft an dieser Technologie arbeiten, werden wir auch Erfolge erzielen. Vor allem in Deutschland herrscht der traditionelle Gedanke, dass nur Fachexperten mit Doktortitel in der Lage sind, solche Themen anzugehen. Die frühe Vergangenheit hat jedoch das Gegenteil bewiesen. Länder die die USA, ganz vorne der Silicon Valley machen es vor, das Querdenker und Philosophen der Welt mit großen Visionen gefragt sind.

Wie Alan Turing bereits sagte: “Eine KI ist erst intelligent, wenn sie Fehler macht und aus diesen lernt.” Genauso müssen wir auch selbst Fehler machen, lernen und weiter dran bleiben. Wir haben die Chance, einen Grundstein zu legen mit dem auch nachfolgende Generationen in der Lage sein werden, diese aufkommende Technologie in die richtigen Bahnen zu leiten.