PDF-Download

May 3, 2018 | Author: Anonymous | Category: N/A
Share Embed


Short Description

Download PDF-Download...

Description

Art meets Consulting

www.detecon-dmr.com

Detecon Management Report

DMR

blue Ausgabe 1 / 2015

Wir geben Kunst eine Bühne. Die neue Detecon-Webseite ist online!

Internet der Dinge Künstler haben unsere Themen neu interpretiert und unsere neue Webseite mitgestaltet.

Wir stehen mit unseren Geschäftsfeldern

Besuchen Sie uns unter: www.detecon.com

Detecon Management Report

blue

Die Vernetzung globaler Information und Kommunikation.

• 1 / 2015

an einer der spannendsten Baustellen unserer Zeit: Car-to-X-Technologien verändern die Zukunft : K.I.T.T. Bitte kommen! Interview mit Hagen Rickmann, T-Systems : „Wir verstehen uns als Partner der Industrie auf dem Weg zu Industrie 4.0“ Big Data für Telekommunikationsunternehmen : Die Sweet Spots treffen – kurzfristige Chancen intern realisieren

Internet der Dinge Liebe Leserinnen und Leser, das Internet der Dinge verspricht eine neue, fast magische Welt – und viel Geld: Wenn Anlagen und Geräte Messwerte und Sensordaten austauschen und ganze Transaktionen selbständig steuern, verdienen die Unternehmen mit. Aber wer verdient wirklich? Fakt ist: Weder Telekommunikations- noch Industrieunternehmen können bis heute signifikante Umsätze mit M2M verzeichnen. Eine Standortbestimmung zeigt jedoch: Datenbasierte Geschäftsmodelle bestimmen die Zukunft, Industrie 4.0 ist ein wichtiges Konzept zur Standortsicherung Deutschlands, das Wachstum für den „Internet der Dinge“-Markt nimmt Fahrt auf. Bisherige Hürden wie Sicherheit und Datenschutz, Interoperabilität, aber auch die einfache Nutzung aus Verbrauchersicht liegen inmitten des Blickfelds von Unternehmen und Forschungseinrichtungen, jede Errungenschaft in Sachen integrierbare Standards verbessert die Rahmenbedingungen für die Erschließung eines großen Marktpotenzials. Dies bringt Branchen wie Automotive, Hightech und Health, aber auch die Telekommunikation, in die Pole Position. Und auch für den Handel setzt das Internet der Dinge neue Impulse. Als Verbraucher dürfen wir uns in jedem Fall auf spannende Anwendungsszenarien freuen – it‘s all about magic! Wir wünschen Ihnen eine anregende Lektüre und gute Unterhaltung. Ihr Francis Deprez CEO, Detecon International GmbH

1

Detecon Management Report blue • 1 / 2015

Inhalt

Internet der Dinge und M2M – eine Definition

Das Übel aller Dinge: Der Mensch 4 Internet der Dinge & Big Data

Die Zukunft datenbasierter Informationen ist nicht länger zu ignorieren

6

Das Internet der Dinge und „seine“ Endgeräte

Strategische Bedeutung der Endgeräte wächst durch ihre Vernetzung

8

Auswirkungen der Endgeräteflut auf die Mobilfunknetze

Ist der Kollaps unvermeidbar?

12

Industrie 4.0

Digital Navigator unterstützt bei der Umsetzung

16

Interview mit Hagen Rickmann, Geschäftsführer Sales, T-Systems International GmbH

„Wir verstehen uns als Partner der Industrie auf dem Weg zu einer Industrie 4.0“

20

Master Data Management

Shared Data im Internet der Dinge und in der Industrie 4.0

24

Interview mit Christian Renner, Investment Manager, hub:raum

„Das Internet der Dinge braucht massentaugliche Use Cases, die jedem einleuchten“

28

Das Internet der Dinge als letzte Chance?

Der traditionelle Handel muss die Lücke zu erfolgreichen Online-Händlern schließen

Impressum:

Herausgeber: Detecon International GmbH Sternengasse 14-16 50676 Köln www.detecon.com [email protected]

2

Detecon Management Report blue • 1 / 2015

Aufsichtsrat: Thilo Kusch (Vorsitz) Geschäftsführung: Francis Deprez (Vorsitz) Dr. Jens Nebendahl Handelsregister: Amtsgericht Köln HRB 76144 Sitz der Gesellschaft: Köln

Druck: Druckerei Chmielorz GmbH Ostring 13 65205 Wiesbaden-Nordenstadt Fotos: Fotolia iStockphoto

32

Car-to-X-Technologien verändern die Zukunft

K.I.T.T. Bitte kommen!

36

Interview mit Dr. Sven A. Beiker, Geschäftsführender Direktor, CARS

„Datentechnisch wird das Auto das Mobiltelefon noch übertrumpfen“

40

Business Insights

Big-Data-Technologien machen das Notwendige möglich

44

Implementierung von Big Data

Warum Prozesse und Kultur von zentraler Bedeutung sind

48

Big Data für Telekommunikationsunternehmen

Die Sweet Spots treffen – kurzfristige Chancen intern realisieren 52 Auswirkungen des Internet der Dinge auf die Transportnetze

Wie sich Netzbetreiber auf den Vormarsch der Maschinen vorbereiten

56

M2M für Telekommunikationsunternehmen

Strategiedimensionen für den Eintritt in den M2M-Markt

62

Wearable Technology

Trends, Ökosystem und strategische Optionen für Carrier

68

Agile Economics

Eine Methode zur wirtschaftlichen Bewertung und Steuerung von Innovationen wie Big Data

70

Wir bedanken uns bei den Co-Autoren: Ingmar Haffke Marcello Schermer

3

Detecon Management Report blue • 1 / 2015

Internet der Dinge und M2M – ein Definition

Das Übel aller Dinge: Der Mensch M2M n Anlehnung an Kevin Ashton „ist eines der größten I­Probleme des Internets – der Mensch.“ Der Mensch fungiert als 1

­ auptsächliche Datenquelle des Internets, erscheint jedoch, mit h seiner limitierten Zeit, Aufmerksamkeit und Genauigkeit, als denkbar ungeeigneter Kandidat hierfür. Würden dahingehend Dinge, welche alles wissen, was sie wissen müssen, ihr Wissen in Form von Daten ohne menschliche Interaktion sammeln und zu Informationen beziehungsweise Entscheidungen ­verarbeiten, könnte alles dokumentiert, gemessen und verfolgt werden, bei gleichzeitiger Reduktion von Datenmüll und -verlusten sowie Kosten. Soweit zumindest Kevin Ashton. Die Eliminierung der Fehlerquelle, des Engpasses „Mensch“, ist ein Bestreben, das spätesten seit dem Zeitalter der Industrialisierung im Fokus der Menschheit steht. Nun hat es auch das Internet erreicht. Also gut, der Hauptschuldige scheint identifiziert. Dann sollen doch diese Maschinen direkt mit­einander kommunizieren! Aber Moment, sprechen wir dann von M2M oder sind M2M und das Internet der Dinge identisch? Der einschlägigen Fachliteratur scheint diese Antwort jedenfalls nicht leicht zu fallen. Viele Experten sprechen vom Internet der Dinge (Internet of Things, IoT) und M2M in einem Atemzug, andere befassen sich mit einer Abgrenzung beziehungsweise Definition der Begriffe aus unterschiedlichsten Betrachtungswinkeln. Bei einem Detail ist sich der überwiegende Teil der Autoren aber einig: IoT und M2M kommen in einer verworrenen Zweisamkeit daher.

1 That ‚Internet of Things“ Thing, RFIS Journal, July 22, 2009 2 Siehe hierzu z.B. Wikipedia.de „Telemetrie“

4

Detecon Management Report blue • 1 / 2015

Der Ursprung von M2M liegt in der Telemetrie, also der ­Fern­übertragung von Messwerten einer Messeinheit beziehungs­­ weise mehrerer Messeinheiten an eine physisch g­etrennte ­Empfangsstelle. M2M grenzt sich hierbei durch den gegen­ seitigen und automatisierten Informationsaustausch von Endgeräten – Sensoren und Modulen – mit einer zentralen Leitstelle und der Verknüpfung von Informations- und Kommunikationstechniken von der Telemetrie ab, welche die reine Übertragung von Messdaten über eine größere Entfernung ­beschreibt.2 Eine M2M-Lösung besteht aus voneinander abhängigen Komponenten, zum Beispiel der Hardware (­ Module, ­Sensoren), dem Kommunikationsnetzwerk und den IT-Bestandteilen (Solution, Plattformen, Integrationsdienst­leistungen). Die Orchestrierung dieser Komponenten ­ bedarf einer engen Kooperation zwischen Solution Providern, ­Telekommunikationsunternehmen und Kunden. Dies ist vor allem darin begründet, dass M2M-­ Lösungen einem speziellen oder einem engen Verbund an zuvor definierten Geschäftszwecken dienen. Es handelt sich demnach um alleinstehende oder proprietäre Lösungen, welche in Geschäftsprozessen zur ­Erfüllung eines bestimmten Zwecks und dessen Selbststeuerung integriert werden müssen und aus bekannten Bestandteilen ­besteht. ­Dabei werden Daten von den Sensoren gesammelt und von den M ­ odulen über ein Kommunikationsnetzwerk, das auch aus ­einer Punkt-zu-Punkt-Verbindung bestehen kann, an Server oder Datenbanken zur weiteren Auswertung geschickt.

Internet der Dinge

Von M2M zum Internet der Dinge

Das Internet der Dinge hat ­seine ­Ursprünge in den 90iger Jahren. Es wurde zunächst in den „Ubiquitous Computing“Konzepten von Mark Weiser ­umschrieben und fortan weiterentwickelt. Der G ­ rundgedanke bei IoT liegt in der Erweiterung des Internets um beliebige ­physische Objekte über deren bestehende Funktionen hinaus.

Unabhängig von den Ursprüngen von M2M und IoT stellt die Verschmelzung von IT und Kommunika­tionstechnologien für beide Ansätze eine notwendige Bedingung dar. Auf Grund der weitestgehend identischen Basiselemente und im Zuge der Weiterentwicklung von ICT haben sich beide Begriffe aufeinander zubewegt. Das Konzept hinter IoT geht jedoch in Bezug auf die Offenheit gegenüber der Einbindung von Datenlieferanten und -anwendern über die Anwendungen von M2M hinaus und erlaubt weitaus komplexere und funktionalere Anwendungsfälle.

Wir gehen hier jedoch weiter und definieren, dass im Internet der Dinge physische Objekte miteinander über internet­ ähnliche, sich teilweise selbstorganisierende Strukturen und deren Kommunikationsprotokolle verbunden werden. Dabei bedeutet „selbstorganisierend“ in diesem Falle, dass die Kommunikation sich selbstständig einen neuen Weg zum Ziel sucht, falls einer der Verbindungsknoten zwischen Quelle und Ziel ausfällt. Die Objekte sind damit nur noch sehr locker miteinander verbunden („loosely coupled“), es gibt keine dedizierte Punkt-zu-Punkt-Verbindung zwischen ihnen, sondern sie bilden offene Informationsökosysteme. Objekte des IoT sind dabei nicht zwingenderweise aktive ­Sensoren, Module oder Sender und Akteure von Daten, s­ ondern können mittels RFID, Strichcode und QR-Code auch passive Objekte sein. Die Verbindung beliebig vieler Objekte über internetähnliche Strukturen, die natürlich auch das Internet selbst sein kann und im allgemeinen zur Zeit auch ist, führt zu einem enormen Anstieg des Datenvolumens und der damit einhergehenden Problematik, diese Daten zu sammeln, zu analysieren und strukturieren und entsprechend der IoT-Anwendung zu nutzen. Dieses Datenaufkommen wird im IoT in der Cloud ­gespeichert. Es lässt sich also nicht sagen, auf welchem Server physikalisch genau die Daten gespeichert sind. Weiterhin lassen sich die ­Daten aus verschiedenen Quellen über (offene) Schnittstellen von verschiedenen Anwendungen, die Zugriff auf diese Schnittstellen haben, abrufen und verarbeiten, um neue Dienste bereit zu stellen.

Verbindungen, welche bei M2M-Lösungen noch zwischen dedizierten und bekannten Partnern stattfinden, werden im IoT-Fall auf internetähnliche, sich selbstorganisierende Strukturen verlagert. M2M-Lösungen für hochspezialisierte Anwendungsfälle mit eigenen Datenquellen stehen Informations­ökosystemen im IoT gegenüber, welche sich mittels offener Schnittstellen weiteren Nutzergruppen zur Verfügung stellen. Die Verarbeitung von Daten, welche im M2M-Fall auf dedizierten Servern stattfindet, wird bei IoT auf die Cloud unter vermehrter Einbindung von Big-Data-Technologien verlagert. IoT kann demnach als ein nachgelagerter Evolutionsschritt für M2M-Lösungen gesehen werden. Diese Evolution wird in ­vielen Anwendungsfällen und vertikalen Industrien zu beobachten sein. Ein Beispiel ist der Markt für ­Wearables. Sind die derzeitigen Geräte und Anwendungen noch in geschlossenen Systemen auf die Erfüllung eines bestimmten Zweckes ausgerichtet, werden sich in Zukunft Informations­ökosysteme um die Wearables bilden, die die Einbindung und den Informationsaustausch von weiteren Geräten und Diensten erlauben. Dedizierte M2M-Lösungen werden weiterhin parallel existieren. Dies gilt zum Beispiel für Lösungen mit besonders hohen Anforderungen an Sicherheit und Datenschutz. M2M und IoT werden daher auch in ­Zukunft parallel existieren. ­Der Trend wird zu IoT-Lösungen gehen, da hier nahtlos Menschen, Kommunikationsgeräte, Maschinen und Dienste miteinander agieren und somit weitreichendere Anwendungen verwirklicht werden können.

5

Detecon Management Report blue • 1 / 2015

Internet der Dinge & Big Data

Die Zukunft datenbasierter Geschäftsmodelle ist nicht länger zu ignorieren Zwei Begriffe wurden in den letzten Monaten zu den Buzzwords der Technologiewelt: Internet der Dinge und Big Data. Beide zeigen die grundsätzlichen Veränderungen auf, die Unternehmen in ihren Geschäftsstrategien künftig beeinflussen. Und sind absolut branchenübergreifend relevant. nternet der Dinge – worum geht es dabei eigentlich? I­Üblicherweise ist hierunter eine internetähnliche Struktur zu

verstehen, in der physische Objekte über eine Netzwerkkonnektivität verfügen, die es ihnen erlaubt, online untereinander zu kommunizieren. Ebenso sind mächtige Analysetools verfügbar, um Informationen weiter zu verarbeiten, die in sehr großen Mengen als strukturierte und nicht-strukturierte Daten vorliegen. Grob gesagt, erstreckt sich Internet der Dinge (Internet of Things, IoT) auf drei große Bereiche: die Datensammlung, den Datentransport und die ­Datenanalyse. Einsatz von Lösungen steht noch am Anfang Ein Schlüsselfaktor ist die immense Datensammlung, die von vernetzten Geräten erzeugt werden, etwa von tragbarer ­„wearable“ Elektronik, Sensoren, vernetzten Fahrzeugen, intel-

6

Detecon Management Report blue • 1 / 2015

ligenten (Strom-)Zählern oder Geräten zur Gesundheitsüber­ wachung. Da IoT-Geräte laufend Daten generieren, sind riesige Mengen an Daten über – meist drahtlose – Netze zu transportieren. Und dies, obwohl der Datenverkehr im Internet schon unabhängig davon bereits in exponentiellem Ausmaß wächst. Hochentwickelte Softwareanalysen, die auf Big-Data-Technologien basieren, ermöglichen aufgrund der dann nahezu in Echtzeit möglichen Speicherung, Konsolidierung und Analyse von Daten weitaus bessere Einblicke ins eigene Geschäft. Hierdurch erwachsen wiederum deutliche Wettbewerbsvorteile gegenüber weniger datengetriebenen Ansätzen. Obwohl weltweit die Unternehmen beginnen, sich mit IoT und Big Data zu befassen, zeigte kürzlich eine Gartner-Studie, dass derzeit nur acht Prozent der Unternehmen solche Lösungen einsetzen. 57 Prozent wiederum befinden sich gerade in dem

Stadium, Strategien zu entwickeln, um irgendwie die schier endlosen Möglichkeiten von wertvollen Einblicken in Kunden, Güter, Prozesse und die gesamte Wertschöpfungskette neu zu erschließen und ausschöpfen zu können. Doch wenn vernetzte Geräte und Einblicke in darin ­gesammelte Daten so wertvoll sind, warum ist das Internet der Dinge nicht schon jetzt allgegenwärtig in den Geschäftsstrategien präsent? Die Hürden l­ agen in den komplexen Wertschöpfungsketten, die bis dato vor allem auf teils konkurrierenden und fragmentierten Standards sowie sehr verteilten Anwendungen und Plattformen beruhen. Auch die technische Reife, etwa bei Batterieleistungen für Geräte und Sensoren, hat sich nicht schnell genug weiter entwickelt, um die langfristige Funk­tion ohne neues Aufladen zu garantieren. Zudem verhinderten ­nationale Regulierungen und komplexe Roaming-Verein­barungen das schnelle Vordringen der vernetzten Geräte. Analytische Einblicke von unschätzbarem Wert Heute, dank reiferer, technologischer Ökosysteme und einem klaren Nachfrageplus, sind die Kosten für Hard- und Software deutlich gesunken. Datennetzwerke erstrecken sich nun aufgrund internationaler M2M-Allianzen und steigender Wi-FiAbdeckung über nationale Grenzen hinweg. Gleichzeitig treibt das Aufkommen von Cloud-Services und mobilen Geräten die Entwicklung einer neuen Generation geschäftlicher Anwendungen voran. All diese Trends zusammen geben Grund zur Annahme, dass sich der Markt für IoT und Big Data kurz vor einer deutlich beschleunigten Wachstumsphase befindet. Big Data wird aller Voraussicht nach ein unverzichtbares Werkzeug für jedes Geschäftsmodell werden. Die analysierten Datentypen reichen von „Maschine-zu-Maschine“ (Sensoren, GPS, Logdateien), über „Mensch-zu-Maschine“ (E-Commerce, Finanztransaktionen) bis hin zu „Mensch-zu-Mensch“ (Social Networks, virtuelle Communities). Während in der alten, analogen Welt noch endliche Mengen an strukturierten Daten vorliegen, besteht die Big-Data-Welt zum großen Teil aus zahllosen, ­unstrukturierten und somit nicht vordefinierten Daten, die darüber hinaus auch in einer Vielfalt unterschiedlicher Quellen entstehen. Wichtig für das Verständnis ist allerdings, dass Big Data nicht aus den Daten selbst seinen Wert erzielt, sondern aus der Information, also den analytischen Einblicken, die sich aus den Umgebungsdaten ableiten lässt. Der Einsatz von strukturierten und unstrukturierten sowie internen und externen Daten wird wohl bald erfolgreiche und weniger erfolgreiche Unternehmen voneinander unterscheiden. Die zielgenaue Identifikation von Datenmustern und deren Interpretation wird dann zum Wettbewerbsvorteil. Denn nicht

nur Kosteneinsparungen, sondern auch der Aufbau von besseren, maßgeschneiderten Produkten und weiteren Innovationen sind zu erwarten. Das hohe Innovationstempo im Bereich „Big Data“ zieht auch Investoren an: Der Fluss von Venture Capital und institutionellen Investments in Big-Data-Unternehmen stieg in den letzten Jahren signifikant an, alleine in 2013 wurden weltweit 3,6 Milliarden US-Dollar darin investiert. Vor allem junge und innovative Unternehmen prägen diese Entwicklung. Dies heißt auch, dass Organisationen, die auf den Zug aufspringen wollen, nicht nur den jetzigen Status kennen müssen, sondern sich auch künftig stets am Puls der Zeit sich entwickelnder Trends bewegen sollten. Konvergenz von Big Data und Cloud Services wirkt zeit- und kostenschonend Neben den zahllosen Varianten industriespezifischer Trends ist als wesentliche, hervorzuhebende Tendenz vor allem die zunehmende Konvergenz von Big Data und Cloud Services zu nennen. Früher nutzten Unternehmen für ihre Entscheidungen in der Regel ihre eigenen, gespeicherten Daten in Data Warehouses. Der Betrieb solcher Analyse-Infrastrukturen war aber zeit- und kostenintensiv. Künftig können Unternehmen jedoch auf Drittanbieter zurückgreifen, die je nach Bedarf fast unendlich skalierbare, Cloud-basierte Big-Data-Services erbringen. Zusätzlich zur effizienteren Speicherverwaltung werden dann Cloud-Lösungen den Unternehmen helfen, Silos aufzubrechen und alle Daten in einer umfassenden Cloud zu sammeln, auf die jederzeit und überall zugegriffen wird. Big Data wird, befeuert vom Wachstum vernetzter Geräte und Fortschritten bei Cloud Computing, Unternehmen vielschichtig darin unterstützen, ihre Strategien umzusetzen, Entscheidungen zu treffen, Produkte zu entwickeln und Kunden­ wünsche zu erfüllen. Diese fundamentale Entwicklung wird alle Branchen betreffen, von der Telekommunikation bis zur Gesundheitsbranche, über die Logistik, den Handel und die ­Industrie bis hin zur Energiewirtschaft. Big Data sollte daher als Weg erkannt werden, um finanzielle Ergebnisse zu verbessern und nachhaltiges Wachstum zu erzeugen.

Daniel Kellmereit ist als CEO Detecon Inc. für den gesamten nord- und südamerikanischen Markt verantwortlich. Er verfügt über umfangreiche Erfahrungen in den Bereichen Innovation, Marketing, Unternehmensentwicklung und Wachstums­ strategien. Er arbeitet mit Kunden in der Telekommunikations-, Internet-, Hardware-, Software- und Dienstleistungsbranche sowie mit Investoren.

7

Detecon Management Report blue • 1 / 2015

Das Internet der Dinge und „seine“ Endgeräte

Strategische Bedeutung der Endgeräte wächst durch ihre Vernetzung

Für den Markt des Internet der Dinge existieren bereits viele Anwendungs­szenarien. Was fehlt, damit Unternehmen diese mit einer ­Vielfalt an Endgeräten reibungslos umsetzen können? Ein Konzept, das wichtige Fragen hinsichtlich Sicherheit und Datenschutz, Installation und Handhabung sowie Interoperabilität löst.

werden je nach Schätzung und Schätzendem zwischen 2 14 020 (ABIresearch, Strategy Analytics, Detecon) und mehr als 40

Milliarden Endgeräte (Ericsson) miteinander und mit Datenservern verbunden sein, um Daten zu sammeln und größere Systeme aufgrund der ausgewerteten Daten zu steuern. Das Internet verbindet nicht länger nur PCs und Notebooks miteinander Miteinander vernetzte Geräte werden sich innerhalb weniger Jahre in all unseren Lebensbereichen durchsetzen. Sie eröffnen große Möglichkeiten im Bereich der Dienste und Produkte, werfen aber auch technische, kommerzielle, regulatorische und legale Herausforderungen auf. Durch die Verknüpfung von Internet und realen Dingen im Universum des Internet der Dinge (Internet of Things, IoT) ergeben sich viele neue Anwendungsgebiete. Manche darunter, zum Beispiel die „Augmented Reality“, sehen zunächst wie Spielerei aus, bieten aber durchaus ernsthafte Anwendungsszenarien wie das Head-up Display im Auto, wo Umgebungs- und Navigationsinformationen kein eigenes Display mehr haben, sondern von innen auf die Windschutzscheibe projiziert werden.

8

Detecon Management Report blue • 1 / 2015

Auch die meisten Wearables werden noch immer im Fitnessbereich eingeordnet. Dabei steckt gerade im Bereich des Pervasive Computing ein großes Potenzial. Zu denken ist beispielsweise an den Health­care-Bereich, wo Kleidung mit verschiedenen Vitalfunktions-­Sensoren unmerkbar für den Träger ausgestattet ist. Auch Google Glass hat durch offene Schnittstellen und eine frei zugängliche Entwicklungsumgebung ein großes Potenzial für „Augmented Reality“-Anwendungen. Durch technische Entwicklungen sind viele Geräte seit relativ kurzer Zeit in Preisregionen vorgestoßen, in denen sie für den Massenmarkt interessant oder für bestimmte Aufgabenbereiche sogar erst nutzbar werden. Hierunter fällt die (Weiter-)Entwicklungen der „Rechenkraft“. Demgegenüber stehen die Entwicklungen in der Displaytechnologie, die zum Beispiel kleine Standarddisplays immer billiger werden lassen und gleichzeitig im High-end-Bereich immer höhere Auf­lösungen auf kleinen Displays realisieren. Mit Blick auf die IoT-Anwendungsfälle nicht zu vergessen sind die immer günstiger und kleiner werdenden Funkmodule sowie die Bemühungen, Strom zu sparen. Solche Stromsparansätze benötigen jedoch eine kombinierte Vorgehensweise in Hard- und Software, damit die Geräte mit kleinen Batterien monatelang auskommen.

Der Einfluss der Endgeräte auf unser Leben wächst Aber wie werden diese miteinander verbundenen Geräte unser Leben beeinflussen? Und in welchen Bereichen wird das passieren? Dass vernetzte Endgeräte unser privates und berufliches Leben durchdringen, steht außer Frage. Am Beispiel der „Connected Cars“ kann man diesen Einfluss sowohl für den geschäftlichen als auch für den privaten Bereich erleben: Autos können sich miteinander verbinden, um Sensorwerte anderer Autos über Temperatur, Geschwindigkeit und Straßenbeschaffenheit, beispielsweise Aquaplaning-Warnung eines entgegenkommenden Fahrzeugs, auszuwerten. Anhand dieser Informationen kann dem Fahrer eine Warnung angezeigt werden oder sogar eine autarke Reaktion des Fahrzeugs erfolgen. Ein anderer, eher genereller Anwendungsfall ist „Industrie 4.0“. Mit Hilfe von Sensoren wird eine schlanke Produktion von physikalischen Gütern angestrebt bei gleichzeitiger optimaler Ausnutzung der beteiligten Maschinen, die so effizient ist, dass auch individuelle Produkte, also Produkte mit Losgröße 1, wirtschaftlich und mit Gewinn für den Produzenten gefertigt werden können. Smart Cities hingegen bilden quasi alle möglichen IoT-Anwendungsfälle unter einem einzigen gemeinsamen Dach ab. Integriert werden können sowohl die intelligente Verkehrsführung, um Staus zu vermeiden und die Bewohner durch Geräte des Connected Car ohne Verzögerung zu einem freien Parkplatz zu leiten, als auch die Unterstützung von Healthcare-Anwendungen, zum Beispiel durch Wearables, die bei Schwangeren die Vitalfunktion des Kindes und der werdenden Mutter messen und mithilfe des Smartphones sowohl Regelunter­suchungstermine als auch außerplanmäßige Termine mit dem behandelnden Arzt vereinbaren, zu denen dem Arzt die gemessenen Daten der Wearables auch vorliegen.

Auch der „Smart Port“ kann zu den Anwendungsfällen innerhalb der Smart City gehören. Im intelligenten Hafen werden durch die Vernetzung der Container und der Transportfahrzeuge die Transportwege und Ladezeiten optimiert. Ziel ist es, durch den Einsatz von Sensoren und intelligenter Steuerungstechnik die Zeiten und Wege so zu optimieren, dass mehr Schiffe als zuvor mit denselben Ressourcen be- und entladen werden können. In der Realität ist allerdings schon die Be- oder Entladung eines einzigen Schiffes mehr pro Tag unter Verwendung derselben Ressourcen ein logistischer und auch vor allen Dingen ein finanzieller Erfolg. Enabler und Treiber für das Internet der Dinge „Enabler“ für die immer weitergehende Verbreitung von vernetzten Geräten sind im technischen wie auch im kommerziellen Bereich zu finden. Zunächst einmal ist der technische Fortschritt zu nennen: Erst die Miniaturisierung von Sensoren und Prozessoren macht beispielsweise Wearables mit einer annehmbaren Größe und einem tragbaren Gewicht erst möglich. Durch die Smartphone-Revolution hat inzwischen fast jeder seinen eigenen Computer in der Hosentasche, auf dem man für viele Dienste eine Anwendung herunterladen kann, die einem direkt und auf einen Blick Daten von Sensoren visualisiert und es möglich macht, weit entfernte Geräte zu steuern. Diese Marktdurchdringung von kleinen und leistungsstarken Computern, die nebenbei auch noch telefonieren können, ist einer der Schlüssel des Internet der Dinge zum Massenmarktgeschäft. Während es früher ein mühseliges Geschäft war, M2M- und IoT-Anwendungen zu entwickeln und auf spezielle Geräte anzupassen, bieten viele Gerätehersteller heute zumindest Soft­ waretreiber zur Steuerung ihrer Geräte an. Sie haben inzwischen

Abbildung: Entwicklung der Zahlen für internetfähige mobile Geräte (in Milliarden) 14,5 12,4 10,4 11,8

8,6 7,0 5,7 5,2

9,9 8,2

6,6

IoT-Geräte

4,1

andere Geräte

1,6

1,8

2,0

2,2

2,5

2,7

2014

2015

2016

2017

2018

2019

Jahr

Quelle: ABIresearch, Strategy, Analytics, Detecon

9

Detecon Management Report blue • 1 / 2015

das Potenzial von M2M und dem Internet der Dinge erkannt. M2M-Plattform-Hersteller und Software-Ökosystem-Hersteller wie Apple oder Google bieten sogenannte „Application Programming Interfaces“ (APIs) an: Softwarebibliotheken, die dem Anwendungsentwickler allgemeine Standardaufgaben wie den Aufbau einer Datenverbindung und spezielle Aufgaben innerhalb eines IoT-Anwendungssegmentes, zum Beispiel die Messung des Herzschlags für eine Healthcare-Anwendung abnehmen. Dadurch wird dem Entwickler die Möglichkeit gegeben, sich mehr auf die Logik und die Problemlösung innerhalb seiner Anwendung zu konzentrieren. Auf der kommerziellen Seite war die Datenübertragung über Mobilfunknetze lange Zeit eine recht teure Angelegenheit. Viele Kunden befürchteten einen „Bill Shock“. Inzwischen sind die Tarife aber auf breiter Front günstiger geworden und im privaten Bereich oft einer „Datenflatrate“ gewichen. Für die Ausrüstung von M2M-Geräten mit SIM-Karten gibt es M2MSIM-Karten, die aufgrund der speziellen Nutzung sehr günstige Konditionen enthalten. Auch die Preise vieler Sensoren und anderer Geräte, die man für eine IoT-Anwendung benötigt, sind rapide im Preis gefallen und ermöglichen so den Anwendungen den Zutritt zum Massenmarkt. Ein großer Treiber des Geschäftes mit dem Internet der Dinge ist auf Seiten der Telekommunikationsfirmen der Rückgang des traditionellen Geschäfts mit SMS und Sprachtelefonie sowie die Suche nach neuen Geschäftsfeldern, die auch mit den Kernkompetenzen wie der Kommunikationsübermittlung etwas zu tun haben. Hier wird von den Netzwerkoperatoren und den Herstellern von Netzwerkausrüstung, M2M- und IoT-Plattformen und -geräten ein großes Potenzial gesehen. Auch in Bereichen wie der Automobilindustrie sind einerseits Kostenoptimierungen, zum Beispiel durch Industrie 4.0 oder die Erhebung von Fahrzeugdaten im Connected Car, anderer­ seits die Erschließung neuer Geschäftsfelder, zum Beispiel durch neue Geschäftsmodelle mit dem Connected Car, die vordergründigen Treiber für die Entwicklung des IoT-Geschäftsfeldes. … kann man damit auch Geld verdienen? Aber wie können Unternehmen mit dem Internet der Dinge und seinen Endgeräten Geld verdienen? Diese Frage ist bis jetzt nicht unbedingt eindeutig von den Spielern im Markt beantwortet worden. Allerdings glauben inzwischen alle großen Firmen an das Potenzial in diesem Markt. Ein Indikator ist s­icherlich das Bestreben von Apple und Google – den G ­ iganten, die den Smartphone-Markt praktisch unter sich aufteilen –, mit ihrer Softwareplattform und dem angeschlossenen Ökosystem in

10

Detecon Management Report blue • 1 / 2015

den Markt zu drängen. Gleichzeitig lässt sich am Engagement von Google und Apple ablesen, welchen Anwendungsgebieten im Internet der Dinge sie das größte Potenzial zutrauen: ­Beide Firmen bieten eine Plattform(-erweiterung) und Entwicklungsunterstützung für das „Connected Home“ an und stützen diese mit Zukäufen kleinerer Spezialfirmen in diesem Bereich, ­Google zum Beispiel mit dem Zukauf von sieben Robotik­firmen in 2013 und den Firmen „Boston Dynamics“, „Nest“ und „DeepMind“. Ebenfalls bieten beide Firmen seit kurzer Zeit Lösungen für den Entertainmentbereich im Auto an. Google geht allerdings noch einen großen Schritt weiter als Apple und forscht bereits seit Jahren erfolgreich am Thema „autonomes Fahren“, so dass erste autonome Google-Fahrzeuge 2014 unter Auflagen eine Straßenzulassung in Kalifornien bekommen haben. Microsoft und Blackberry sind etwas weniger auffällig in diesem Bereich tätig – Blackberry hat im August 2014 eine Abteilung zur Entwicklung von Software für die Geräte des Internet der Dinge gegründet. Wenn all diese Firmen derartige Anstrengungen unternehmen, um frühzeitig im Markt für das Internet der Dinge an führender Position präsent zu sein, dann muss ja hier irgendwie Geld zu verdienen sein! Aber was hat die Spezialfirmen, Telekommunikationsunternehmen und sonstige Spieler auf diesem Markt bis jetzt davon abgehalten, große Umsätze und Gewinne „einzustreichen“? Zunächst einmal ist es für die meisten Anwendungsfälle im „Internet der Dinge“-Bereich bis jetzt versäumt worden, dem potenziellen Kunden einen Nutzen der zur Zeit auf dem Markt befindlichen Anwendungen, für den er auch bereit ist, entsprechend zu bezahlen, aufzuzeigen. Warum sollte sich ein Kunde ein „Smart Meter“ zur intelligenten Messung seines Stromverbrauchs für mehrere hundert Euro kaufen, wenn er damit nur seinen Stromverbrauch „online“ sehen kann? Hier fehlt es eindeutig noch an einem Anreiz. Denkbar wäre ein Anreiz finanzieller Art in Form einer Strombörse, mit der der Kunde seine Kosten über niedrigere Strompreise senken kann. Gerade am Beispiel der „Smart Meter“-Anwendung kann man gut erkennen, dass zu vielen Anwendungen ein entsprechendes Ökosystem gehört, ohne das ein Gerät und seine Anwendung im Internet der Dinge noch nicht viel Sinn macht. Ein Gegenbeispiel sind die großen Anstrengungen, die derzeitig in der Industrie unternommen werden, um Ökosysteme für den „Industrie 4.0“-Anwendungsfall zu konzipieren und aufzubauen, zum Beispiel Audi mit der „Future City Factory“. Zurzeit steckt der Markt allerdings noch in den Kinderschuhen. Auf der einen Seite gibt es noch wenig Erfahrung, ob die neuen Geschäftsmodelle greifen und wie viel Geld sich wirklich mit dem Internet der Dinge verdienen lässt. Auf der anderen S­ eite fehlen, gerade im Connected-Cars-Anwendungsfall, einfach

noch die Ökosysteme, um das volle Potenzial der IoT-Geräte und ihrer Anwendungen auszuschöpfen. Wachsende Herausforderungen für Endgeräte im Internet der Dinge Der Markt entwickelt sich jedoch immer rasanter. Momentan sieht es so aus, als würde die Klärung wichtiger Fragen mit dieser Entwicklung nicht ganz Schritt halten. Eine der großen Herausforderungen des Internet der Dinge ist beispielsweise die Standardisierung. Über die Standardisierung auf Hardwareschnittstellenebene, um zwei Geräte einfach miteinander verbinden und die gegenseitige Funktionalität nutzen zu können, hinaus geht es auch um die Standardisierung auf Softwareebene, also die Schnittstellen innerhalb eines Application Programming Interface. Damit muss nicht jede Anwendung für jedes Endgerät neu angepasst werden. Um jedoch in den Massenmarkt zu kommen, ist nicht nur ein Umdenken in Richtung der Anwendungsentwickler, sondern auch in Richtung Kunden unbedingt nötig: Es müssen einfach zu installierende After-Market-Lösungen angeboten werden, die auch ein Laie anhand von farbig markierten Anschlüssen und sonstigen Hilfsmitteln einfach und sicher installieren kann. Eine andere große Herausforderung betrifft die Daten, die von den Endgeräten geliefert und auf Servern „in der Cloud“ verarbeitet werden. Zunächst einmal ist zu klären, wem die von den diversen Systemen im Auto erhobenen Daten gehören. Wer darf diese Daten wie und wo speichern und verarbeiten? Solange diese Fragen nicht vom Gesetzgeber abgesichert werden, befinden sich die IoT-Anwendungs- und Diensteanbieter in einer rechtlichen Grauzone. Aber nicht nur die Datensicherheit ist eine Herausforderung. Auch für die Ende-zu-Ende-Sicherheit, von der Gerätesicherheit der Sensoren und der gesicherten Übertragung der gesammelten Daten über die IT-Sicherheit der Datenbänke und Webserver für die Speicherung und Visualisierung der Daten bis hin zur Applikations- und Betriebssystemsicherheit für die Geräte, die diese Daten visualisieren, gibt es noch kein standardisiertes und vollständig implementiertes Sicherheitsframework, sondern nur Sicherheitsimplementierungen für einzelne Hot-Spots, zum Beispiel Betriebssysteme, Datenübertragung über LTE oder ­Sicherheit in der Cloud. Das Gerätemanagement ist eine weitere Herausforderung im IoT-Bereich, die nicht immer im Fokus der Endgeräte- und Plattformhersteller steht. Aufgrund der geringen Margen im

IoT-Geschäftsumfeld sollten Fahrten eines Servicetechnikers zum Endgerät, zum Beispiel aufgrund eines notwendigen Softwareupdates, möglichst vermieden werden. Über eine Mobile-Device-Management-Lösung können die Geräte einer IoT-Anwendung zentral verwaltet und bei Bedarf mit neuer Gerätesoftware, neuen Parametern oder einer neuen Sicherheitsrichtlinie „over-the-air“ ausgestattet werden. Dieses Gerätemanagement ist zurzeit in den meisten M2M-Plattformen nur rudimentär enthalten. Auch die Hersteller von Mobile-DeviceManagement-Lösungen, die sich bis jetzt eher auf Smartphones und ­Tablets fokussiert haben, halten sich merklich zurück. Die Komplexität liegt in der Vielfalt der Gerätesoftware für Sensoren und anderen spezialisierten M2M-Geräten. Hier existiert eine fast unüberschaubare, historisch gewachsene Fülle, so dass einzelne Geräte(-familien) erst mühsam über Zusatzprogramme und mit Hilfe des Geräteherstellers in die MDM-Software integriert werden müssen. Diese Integration bedeutet einen hohen Aufwand für die Plattformhersteller – dieser wird jedoch auf mittlere bis langfristige Sicht nötig sein, um den Kunden ein kostenoptimiertes Gerätemanagement anbieten zu können. Was unter dem Strich übrigbleibt… Der Markt des Internet der Dinge bietet ein großes Marktpotenzial für Endgeräte und entsprechende Applikationen, insbesondere wenn man nicht nur den Geschäftskundenmarkt, sondern auch den Endkundenmarkt betrachtet. Bevor dieser Markt aber richtig durchstarten kann, sind größere und kleinere Hürden zu nehmen: Sicherheit und Datenschutz, einfache Installation und Handhabung sowie die Interoperabilität. All diese Herausforderungen tauchen nicht zum ersten Mal auf, sondern sind schon in anderen Kontexten hervorgetreten und auch gelöst worden. Ein Hersteller oder Herstellergremium, der oder die ein ­interoperables Ökosystem mit standardisierten Hardware- und Softwareschnittstellen, ein Konzept zur Integration eines vollständigen Gerätemanagements für alle Arten von IoT-­Geräten und ein Ende-zu-Ende-Sicherheitskonzept anbieten könnte, würde sich sowohl bei Geschäftskunden als auch bei Endkunden einen nicht zu unterschätzenden Wettbewerbs­ vorteil ­sichern können.

Claus Eßmann ist Senior Consultant und Experte für M2M und das Internet der Dinge. Er ist Mitglied des Connected Car Solution Center und berät ­Unternehmen der Automobil- und Telekommunikationsindustrie zu Innova­ tionsthemen.

11

Detecon Management Report blue • 1 / 2015

Auswirkungen der Endgeräteflut auf die Mobilfunknetze

Ist der Kollaps unvermeidbar?

12

Detecon Management Report blue • 1 / 2015

Das Internet der Dinge fußt auf mehreren Säulen. Zwei davon sind Vernetzung und Datenübertragung. Doch gerade hier stoßen Mobilfunknetze an ihre Grenzen. Lösungsideen gibt es – gehandelt werden muss jetzt.

K onnektivität ist ein Kernfaktor, der das Internet der D ­ inge

zu dem macht, was es ist: eine weiträumige Vernetzung von ­Gegenständen, die Daten miteinander austauschen und aufgrund der ausgewerteten Daten entsprechende Aktionen ­ anstoßen. Durch den Preisverfall sowohl auf der Hardwareseite für entsprechende Module als auch im Bereich der Tarife für mobile Daten setzen sich diese Möglichkeiten auch im Massenmarkt durch, so dass hier eine vernetzte Welt entsteht.

Es kristallisieren sich zwei große Herausforderungen heraus: Zunächst muss eine immense Menge an Geräten miteinander vernetzt werden, das Netz muss diese Geräte „verwalten“ können. Diese Geräte und Sensoren erzeugen eine enorme Menge von Daten, die zum Beispiel zu einem Server oder einer Datenbank zur Speicherung und weiteren Verarbeitung transportiert werden müssen. Möglichkeiten der Vernetzung und Datenübertragung

Ohne Verbindung geht es nicht Darüber hinaus entstehen immer mehr Anwendungen, die sich auf diese vernetzten Geräte stützen und dem Anwender Nutzen bringen soll. Dabei sammeln alle diese Anwendungen über die vernetzten Geräte Daten, die auch privater Natur sein können. Um dieses Szenario für den Endanwender attraktiv zu gestalten, muss der Anwender auf der einen Seite einen Nutzen darin ­sehen, Daten „preiszugeben“. Auf der anderen Seite muss die Vernetzung für den Nutzer auch ohne Fachkenntnisse im Netzaufbau transparent sein, die Anwendung mit den angeschlossenen Geräten muss „einfach funktionieren“. Einige Szenarien gehen sogar davon aus, dass die Menschen die sie umgebenden miteinander vernetzten Geräte und ihre Anwendungen gar nicht mehr bemerken, das heißt, den Menschen ist weder bewusst, dass Daten über sie gesammelt werden, noch wie Form und Umfang dieser Datensammlung aussehen. Hauptszenarien in der Welt des Internet der Dinge (Internet of Things, IoT) sind das v­ernetzte Auto, das vernetzte Z ­ uhause, Healthcare inklusive Wearables und Industrie 4.0. Sie werden nach Schätzungen von Detecon einen erheblichen Anteil der vernetzen Endgeräte in der IoT-Welt stellen. Dabei wird von hohen Zuwachsraten ausgegangen: Von derzeit weniger als drei Milliarden Geräten im Netz, hauptsächlich internetfähige Mobiltelefone beziehungsweise Smartphones, gehen vorsichtige Schätzungen von idate und Goldman Sachs von einer Steigerung auf 16 bis 20 Milliarden Geräten bis 2020 aus. Die Analysten von Jeffries vermuten bis 2020 sogar eine Steigerung auf mehr als 40 Milliarden Endgeräte, die miteinander vernetzt sind. Diese große Menge von miteinander und mit Servern kommunizierenden Geräte produzieren enorme Mengen an Daten, die transportiert werden müssen.

Bei der Vernetzung der IoT-Geräte kann man zwischen Nahfunkverbindungen und Weitreichsverbindungen unter­ scheiden. Im Nahfunkbereich, zum Beispiel innerhalb eines Hauses oder eines Autos, können diese einzelnen Geräte mit verschiedenen Standard-Nahfunktechniken verbunden werden. Hier ­stehen WLAN, Bluetooth, Zigbee, RFID, NFC oder auch ­Z-Wave zur Verfügung. Da die Datenübertragungsraten bei den vorgenannten Technologien bis auf WLAN aber unter 1 Mbit pro Sekunde liegen – teilweise sogar weit darunter – ist für die allen Anforderungen gerecht werdende, auf einem Standard ­basierende Inhouse-Vernetzung unter Berücksichtigung von Home Entertainment und sonstigen Streaming-Anwendungs­fällen nur die Vernetzung mittels WLAN möglich. Für die Übertragung von Steuerungsdaten, die keine hohe ­Bandbreite benötigen, ­bieten sich aber die vorhergenannten Alternativen an. Interessant wird es, wenn wir die Daten über eine größere Strecke transportieren müssen, um sie auf einem Server abzuspeichern und von überall ­abrufen zu können (Cloud-Prinzip), oder um diese Daten analysieren zu lassen. Hier bietet sich augenscheinlich zunächst einmal eine vorhandene Breitbandverbindung über das Festnetz – und hier vorzugsweise über das Medium Glasfaser – an. Sollte diese jedoch nicht vorhanden sein und Alternativen wie ein modernisiertes, auf Kupferkabeln basierendes Netz ebenfalls nicht zur Verfügung stehen, wie es zum Beispiel in ländlichen Gebieten der Fall ist oder weil das Gerät nicht fest installiert ist und sich über größere Strecken bewegt, müssen die Daten über eine Luftschnittstelle gesendet werden. Eine Kernanforderung ist eine hohe Abdeckung innerhalb der vom Gerät besuchten Gebiete. Hier bieten sich zunächst einmal die bekannten Mobilfunktechnologien an, die ab der 3. Generation – bekanntester Vertreter ist UMTS mit HSxPA – auch durchaus Audio- und

13

Detecon Management Report blue • 1 / 2015

Videoinhalte streamen können. Mit LTE als Vertreter der 4. Generation der Mobilfunktechnologien erhöhen sich die mögliche Bandbreite und Kapazität der Luftschnittstelle weiter, so dass viele Benutzer in einer Zelle gleichzeitig ihre Multimedia-Inhalte in hoher Auflösung anschauen können, ohne dass der Film zu einer Diashow verkommt. Alternative Funktechnologien wie SIGMAFOX oder Neul, die ­allerdings noch nicht standardisiert sind, bieten eine hohe ­Effizienz auf der Luftschnittstelle und besitzen daher den wichtigen Vorteil der Energieeffizienz im Vergleich zu den genannten Mobilfunkstandards. Nachteile dieser alternativen Funktechnologien sind jedoch die fehlende Standardisierung, die andere Hersteller davon abhalten könnte, für diese Technologien Geräte zu entwickeln, die relativ geringe Bandbreite zur Datenübertragung, die diese Technologien für einige Anwendungsfälle mit hohem Bandbreitenbedarf wie Videostreaming unbenutzbar macht, und die zur Zeit noch unzureichende Netzabdeckung, die sich innerhalb der nächsten Jahre jedoch verbessern kann. Allerdings ist auch hinsichtlich der Luftschnittstellen-Kapazität von LTE und dem noch nicht einmal definierten, zukünftigen 5G-Standard, der frühestens ab 2020 ausgerollt werden soll, zu bedenken, dass sie nicht unbegrenzt zur Verfügung steht. Die Anzahl der zusätzlichen Geräte und deren Bandbreitenbedarf – oder besser gesagt die Größe des jeweiligen Anstiegs – sind aktuell nicht leicht einzuschätzende Parameter. Vernetzungsszenarien und Herausforderungen Um ein Haus zu vernetzen („Connected Home“), können zum Beispiel alle Steuerungsgeräte mit niedrigem Bandbreitenbedarf mit einem „Hub“ über eine Nahfunktechnologie – WLAN, Bluetooth, Zigbee – mit einem Controller vernetzt werden. ­ ­Dieser sammelt alle Daten und schickt sie über eine breitbandigere Weitbereichsverbindung in Form einer Festnetzleitung oder einer ­Mobilfunkverbindung an entsprechende Server zur Verarbeitung und Visualisierung, zum Beispiel durch eine Smartphone App. Home-Entertainment-Geräte mit hohem Bandbreitenbedarf werden dagegen über Wireless LAN miteinander und mit dem Hub verbunden, um auch im lokalen Netz innerhalb des Hauses einen hohen Bandbreitenbedarf durch Streaming oder ähnliche Anwendungen abdecken zu können. Diese Trennung der verschiedenen Datenströme kann gleichzeitig eine Erhöhung

14

Detecon Management Report blue • 1 / 2015

der Sicherheit und Stabilität der Datenübertragung bedeuten, da ein „abgestürztes“ Entertainment-Gerät nicht die Datenübertragung von Sensoren und Kontrollgeräten behindern kann. Im Fall des vernetzten Autos benötigt jedes beteiligte Fahrzeug eine mobile Weitbereichsverbindung, über die nicht nur Fahrzeugdaten versendet, sondern auch Musik und Filme „gestreamed“ werden können. Die Hauptanforderungen in diesem Anwendungsfall sind die Zurverfügungstellung einer ständigen Netzwerkanbindung der entsprechenden Endgeräte und deren potenziell hoher Bandbreitenbedarf. Als Beispiel sei das Stau­ szenario genannt, in dem viele Passagiere gleichzeitig Filme in HD-Qualität anschauen. Da sich die Anzahl der mit dem Internet verbundenen Geräte im Zeitraum bis 2020 exorbitant steigern wird, ist alleine durch diese hohe Rate eine mindestens ähnliche Steigerung im mobilen Datenaufkommen zu erwarten, auch wenn bei weitem nicht alle IoT-Anwendungen so „bandbreitenhungrig“ sind. Durch die vorgestellten Vernetzungsszenarien lassen sich die großen Herausforderungen der IoT-Welt in der Vernetzung und Datenübertragung bei Weitbereichsverbindungen erkennen. Hier wird mittelfristig kein Weg an der Vernetzung über Mobilfunknetze vorbeigehen, da nur diese für die meisten Szenarien die nötige Abdeckung und ausreichende Datenbandbreite anbieten. Die daraus folgenden Anforderungen an Mobilfunknetze lassen sich wie folgt ableiten: • Allein durch die hohe Volumenzunahme der vernetzten Geräte ist mit einer hohen Steigerung des Datenaufkommens zu rechnen. • Das Netz muss mit vielen, gleichzeitig in einer Zelle angemeldeten Geräten „zurecht kommen“, ohne dass eine Verbindung beeinträchtigt oder gestört wird. • Die Anforderungen an die von diesen Geräten aufgebauten Verbindungen sind dabei sehr inhomogen: Die Datenverbindungen können kurzzeitig eine hohe Last mit unkontrollierbaren Zeitpunkten aufweisen. Andere Datenverbindungen charakterisieren sich über ein kleines, aber regelmäßiges Datenaufkommen oder über konstante Datenverbindungen, die dann eine beliebige Datenlast erreichen können, zum Beispiel Videoüberwachung mit hoher Auflösung und einem hohen Datenaufkommen.

Der Energiekonsum der Geräte sei hier nur am Rande erwähnt: Bei vielen IoT-Geräten ist der Hauptenergieverbraucher das Funkmodul, so dass bei autark mit Energie versorgten Geräten der Batteriewechsel nach einer gewissen Zeit durch einen Servicetechniker vorgenommen werden muss. Dieses ist ein nicht zu unterschätzender Kostenfaktor in der IoT-Welt, in der die Gewinnmargen pro Gerät meist sehr gering sind. Lösungsansätze Wir sehen die große Herausforderung des Internet der Dinge darin, die bestehenden und zukünftigen Mobilfunknetze nicht zu überlasten, sei es durch die Menge an gesendeten Daten oder auch durch die hohen Zuwachsraten an Geräten, die sich in den Mobilfunkzellen aufhalten und eine ständige Verbindung mit dem Mobilfunknetz aufrecht erhalten. Ersteres kann auf der Luftschnittstelle nur durch den Ausbau der Kapazitäten und durch eine Komprimierung der gesendeten Daten schon im Endgerät gelöst werden. Letzteres lässt sich dadurch lösen, dass man auf andere, alternative Funktechnologien ausweicht, sofern der Anwendungsfall dies erlaubt, und auf verschiedene Möglichkeiten, die heutzutage schon als Lösung für das „Data Offloading“ entwickelt wurden, zurückgreift.

Zusammenfassend lässt sich sagen, dass das Internet der Dinge die Mobilfunktechnologien auf der Luftschnittstelle vor nicht zu unterschätzende Herausforderungen stellen wird. Wenn diesen nicht rechtzeitig begegnet wird, schlagen sich negative Auswirkungen durch langsame Datenverbindungen oder die fehlende Möglichkeit, sich in einer bestimmten Zelle in das Mobilfunknetz einzubuchen, auf die Kundenzufriedenheit der Mobilfunkkunden nieder. Es gibt jedoch jetzt schon Möglichkeiten, hierauf mit moderatem und kalkulierbarem finanziellen Aufwand zu reagieren. Da innerhalb der nächsten zwei bis drei Jahre gehandelt werden muss, gehört das Warten auf den 5G-“Rollout“ jedoch nicht zur Lösungsmenge, da der 5G-Mobilfunk noch nicht definiert wurde und ein großflächiges Ausrollen bis 2020 deshalb äußerst unwahrscheinlich ist. Die Herausforderung der zur Zeit relativ kurzen Batterielaufzeiten lässt sich, solange sich die Batterietechnologien nicht grundlegend weiterentwickeln, nur durch die Kreativität der (Software-)Ingenieure lösen, die auf der einen Seite den Energiehunger der Hardware senken müssen und auf der anderen Seite durch geschickte Implementierung der (Betriebs-)Software sowohl endgeräteseitig als auch netzwerkseitig den Energieverbrauch weiter senken können.

Hier sind auf der einen Seite „Small Cells“ zu nennen, die eine sehr kleine eigene Mobilfunkzelle darstellen und direkt per Kabel oder Richtfunk an das Datentransportnetz angeschlossen werden können. Mit diesen können kleine lokale Mobilfunkzellen erstellt werden, die durch direkte Anbindung an das Transportnetz die Makrozellen entlasten. Auf der anderen Seite könnte man ein Data Offloading über WLAN-Zellen anstreben, um die Daten über einen Festnetz-/ Glasfaseranschluß ebenfalls möglichst direkt in das Datentransportnetz zu bringen. Eine Variante des WLAN-Offloading könnte die ad-hoc Vernetzung über den eigentlich für den „Connected Cars“-Anwendungsfall gedachten WLAN-Standard 802.11p darstellen. Sowohl die Kapazitätserhöhung als auch das Data-Offloading können gleichzeitig zur Lösung der Probleme durch die inhomogenen Datenverbindungen beitragen.

Claus Eßmann ist Senior Consultant und Experte für M2M und das Internet der Dinge. Er ist Mitglied des Connected Car Solution Center und berät ­Unternehmen der Automobil- und Telekommunikationsindustrie zu Innova­tionsthemen.

15

Detecon Management Report blue • 1 / 2015

Industrie 4.0

Digital Navigator unterstützt bei der Umsetzung Industrie 4.0 bringt ein neues Ökosystem von Unternehmen, Kompetenzen und Märkten in der industriellen Wertschöpfung hervor. Darin besteht ein großes ­Potenzial zur Standortsicherung Deutschlands. Der Digital Navigator unterstützt Industrie­unternehmen bei der Umsetzung möglicher Ansätze.

16

Detecon Management Report blue • 1 / 2015

elbst Experten sind noch unsicher, was Industrie 4.0 künfS tig konkret in der Umsetzung bedeutet. Auch der individuelle Nutzen lässt sich oft schwer beziffern: Wie profitieren Unternehmen tatsächlich davon? Sicher ist: Industrie 4.0 basiert auf der Verschmelzung von klassischer Produktionstechnologie mit der Informations- und Kommunikationstechnologie. Mit Hilfe der Digitalisierung sind Maschinen, Objekte und Menschen so vernetzt, dass Wertschöpfungsprozesse effizienter, agiler, flexibler oder auch qualitativ hochwertiger gestaltet oder ganz neue Geschäftsmodelle erschlossen werden können. Im Kern geht es bei darum, Interoperabilität in einem größeren Wertschöpfungskontext - vertikal und horizontal - und über den gesamten Produktlebenszyklus herzustellen (siehe auch http://www. plattform-i40.de).

Wo liegt der Nutzen für die fertigende Industrie? Mit Industrie 4.0 kommen wir beispielsweise dem angestrebten Ziel, „Losgröße 1“ bei gleichzeitig minimalen Kosten herzustellen, einen großen Schritt näher. Dieser Erfolg basiert auf der Möglichkeit, die Fertigungsprozesse so stark zu modularisieren und zu standardisieren, dass ein hohes Maß an Fertigungsflexibilität an jeder Stelle entsteht. Über Digitalisierung und die Bereitstellung von Echtzeitinformationen kann die bisherige starre und komplexe Planungslogik abgelöst und durch eine eher ad hoc getriebene Steuerungslogik ersetzt werden. Im Zusammenspiel mit einer prozessübergreifenden Vernetzung zwischen ­Engineering und Produktion lassen sich spezifische Kundenwünsche noch sehr spät in den Produktionsprozess einflechten.

17

Detecon Management Report blue • 1 / 2015

Ein ganzes Wertschöpfungsgefüge in dieser Art zu flexibilisieren ist sicher noch ein recht aufwändiges Unterfangen. Es lassen sich aber bereits jetzt sinnvolle, umsetzbare Industrie 4.0-Ansätze finden: Beispiel 1: Vereinfachung von Wartungsprozessen im Anlagenbau durch eindeutige Identifizierung und sensorgestützte Überwachung ganzer Anlagen oder Komponenten. In Verbindung mit einer Ende-zu-Ende-Verknüpfung dieser Informationen mit den produkt- oder transaktionsbezogenen Informationen der PLM- oder ERP-Welt lassen sich Wartungsevents i­nklusive der zugehörigen Ersatzteillogistik effektiv vorbereiten und durchführen. Über Predictive Analysen von Zustandsinformationen und Vergangenheitsdaten lassen sich Wartungsnotwendigkeiten darüber hinaus auch schon heute sehr gut vorhersagen. Beispiel 2: Augmented-Reality-Unterstützung im Wartungsfall. Bei komplexen Wartungsumgebungen lassen sich die Wartungsschritte effektiv durch Augmented-Reality-Systeme unterstützen. Beispielsweise werden in das Realbild an einem Tablet entsprechende Überblendungen und Anweisungen eingeblendet. Damit kann die Arbeitszeit für solche Wartungen und auch die Qualität sichtbar gesteigert werden.

Weiterführende Ansätze beinhalten einen deutlich höheren Grad der Prozessinteroperabilität. „Social Mashines“ beispielsweise erhalten durch erweiterte Embedded Systems, echtzeitnahe Konnektivität die Möglichkeit, sich untereinander zu optimieren. Sie können beispielsweise einen direkteren Lastenausgleich initiieren, um die Kapazitäten gleichmäßig zu verteilen. In Verbindung mit intelligenten Produkten, die relevante Informationen wie Baupläne mit den Produktionsressourcen austauschen, lassen sich bereits heute ad hoc Entscheidungslogiken in der Produktion ermöglichen. Über entsprechende Marktplätze könnte dieses Prinzip auch Standort- und Unternehmensübergreifend funktionieren. Freie Kapazitäen einzelner Produktionsressourcen könnten auch anderen Unternehmen angeboten werden. Wie lässt sich Industrie 4.0 konkret in der Industrie umsetzen? Aus dem Abschlussbericht von acatech und Forschungsunion gehen acht Handlungsfelder hervor: Smart Factory Architecture, Resiliente Fabriken, Technologiedaten Marktplatz, Vernetzte Produktion, Intelligentes Instandhaltungsmanagement, Nachhaltigkeit durch Up-Cycling, Selbstorganisierte, adaptive

Abbildung: Digital Navigator

Strategische Zielsetzung

R&D

Einkauf & Beschaffung

Finanzen & Controlling

Produktion

Logistik

Strategisches Management

Unterstützungsprozesse

Digitale Dimensionen

Digitale (Kern-) Geschäftsfähigkeiten Menschen

Quelle: Detecon

18

Detecon Management Report blue • 1 / 2015

Prozesse

CRM, Sales & Service

Technologien

Logistik, Kundenintegriertes Engineering. Diese Felder zeigen auf, wie vielfältig die Möglichkeiten von Industrie 4.0-Ansätzen sind. Ihre Auswirkungen auf bestehende Prozesse sind meist nicht sofort absehbar. Auch wenn die vierte industrielle Revolution in evolutionären Schritten erfolgen wird, sind die Veränderungen meist tiefgreifend. „Die Formel ‚Gewinn = Umsatz – Kosten‘ behält allerdings auch im digitalen Zeitalter ihre universelle Gültigkeit.“, sagt Felix Theisinger, Partner bei Detecon. „Somit müssen alle digitalen Transformationsmaßnahmen entweder dazu beitragen, den Umsatz zu steigern (revenue effects) oder die Kosten zu senken (cost effects), idealerweise beides.“, so Theisinger. Erfolgreiche Unternehmen im digitalen Zeitalter nutzen die Chancen der Digitalisierung zur Senkung der Kosten und zur Steigerung des Umsatzes. Theisinger rät jedoch, Potenziale sowie Aufwand und Implikationen, die sich zum Beispiel zur Informations­ sicherheit aus Industrie 4.0 ergeben könnten, systematisch zu analysieren und individualisierte Handlungsempfehlungen zu erarbeiten.

darüber hinaus auch Hardware wie Maschinen und Menschen, insbesondere Skills, betrachten.“, rät Theisinger. „Unternehmen müssen sich diese Fragen stellen: Brauchen die Maschinen beispielsweise neue, andere oder ergänzende Fähigkeiten, um in einer resilienten, ad hoc organisierten Fabrik operieren zu können? Sind die Menschen, die an einem Prozess mitwirken, noch in der Lage, die neu entstehenden Cyber-physischen Systeme zu bedienen, werden andere oder neue Skills und Rollen in den Unternehmen benötigt? Die Antworten auf diese Fragen bilden die Bausteine, aus denen sich die Industrie 4.0-Agenda eines Unternehmens zusammensetzt.“ Das Interesse an der Umsetzung der Industrie 4.0-Ideen nimmt nicht nur in den Unternehmen, sondern auch in der Politik großen Raum ein. Industrie 4.0 ist ein Faktor für die Zukunftssicherung des Standortes Deutschland in einem internationalen Wettbewerb.

Mit dem Digital Navigator bietet Detecon ein ausgereiftes und erprobtes Methodenportfolio, um Industrie 4.0-Ansätze in den Kontext des jeweiligen Geschäftsumfeldes eines Unternehmens zu stellen, deren Auswirkungen auf Prozesse und Kernfähigkeiten zu analysieren und sie entsprechend zu priorisieren. Auf dieser Basis lassen sich erforderliche digitale Fähigkeiten und Enabler aus den sechs Kernbereichen Innovation & Transformation, Smart Business Network Management, Cyber Physical System, Risk & Trust, Digital Information Management und Digital Process Management identifizieren, den betroffenen Prozessen oder Bereichen zuweisen und entsprechende Transformationsschritte planen. Unternehmen, die den digitalen Wandel erfolgreich meistern wollen, müssen über diese sechs Kernfähigkeiten verfügen oder sie im Zuge ihrer digitalen Transformation entwickeln und ausbauen. Dabei geht es aber nicht nur um die Betrachtung der offensichtlichen Digitalisierungserfordernisse wie die Herstellung von Konnektivität, sondern auch um Aspekte, die sich durch die Digitalisierung erst ergeben. Bestes Beispiel ist das Thema Daten- und Informationssicherheit, damit verbundene Ausfallsicherheiten von Produktionseinrichtungen und Resilienz in der Wertschöpfung eines Unternehmens. „Die Transformation erstreckt sich eben nicht nur auf die IT-Ebene, sondern muss

Michael Meissner ist Partner und leitet die Industrie 4.0 Community bei Detecon. In dieser Funktion berät er Unternehmen der herstellenden und Hightech-Industrie zu Fragen der digitalen Transformation sowie dem Einsatz von ICT-Technologie. Jana Remer ist Consultant mit dem Branchenschwerpunkt Automotive und ist Mitglied im Connected Car Solution Center. Ihr Beratungsfokus liegt auf den Bereichen Connected Car durch die gesamte Wertschöpfungskette hinweg sowie Geschäftsmodellentwicklung.

19

Detecon Management Report blue • 1 / 2015

­

Interview mit Hagen Rickmann Geschäftsführer Sales T-Systems International GmbH

„Wir verstehen uns als Partner der Industrie auf dem Weg zu einer Industrie 4.0“ Industrie 4.0 ist auch für ­integrierte ICT Provider ein großes ­Thema. ­Evolutionäre Schritte erwartet H ­agen ­ Rickmann, ­Geschäftsführer bei ­T-Systems International GmbH, ­insbesondere aus dem Zusammenspiel von Industrie und ­ ­ICT-Branche. Sein Ziel ist es, den ­Nutzen der ­ Digitalisierung zu konkretisieren und das Vertrauen auszubauen. Das ­Interview führten die ­Detecon-Berater Michael M ­ eissner, Partner, und Sven Garrels, Senior ­Consultant.

20

Detecon Management Report blue • 1 / 2015

­

DMR: Herr Rickmann, das Internet der Dinge revolutioniert ­einige Branchen bereits sehr stark. In Automobilen sind Onlineservices und Connectoren verbaut, der Handel und andere Dienstleistungsbereiche haben ihre Geschäftsmodelle drastisch verändert. Die digitale Revolution der herstellenden Industrie heißt Industrie 4.0. Sie sind als Top Manager angetreten, um das Thema auch für die Deutsche Telekom zu etablieren. Wie passt das zusammen? Rickmann: Mit Industrie 4.0 und der Digitalisierung in der Industrie werden klassische Produktionstechnologie mit der Informations- und Kommunikationstechnologie untrennbar zusammenwachsen. Applikationen zur Steuerung von Maschinen und Anlagen oder ganzer Shop-Floor-Bereiche werden künftig darauf angewiesen sein, stärker untereinander und mit den Maschinen, Werkstücken und den beteiligten Menschen direkt zu kommunizieren. Cyber-physische Systeme halten Einzug in Fertigung und Logistik und erfordern eine erweiterte ICT-Infrastruktur. Die Sensorik wird eine große Menge an Daten erzeugen, die es zu beherrschen und gezielt auszuwerten gilt. Deswegen ist Industrie 4.0 nicht nur für Industrie­ unternehmen oder Softwarehersteller, sondern insbesondere auch für integrierte ICT Provider wie die Deutsche Telekom ein wichtiges Thema. Konnektivität und das Management komplexer Datenmengen sind die Kernkompetenzen der Deutschen Telekom. Ein Geschäftssegment alleine kann die Komplexität der Industrie 4.0 nicht tragen, hierfür benötigen wir das Know-how verschiedener Konzerneinheiten: Telekom Deutschland für die technische Konnektivität und den Zugang zum Mittelstand, Telekom Laboratories für die Forschung und T-Systems als Lieferant der Datenplattform, für den Zugang zu Großkunden und als Industrie 4.0-Integrator gegenüber unseren Industriekunden. DMR: Sind Vernetzung und Daten dann der Kern von Industrie 4.0? Rickmann: Im Grunde ja. Es geht bei Industrie 4.0 darum, mit Hilfe von Vernetzung und Informationsmanagement in Echtzeit die industriellen Prozesse und ­Wertschöpfungsansätze zu optimieren oder so zu verändern, dass neue Geschäfts­ modelle daraus entstehen können. Vernetzung und Daten sind damit der Katalysator für ein neues Level an horizontaler und vertikaler Interoperabilität, die oft auch über die Unternehmensgrenzen hinausreicht. Hier sehe ich im übrigen auch den größten Hebel für Effizienz. DMR: Können Sie das an konkreten Beispielen festmachen? Rickmann: Stellen Sie sich einmal eine komplexe Industrieanlage, vielleicht eine Gasturbine, vor. Diese Turbine ist mit unzähligen Sensoren ausgestattet, die Zustand und Funktion einer solchen Anlage überwachen. Um die Informationen zu

verwerten, brauchen Sie zunächst einmal beides: Konnektivität der Sensoren – sie müssen in der Lage sein, die erzeugten Informationen zu übermitteln – und ein richtiges Big Data Management. Jeder der Sensoren erzeugt Informationen im Kiloherzbereich, wodurch in kürzester Zeit ein unvorstellbares Datenvolumen entsteht. Das muss als Volumen beherrschbar gemacht und sichergestellt werden, dass sie die wirklich relevanten Informationen herausfiltern und weiterverarbeiten. So lassen sich beispielsweise Wartungsarbeiten besser vorausplanen oder der Wirkungsgrad einer solchen Anlage optimieren. Stehen solche Informationen in einem größeren Wertschöpfungskontext zur Verfügung, zum Beispiel einem ganzen Kraftwerk oder Kraftwerksverbund, lässt sich auf dieser Basis die gesamte Energieerzeugung im Verbund besser, bedarfs­ orientierter und auch viel ökologischer planen. Ähnliche Szenarien können Sie sich auch in einem Montage­ bereich vorstellen, in dem eine Vielzahl unterschiedlicher ­Roboter im Einsatz ist. Fällt ein Roboter wegen Wartung aus, können die anstehenden Aufträge quasi ad hoc auf die anderen Anlagen umgeroutet werden, da Fähigkeiten, Zustand und Auslastung bekannt sind. Die so entstehenden Informationen können aber auch einen ganz anderen Zweck erfüllen. Nutzungsgrad und Verschleiß von solchen Maschinen geben den Entwicklern wichtige Anhaltspunkte für die Weiterentwicklung oder Optimierung der Produkte. Das alles geht nur mit intelligentem Datenmanagement und Konnektivität. DMR: Sind bessere Planbarkeit und Effizienz- oder Wirkungsgradsteigerungen dann die Potenzialfelder, die die Industrie mit Industrie 4.0 erreichen kann? Rickmann: Nicht nur. Sie haben auf der einen Seite Kostenund Effizienzpotenziale, wie gerade beschrieben. Oftmals lassen sich durch genauere Planung, direktere Interaktion und unternehmensübergreifende Steuerung der Wertschöpfung Effizienzsteigerungen von bis zu 15 Prozent erreichen. Auf der anderen Seite aber eröffnet die gewachsene Informationsdichte aus der gesamten Wertschöpfung von der Entwicklung bis zum Kunden und die gewachsene Interoperabilität in diesem Gefüge Potenzial für neues Geschäft, höhere Kundenloyalität oder auch eine gänzliche Neuordnung des Wertschöpfungsgefüges. Sie können zum Beispiel spezifische Kundenwünsche auch noch sehr spät in die Produktion einfließen lassen – Losgröße 1. Der Kunde wird Teil der Wertschöpfung und kann eine ganz neue Form des Customer Experience Managements erleben. Unternehmen, die ihre beim Kunden befindlichen Maschinen selber mit Sensoren überwachen, können ganz neue Serviceangebote oder sogar Betreibermodelle entwickeln, mit denen sie sich im Wettbewerb differenzieren oder neue Geschäftsfelder erschließen.

21

Detecon Management Report blue • 1 / 2015

Hagen Rickmann: Nach Banklehre und Studium der Betriebswirtschaft trat Hagen Rickmann, Jahrgang 1969, zunächst in die Unternehmensberatung Esche Schümann ­Commichau ein. Im Jahr 2000 wechselte er als CFO zum IT-Dienstleister Done Project. Zwei Jahre darauf stieg er als Managing Director IT bei EDS ein, wo er bis 2007 als General Manager und Vorstandsmitglied unter anderem den Bereich Consulting Services für Nord und Zentraleuropa verantwortete. Von 2008 an leitete Hagen Rickmann den Bereich Infrastructure Services in Europa. Im Jahr 2009 wechselte er zu T-Systems und übernahm dort das Portfolio- und Innovationsmanagement. Ab März 2011 leitete Rickmann den Bereich Service von T-Systems und wurde Mitglied der Geschäftsführung. Seit 1. Januar 2013 verantwortet er den T-Systems Geschäftsführungsbereich Sales.

DMR: Werden solche Wertschöpfungsgebilde nicht anfälliger, zum Beispiel durch Datenmissbrauch, Manipulation oder auch einfach im Hinblick auf die Standfestigkeit der ICT-Infrastruktur in der industriellen Fertigung? Rickmann: Da sprechen Sie einen ganz wichtigen Punkt an. Datensicherheit, Datenschutz, aber auch Safety und Zuverlässigkeit werden einen ganz anderen Stellenwert bekommen. Die entstehenden datenzentrischen Geschäftsmodelle bieten wie beschrieben eine Menge großer Potenziale, sie bringen aber auch Herausforderungen im Hinblick auf Sicherheit mit sich. Dieses Thema nehmen wir bei der Deutschen Telekom sehr ernst. Wir haben uns entsprechend mit einem breiten Portfolio an Sicherheitslösungen aufgestellt. Das fängt an mit verschiedenen Ansätzen, den Zugang in unsere Netze abzu­ sichern, und geht über den Informationstransfer über diese Netze bis hin zur Speicherung und Aufbereitung der Daten. Anfang des ­Jahres haben wir bei uns ein umfassendes ­Cyber Defence Center aufgebaut, um gezielt Attacken aus der ­Cyber-Welt zu identifizieren und abzuwehren. Das alles wird in einem integrierten Ansatz auf den jeweiligen Anwendungsfall zugeschnitten und in Deutschland beziehungsweise nach deutschem ­ Datenschutzstandard bereitgestellt. Also Sicherheitstechnologie „Made in Germany“! Auch die Standfestigkeit ist ein Thema, dem wir uns angenommen haben. Wir besitzen heute schon eine Infrastruktur, mit der wir es Millionen Kunden ermöglichen, mit dem Festnetz-

22

Detecon Management Report blue • 1 / 2015

oder Mobiltelefon zu telefonieren, ihre Daten in unseren weltweiten Rechenzentren sicher und nach deutschem Standard zu hosten und auszutauschen. Diese Infrastruktur ist deswegen zuverlässig, weil sie offen und skalierbar ausgelegt ist. Und genau darauf kommt es auch in den industriellen Anwendungsgebieten an. Wir brauchen auch hier skalierbare Plattformen und Services anstelle von proprietären Lösungen, die schlecht integrierbar sind. Deswegen bieten wir speziell für die industrielle Digitalisierung eine Plattform an, die diese Voraussetzungen erfüllt. Diese Plattform wollen wir gemeinsam mit Kunden aus der Industrie ausbauen – hier verstehen wir uns als Partner der Industrie auf dem Weg zu einer Industrie 4.0. DMR: Dann ist die Deutsche Telekom exzellent für das Industrie 4.0-Umfeld aufgestellt. Aber wie steht es um die Industrie? Rickmann: Die deutsche Industrie hat heute noch den Status, „Ausstatter der Welt“ für Industrieprodukte zu sein, und weist einen hohen Innovationsvorsprung gegenüber dem globalen Wettbewerb auf. Mit der Digitalisierung ergeben sich aber Veränderungen. In vielen Bereichen ist erkennbar, wie schnell der Wandel im digitalen Umfeld ist und wie disruptiv – denken Sie nur an die Musik- oder Medienindustrie, die sich durch die zunehmende Digitalisierung schlagartig mit existenziellen Veränderungen konfrontiert sieht. Dort stehen Fragen im Raum, wie weit das Internet die klassischen Produkte „Print“ und „Fernsehen“ ablösen wird, oder wie sich diese Medien verändern müssen, um wettbewerbsfähig zu bleiben. Auch

im Automobilsektor können wir heute schon sehr disruptive Tendenzen feststellen wie Car Sharing und neue innovative Nischenplayer mit einer gänzlich neuen Wertschöpfungslogik. Die deutsche herstellende Industrie spürt diese Veränderung noch nicht direkt, sie ist aber vielfach schon erkennbar, so dass durchaus Gefahr besteht, die heutige Vormachtstellung einzubüßen, wenn die Unternehmen nicht rechtzeitig in die digitale Transformation einsteigen. Hierzu wird es sinnvoll sein, sich zusammenzuschließen und mit Partnern wie einer Deutschen Telekom die Herausforderungen gemeinsam anzugehen. Daher wollen wir in dem sich gerade neu entwickelnden Industrie 4.0-Markt als Partner der Industrie einsteigen und mit Unternehmen des Mittelstandes und der Großindustrie Pilotprojekte entwickeln. Ziel muss es sein, den Nutzen der Digitalisierung zu konkretisieren und Vertrauen auszubauen. DMR: Bislang kennen die meisten Unternehmen die Deutsche Telekom aus dem Telefongeschäft. Wird ihr die Rolle als Partner der Industrie denn zugetraut? Rickmann: Das ist fast richtig. Insbesondere große Unternehmen kennen uns auch aus dem IT-Umfeld, wo wir in Deutschland als großer Infrastruktur- und Serviceanbieter eine führende Position einnehmen. Aber wir haben eine ganze Reihe von Aktivitäten gestartet, um das nötige Vertrauen der Industriekunden weiter zu festigen, unsere Kompetenz auch in den Kernproduktionsprozessen zu nutzen. Wir sind in verschiedenen Gremien engagiert wie der Plattform Industrie 4.0 und BITKOM-Gremien, wir stehen im Kontakt zum BDI und den etablierten Standardisierungsgremien, um hier die Weichen in wichtigen Standardisierungsfragen zu stellen. Denn Standardisierung wird aus meiner Sicht eine wesentliche Voraussetzung sein für die industrielle Zusammenarbeit in einer digitalisierten Welt. Das ist vergleichbar mit den Normungsbestrebungen des vergangenen Jahrhunderts. Hier muss Deutschland Weltspitze bleiben! Darüber hinaus gehen wir strategische Kooperationen mit starken Industrieunternehmen im Bereich Forschung und Entwicklung ein, um Industrie 4.0 zum Beispiel gemeinsam mit Siemens voranzutreiben. Denn eins ist klar: Der evolutionäre Prozess wird nur im gemeinschaftlichen Zusammenspiel zwischen der Industrie und der ICT-Branche funktionieren. Zusammen mit Industrieunternehmen setzen wir ganz gezielt Pilotprojekte auf, um gemeinsam Lösungen zu erarbeiten, die den konkreten Nutzen aufzeigen, in andere Branchen- oder Anwendungsfelder ausweitbar sind und uns dazu dienen, das Vertrauen der Industrie weiter zu stärken. Und natürlich wollen wir hieran auch lernen, welche Anforderungen unsere Kunden haben.

DMR: Welchen Fokus haben denn diese Pilotprojekte? Geht es dabei mehr um Forschung oder um konkrete Lösungen? Rickmann: Beides. In der Forschungskooperation mit Siemens werden wir gemeinsam ganz grundlegende Dinge bei der Umsetzung der Industrie 4.0 erforschen, das aber stets gespiegelt an konkreten Anforderungen, die mit der Digitalisierung der Industrie entstehen. In den Pilotprojekten mit weiteren Industriekunden gehen wir noch einen Schritt weiter: Diese Projekte fokussieren auf ganz konkrete Themenstellungen, bei denen die Kunden mit uns gewissermaßen Probe fahren. Das können zum Beispiel Fragen der Logistikoptimierung, Flexibilisierung von Produktionsprozessen, Öffnung der Entwicklungsprozesse für eine stärkere Kundeninteraktion oder Predictive Analysis für ein intelligentes Wartungsmanagement sein. Hierzu bündeln wir auf einer zentralen Datenplattform Konnektivität und industriespezifische Services. Meist entsteht aus der Zusammenarbeit ein neuer Service oder ein Ansatz, spezifische Aufgabenstellungen mit ICT-Technologie besser zu lösen. Wir sind an einer derartigen Zusammenarbeit sehr interessiert. Daher rufen wir die Industrie explizit auf, weitere Industrie 4.0-Pilotprojekte mit uns zu initiieren. DMR: Das Leitthema dieser Ausgabe ist das Internet der Dinge. Da denkt vermutlich jeder erst einmal an große amerikanische Unternehmen wie Google, Microsoft und Co. Sehen Sie hier einen internationalen Wettbewerb? Rickmann: Ja, der Wettbewerb ist spürbar, aber nicht nur aus den USA, sondern auch aus Asien. In den USA stehen hinter den Digitalisierungsbestrebungen natürlich die genannten großen Player, die stark aus der Data-Management-Perspektive kommen. In Asien sind es dagegen eher die Hardware- und Infrastrukturanbieter. Wir in Europa haben aus meiner Sicht den Vorteil, dass wir auf einer „Leading Edge“-Industriekompetenz, ICT und einer großen Marktmacht aufbauen können. Aus diesem Grund sehe ich es auch nicht als ausreichend an, wenn wir uns in Deutschland alleine mit dem Thema auseinandersetzen. Wir brauchen in Summe eine europäische Initiative, die stark durch die beteiligten Wirtschaftsunternehmen und Verbände geprägt wird. Noch haben wir die besten Voraussetzungen, unseren Vorsprung in Deutschland und Europa zu behaupten. Wir als Deutsche Telekom stehen als starker Partner der Wirtschaft zur Verfügung und nehmen diese Herausforderung an. DMR: Herr Rickmann, vielen Dank für den Gedankenaustausch.

23

Detecon Management Report blue • 1 / 2015

Master Data Management

Shared Data im Internet der Dinge und in Industrie 4.0 Die Digitalisierung verändert die Welt wie kaum eine Entwicklung zuvor. Welche Anforderungen gibt es an das Datenmanagement, um eine effiziente Datenarchitektur zu gestalten, die auf die Geschäftsmodelle von morgen zugeschnitten ist? 24

Detecon Management Report blue • 1 / 2015

as Ziel von Industrie 4.0 ist die intelligente Fabrik, die sich D durch Wandlungsfähigkeit, Ressourceneffizienz und Ergono-

mie sowie die Integration von Kunden und Geschäftspartnern in Geschäfts- und Wertschöpfungsprozesse auszeichnet. Technologische Grundlage sind Cyber-physische Systeme und das Internet der Dinge. Das Ziel des Internet der Dinge ist es, die Informationslücke zwischen der realen und virtuellen Welt zu minimieren. Ein wichtiger Schritt zu diesem Ziel ist vor allem die Standardisierung der Komponenten und ­Dienste im Internet der Dinge. Das Internet der Dinge unterscheidet sich von dem Konzept der Selbststeuerung in der Logistik. Selbststeuernde Objekte benötigen nicht zwangsläufig internet­ähnliche vernetzte Strukturen. Dennoch lassen sich Synergien herstellen, so dass zumindest in der Forschung beide Konzepte gerne verknüpft werden.

Fällt der Ertrag zu bescheiden aus, merkt sich der Computer: Im ­nächsten Jahr wird mehr gedüngt. Die IT ist hier schon für ein Viertel der Wertschöpfung verantwortlich, in zehn Jahren könnte es bereits die Hälfte sein.

Abbildung 1: Intern genutzte Daten

Firma A Beispiel: • Fehlermeldung • Verbrauch Betriebsmittel • Betriebsstunden • Identifyer

Gerät 1

Kunde

Abgrenzung des Datenmanagements über am Prozess beteiligte Partner Für die überwiegend interne Nutzung von Daten steht zum Beispiel folgendes Szenario: Die Kaffeemaschine protokolliert den Verbrauch von Kaffee und kann dem Kunden so recht­zeitig Nachschub durch einen Dienstleister anbieten. Darüber hinaus wird die Wartung rechtzeitig initiiert und im Fehlerfall die Reparatur ausgelöst. Ähnliche Anwendungsbeispiele sind bei Waschmaschinen, Druckern oder bei vorrausschauenden Wartungen durch die Nutzung von Sensoren denkbar. Per Microship und Internet gelangen die Informationen an die Firmen zurück und stehen für die Vermarktung eigener neuer Dienst­leistungen oder naher Services zur Verfügung. Bei der Paketverfolgung dient ein neuer künstlicher Identifyer, die Sendungsnummer, für die Interaktion zwischen Paket und Kunde. Letztlich werden aber keine schützenswerten Daten nach außen gegeben, und Schnittstellen bestehen hauptsächlich in die eigenen Applikationsumgebung. Bei dieser weitgehend internen Nutzung der auch über das Internet gesammelten Daten muß sich das Datenmangement ganz besonders auf die internen Belange konzentrieren. Nur wenn die Stammdaten eindeutig und richtig sind, können korrekte Auswertungen der gelieferten Informationen durchgeführt und die daraus abzuleitenden Aktionen initiiert werden. Anders sieht es aus, wenn mehrere extern gesammelte Informationen zu neuen Wertschöpfungsketten verknüpft werden: ­Shared Data. Ob Autokonzerne oder Maschinenbau – ohne Informationstechnik geht nichts mehr. Selbst bei der Arbeit auf dem Acker hilft das Internet. Da kommuniziert etwa der Mähdrescher mit der Wetterstation: „Gewitter im Anzug, schneller ernten!“ Gleichzeitig erhält das Getreidesilo eine Meldung darüber, wann es mit der nächsten Fuhre zu rechnen hat.

Gerät n

Gerät 2

Quelle: Detecon

Produkte und Produktionen werden intelligent. Sie kommunizieren untereinander, bestellen den Wartungsdienst oder den Teile-Nachschub. Das Stichwort für diese digitale Revolution lautet Industrie 4.0. Für das Datenmanagement bedeutet das, dass hier unterschiedliche Unternehmen oder Anbieter auf gemeinschaftlich genutzte Daten zugreifen. Sollen diese in die Abbildung 2: Shared Data

Firma A Beispiel: • Material • Kunde • Werkzeug • etc.

Firma B

Firma C

Firma n

Quelle: Detecon

25

Detecon Management Report blue • 1 / 2015

Abbildung 3: Das Master Data Management (MDM)-Vorgehensmodell

Governance, Prozesse und Steuerung Technologie/Systeme

MDM Vorgehensmodell

Datenmanagement

Initialisierung

Grobkonzept

Feinkonzept

Analyse Geschäftsanforderungen

Konzept für Datenverteilung

Objekt- & Attributsanforderungen

Datenobjekt Analyse

Datenbereinigungsansatz

Installation

Test

Auswahl Frameworks & Standards

Standardisierungsansatz

Imlementierung & Techn. Strategie

Technologiekonzept

Data Gov. Awareness & Vision

Definition Berechtigungskonzept

Definition des MD Steuerungsframwork

Setup Master Data Steuerung & Autor.

IBT-Analyse der Prozesse

Prozesssegmentierung

Design, Prozesse & Organisation

Setup Prozesse

Daten laden & verteilen

G&P einführen

Überwachung der Prozess- & Informationsqualität

KPIs überwachen

Analyse Auswirkung Organisation

Definition Governance-Konzept

Workflow Design

Workflow Implementierung

Migrationsstrategie (IBT-Ziel)

Definition Roadmap

Cut-Over Planung

Setup Migrationsprojekte

Identifikation der Migrations- und Archivierungs­ anforderungen

ETL-ToolKonzept

ETL-ToolAuswahl

Projektmanagement und Umsetzungsplanung

Detecon Management Report blue • 1 / 2015

Anwendungen & Tools verwalten

Konfiguration der Lösung

KPIs definieren

Quelle: Detecon

Stabilisierung/ Op. Support

Datenmodell verwalten

Datenharmonisierung/Bereinigung

Datenerfassung

MigrationsRoadmap

26

Aufbau

ETL-ToolKonfiguration

Archivierungskonzept

Test Reports & Workflow

Tests

Durchführung

Informationen erhalten

Post-Migration Support

Daten aus Legacy System extrahieren

Umsetzung Archivierungskonzept

Test Archivierung

Archivierung

eigenen Prozesse integrierbar sein, müssen gemeinsame Standards eingesetzt werden. Hier unterstützen schon in wenigen Bereichen Industrienormen wie EDIFAKT und EDI. Dennoch bedarf es einer Internationalisierung von bestimmten Stammdaten für Materialien, Teile und Kunden durch globale Broker, um barrierefrei kommunizieren zu können. Datamanagement ganzheitlich betrachtet Um eine erfolgreiche Stammdatenarchitektur zu implementieren, müssen vier Bereiche Betrachtung finden: Im Bereich Data Management wird zunächst die Strategie für Data Management und die dafür benötigte Stammdatenarchitektur gesammelt. Aus dieser Strategie können ein Konzept und die notwendigen Umsetzungsschritte abgeleitet werden. Auf dieser Basis lassen sich KPI’s entwickeln, um langfristig die Datenqualität messbar zu machen. Nachdem auch die „globalen“ und „lokalen“ Informationen identifiziert wurden, kann eine systemübergreifende Datenharmonisierung erfolgen. Im Bereich Central Applications & Management werden die jeweiligen Anforderungen aufgenommen und mit denen der allgemeinen Datenstrategie abgeglichen. Außerdem werden die applikationsinternen sowie -externen Störfaktoren identifiziert und als Verbesserungsanforderungen festgeschrieben. Die u ­nterstützenden Datenpflegeprozesse, die Prozesse zur ­Qualitätssicherung sowie die notwendige Organisation werden im Bereich Processes & Governance definiert. Um die produktiven Altdaten in die neue Stammdatenarchitektur zu überführen, werden häufig Technical Elements oder Tools benötigt. Dies schließt das Thema Datenbereinigung, Migra­tion sowie Datenarchivierung mit ein.

Zusätzliche Anforderungen bei der Nutzung von „Shared Data“ Nach Möglichkeit sind gemeinsame Identifieer zu schaffen. Wo vorhanden, ist die Nutzung von globalen Brokern für die internationale Nummernverwaltung sinnvoll. Anderenfalls ist ein Nummernmapping erforderlich. Besonderes Augenmerk liegt auf dem Datenschutz und der ­Datensicherheit. Die Öffnung der eigenen Systeme mit Zugriff auf externe ­Datenquellen macht die Systeme anfälliger für ­Datenangriffe und Spionage. Dies gilt es auf jeden Fall zu verhindern. Die Erstellung eines ausgefeilten Berechtigungskonzeptes ist eine dritte wichtige Anforderung. Heute gelten die im System abgelegten Kunden und auch Produkte als Geschäftsgeheimnis. Bei der Verwendung dieser Daten in Verbindung mit anderen externen Informationen gilt es, die eigenen Daten dennoch vor unberechtigten Augen beziehungsweise fremden Unternehmen zu schützen. Der Einsatz von sogenannten Black- und WhiteLists kann hier erste Hürden überwinden. Harmonisierte Stammdaten und integrierte Prozesse sichern digitale Transformation Die Bedeutung von Datenmangement wird unabhängig von der genutzten Zukunftstechnologie in den nächsten Jahren signifikant wachsen. Der Nachholbedarf der Unternehmen in diesem Bereich ist beträchtlich. Nur mit harmonisierten Stammdaten und integrierten Prozessen können sowohl die digitale Transformation in den Unternehmen störungsfrei umgesetzt als auch die gesteckten Ziele der Unternehmen erreicht werden.

Da alle Bereiche ineinander greifen und dies meist in Verbindung mit komplexen Datenlandschaften zu bearbeiten ist, erfordert die Umsetzung eine strukturierte Vorgehensmethode, die auf „Best Practise“ zurückgreifen kann.

Johannes Mroz ist Managing Consultant und berät vor allem Industrieund Telekommunikationsunternehmen zu den Themen Prozess- und Datenmanagement.

27

Detecon Management Report blue • 1 / 2015

28

Detecon Management Report blue • 1 / 2015

Interview mit Christian Renner, Investment Manager, hub:raum

„Das Internet der Dinge braucht massentaugliche Use Cases, die jedem einleuchten“ Erste Vorboten des Internet der Dinge sind intelligente Heizungssysteme, Wearables oder Staumeldesysteme. ­ Manuel Niederhofer, Senior Consultant bei Detecon, sprach mit ­ Christian ­Renner, Investment Manager beim Telekom Inkubator Hub:raum in Berlin, um herauszufinden, inwieweit die Venture-Szene ­diese Entwicklungen beeinflusst.

DMR: Das Internet der Dinge ist in aller Munde und genau so viele Definitionen gibt es auch. Was ist Dein Verständnis vom Internet der Dinge? Renner: Für mich bedeutet das Internet der Dinge vor allem die tägliche Nutzung von vernetzten Engeräten in allen Lebensbereichen. Die vier wichtigsten Bereiche sind aus meiner Sicht Health, Connected Home, Connected Car und Sport/Fitness. Aus Sicht der Deutschen Telekom spielt sich das Thema ebenfalls zum größten Teil im Konsumentenbereich ab. Auch bei B2B2CModellen müssen wir nach amerikanischem Beispiel erst lernen, dass das B in der Mitte „nur“ ein Kanal ist. Bei unseren Investments haben wir immer die Maxime im Kopf, das skalierbare Plattformgeschäft der Telekom zu pushen. DMR: Also ist das Internet der Dinge mehr als ein twitternder Kühlschrank? Renner: Grundsätzlich bedeutet das Internet der Dinge, dass jedes Gerät eine IP-Adresse bekommt und somit potenziell kommunizieren kann. Ende 2020 sprechen wir von einer 60prozentigen weltweiten Smartphone-Penetration. Und das sind wirklich nur Smartphones. Diese Power ist unglaublich, wenn man bedenkt, dass jeder Sensor, jede Glühbirne oder auch jeder Kühlschrank mit uns kommunizieren kann.

DMR: Warum haben wir dann momentan das Gefühl, dass das Thema noch nicht wirklich Zugkraft hat? Renner: Wir hatten dieses Gefühl auch bei der Cloud, bis sie ­bewusst oder unbewusst Teil unseres täglichen Lebens wurde. Das Internet der Dinge braucht massentaugliche Use Cases, die jedem einleuchten. Wir rechnen damit, dass durch die Apple Watch im Bereich Health und durch den Apple TV im Bereich Connected Home, Apple’s neues HomeKit, Anwendungs­beispiele ­entstehen, die den Markt formen. Bevor dieses Thema nicht „konsumierbar“ gemacht wird, ist es schlichtweg graue Theorie. DMR: Wann wird diese magische vernetzte Welt ein Teil unseres täglichen Lebens sein? Renner: Eigentlich sind wir ja schon mitten drin. Wir müssen uns vor Augen halten, dass wir als Deutsche Telekom sehr früh Trends erkennen und diese auch bearbeiten. Eindrücklich zeigt dies beispielsweise Qivicon Smart Home, das jetzt von Miele ­unterstützt wird. Nest und Co. machen bereits signifikante Umsätze und auch die Telekom zeigt wieder einmal mit BMW auf der IFA, dass sie heiß ist auf das Thema. Wie schon erwähnt: Das Thema steht in den Startlöchern.

29

Detecon Management Report blue • 1 / 2015

DMR: Lass uns mal in Richtung Human Centered Design gehen. Welche drei Use Cases einer vernetzten Welt siehst Du als richtungsweisend an? Welche tatsächlichen Probleme werden hier gelöst? Renner: Wir müssen uns angewöhnen, das Thema holistisch zu betrachten. In erster Linie soll unser Leben durch die tatsäch­ liche Verschmelzung von verschiedenen Lebensbereichen erleichtert werden. Nehmen wir zum Beispiel das Thema BMW und Telekom. Mit ConnectedDrive sollen Haus und Auto vernetzt werden. Damit kann der Fahrer vom BMW aus in seinem Haus das Licht oder die Heizung für verschiedene Räume regulieren und Geräte ein- und ausschalten. Für uns als Telekom sind speziell die Plattformen im Hintergrund relevant. Mit der Verschmelzung vieler Lebensbereiche wird eine neue Nachfrage nach der Verwaltung und ­Orchestrierung von Daten geschaffen. Momenten gibt es vor allem vertikale Insel­lösungen. Die Musik fängt dann an zu spielen, wenn die ­vertikalen Säulen zu horizontal konvergierten Geschäftsmodellen werden. DMR: Was macht Ihr im hub:raum konkret zu diesem Thema? Renner: hub:raum als Frühphaseninvestor der Deutschen Telekom sucht nach spannenden IoT Start-ups, die im Kontext der Telekom skalierbar sind. Wir sind das Ohr am Markt für den Konzern. Bereits in diesem Jahr haben wir ein IoT Bootcamp veranstaltet, bei dem die Business Units mit den spannendsten Start-ups – über 100 Bewerbungen aus mehr als 20 Ländern – „connected“ wurden. Hieraus haben sich dedizierte Partnerschaften entwickelt. DMR: Als einer der „Thought Leader“ im Kontext Corporate Innovation stehst Du jeden Tag zwischen den Stühlen von smarten Startups und trägen Konzernen. Was muss passieren, damit ein smartes IoT Start-up einen Elefanten zum Tanzen bringt? Renner: Das Zauberwort heißt ganz klar Partnering. In diesem Rennen geht es um Reichweite und Traffic. Hier wird nicht der First Mover belohnt, sondern alle diejenigen, die frühzeitig ihre Tore für smartes Partnering geöffnet haben. Mein Lieblingsspruch: „Being a First Mover is King... but Partnering is King Kong!” Wir sollten uns auf das konzentrieren, was wir sind und was wir sehr gut können: eine starke Marke mit starken Möglichkeiten, den Markt mit zu formen. Wir müssen nicht immer alles selbst erfinden. Easy2Partner ist zum Beispiel ein wirklich guter Ansatz, der zeigt, wie wir nach agilem Prinzip schnell auf den Markt reagieren können.

30

Detecon Management Report blue • 1 / 2015

DMR: Sind Start-ups einfach nur frecher? Haben sie schlichtweg nichts zu verlieren? Renner: Konzerne sind Thought Leader, die in den meisten ­Fällen sehr nah dran sind an den Trendthemen. Allersding ­hapert es oft an der Umsetzung. Vielfach ist der Markt einfach noch nicht reif, obwohl sich der Trend bereits klar abzeichnet. Bei einem Start-up stimmt meist der Produkt-Markt-Fit, da aufgrund von Ressourcenrestriktionen ja tatsächlich nur dann agiert wird, wenn der Markt da ist. Beide können also voneinander lernen. Ein Konzern hat alle Eventualitäten meist schon perfekt durchgedacht, ein Start-up ist einfach näher am Markt. DMR: Wie hoch schätzt Du die Chance von deutschen IoT Startups ein im Vergleich zu einem Start-up aus Tel Aviv oder dem Silicon Valley? Renner: Der Standort Deutschland ist gut! Per Tradition haben wir eine exzellent ausgeprägte Engineering-Szene. Allerdings ist unsere Venture-Szene nicht mit Tel Aviv oder vor allem dem ­Silicon Valley zu vergleichen. Besonders hervorzuheben ist der Exit-Markt. Konzerne in den USA haben sich darauf eingestellt, mit Start-ups zu arbeiten – Google kauft Nest – und schon vor langer Zeit Prozesse und Geschwindigkeit an die „Kleinen“ angepasst. Hier muss in Deutschland noch viel passieren. Zudem sehe ich vor allem das Thema Human Centered Design als zentrale Lehre für Deutschland. In Tel Aviv und USA arbeiten die Teams an tatsächlichen Kundenproblemen und verlieren sich nicht in technischer Liebhaberei. Wenn wir lernen, uns noch mehr auf den Kunden zu fokussieren und unsere Engineering Power nutzen, sind wir weltweit sehr gut aufgestellt. DMR: Welche drei Schlüsselfaktoren für nachhaltigen Erfolg gibst Du Deinen Mentees mit auf den Weg? Renner: Erstens: Das Kundenbedürfnis steht im Mittelpunkt – löse ein Problem. Zweitens: Bleib schlank – entwickle ausschließlich an der Lösung des Kundenproblems. Drittens: Bleib fokussiert beim Go2Market – erst nachdem ein Markt skaliert, sollte der nächste angepackt werden. Mit dem Thema „vernetzte Engeräte“ kommt eine Welle auf uns zu, die unser Leben nachhaltig beeinflussen wird. Und wir sind nicht zu spät dran! Diejenigen, die sich schnell und smart für Partnerschaften öffnen, werden den Markt prägen und verteilen.

Über hub:raum: Wir sind der Hub, der Ihr Team, Ihre Vision und Expertise mit der Unternehmensstärke der Deutschen Telekom verbindet: alles individuell auf Ihre Bedürfnisse zugeschnitten. hub:raum managt Ihre Verbindung zu einem der weltweit führenden integrierten Telekommunikationsunternehmen. In den Bereichen, in denen Ihr Team hervorragend ist, überlassen wir ­Ihnen den Schwerpunkt, und in den Bereichen, in denen Sie Hilfe benötigen, unterstützen wir Sie. So, wie es sein sollte.

Christian Renner ist Investment Manager bei „hub:raum“, dem globalen Inkubator der Deutschen Telekom. In dieser Position verantwortet er die Identifizierung und Auswahl der besten Start-ups für den Inkubator. Er unterstützt die Portfolio-Teams dabei, ihr Geschäft zu vergrößern und zusätzliche Finanzierung zu erreichen. Zuvor war er eingebunden in das internationale Managementprogramm der Deutschen Telekom im Vorstandsressort Technologie und Innovation, gründete FAT, eine Beratungs- und MarketingAgentur und war Mitbegründer von careertraining. Zur Förderung des Unternehmertums hält Renner Vorlesungen, veranstaltet Workshops an mehreren Business Schools wie EBS oder Wirtschaftsuniversität Wien und berät Fortune 500 ­Unternehmen in Sachen Innovation, Intra- und Entrepreneurship. Er ist Referent, Podiumsgast und Start-up-Jury-Mitglied als auch a­ktiver Angel-Investor und Berater/Mentor für zahlreiche Hightech-­ Unternehmen.

31

Detecon Management Report blue • 1 / 2015

Das Internet der Dinge als letzte Chance?

Der traditionelle Handel muss die Lücke zu erfolgreichen Online-Händlern schließen

Der Handel muss neue Technologien zur Kenntnis nehmen und in seine Strategie integrieren. Das Internet der Dinge könnte für viele Zauderer die Brücke zwischen on- und offline Welt und die letzte Chance im Kampf mit dem Online-Handel sein. ange Zeit sahen sich die Traditionalisten bestätigt: Der über L die vergangenen anderthalb Jahrzehnte angekündigte Siegeszug

des Online-Handels entwickelte sich nur langsam und nicht alle Versuche, Waren online zu verkaufen, waren erfolgreich. Und dennoch, wenn auch weniger schnell als angenommen, ist der Online-Handel inzwischen nicht mehr nur für kleine Einzelhändler existenzbedrohend. Selbst die großen Unternehmen sind zu einem Umdenken gezwungen.

Offline als Ausstellungsraum für Online Der Einzelhandel steht zunehmend unter Druck. Laut ­einer Umfrage rechnen nur 38 Prozent der deutschen ­Händler für 2014 mit einem Umsatzwachstum1. Die größte Gefahr sieht der stationäre (offline) Handel für sich nach wie vor im eCommerce: Etwa 67 Prozent der Händler fühlen sich durch OnlineShopping bedroht. Mittlerweile lässt sich (fast) alles online 1 Pressemitteilung der Schufa vom 18. 12. 2013.

32

Detecon Management Report blue • 1 / 2015

kaufen. Meist ist die Ware im Internet günstiger und der Einkauf dort bietet weitere Vorteile: Die großen Sortimente sind strukturiert und übersichtlich dargestellt, verschiedene Anbieter ­gewährleisten eine hohe Verfügbarkeit der Ware. Die Bezahlung erfolgt bequem und ohne Schlange stehen zu müssen. Die einfache Vergleichbarkeit von Produktalternativen sowie Empfehlungen und Berichte unzähliger anderer Käufer helfen bei der Auswahl. Besonders dieser letzte Aspekt wird in vielen Geschäften vernachlässigt. Entweder gibt es nicht genug Personal zur Beratung der Kunden oder es mangelt dem vorhandenen Personal an Servicebewusstsein. Hinzu kommt, dass man anderen Käufern – im Gegensatz zu Verkäufern – im Regelfall ein größeres Vertrauen entgegenbringt. „Bereits jetzt suchen etwa zwei Drittel der deutschen Käufer im Netz nach Produktinformationen. Der stationäre Handel entwickelt sich dadurch mehr und mehr zum Ausstellungsraum der Online-Shops – die Kunden sehen sich das gewünschte Produkt im Laden an, vergleichen und bestellen dann aber über ihr Smartphone. Man nennt das Show­ rooming.“, so Dr. Britta Cornelius, Managing Consultant bei Detecon. Denn das ausschlaggebende Argument bleibt häufig der Preis. Dadurch werden die Margen des Handels immer stärker strapaziert. Insolvenzen sind die Folge, wie etwa das jüngste Beispiel des österreichischen Elektrohändlers DiTech, der den Kampf gegen den eCommerce verloren hat. Kauferlebnis: „more enjoyment – less pain” Wie kann der stationäre Handel reagieren? „Die Option, sich als Preisbrecher gegen den Online-Handel zu behaupten, ist aufgrund der höheren Kosten durch Mieten und Personal wenig erfolgsversprechend. Dem stationären Einzelhandel bleibt im Grunde nur die Option, die Affinität der Kunden für digitale Medien zum eigenen Vorteil zu nutzen.“, so Cornelius. Die Studie „Digital Retail Vision“2 betrachtet das Thema digitale Medien am Point of Sale (POS) aus dem Blickwinkel der Händler- und Kundenbedürfnisse. Unter anderem wurden die Teilnehmer gefragt, was sie am Offline-Handel stört. Eine Erkenntnis der Studie war, dass sich die Kunden einen unkomplizierten Einkauf wünschen, der sowohl unterhaltsam als auch inspirierend ist – der Erlebnisfaktor spielt eine wichtige Rolle. „[Offline] Einkauf ist eine Notwendigkeit und langweilig.“, befand ein Studienteilnehmer. Außerdem zeigten sich 70 Prozent der Befragten sehr offen gegenüber neuen Technologien, und 64 Prozent waren auch bereit, mit ihrem Smartphone zu zahlen.

Diese Erkenntnisse gehen einher mit der steigenden Anzahl an „Digital Natives“ – Kunden, die in einer digitalisierten Welt aufgewachsen sind. Deren Bedürfnisse darf der Handel nicht ausblenden, wenn er nicht zunehmend mehr von ihnen an die Internet-Konkurrenz verlieren möchte. Neue Technologien können den Einkauf zu einem eindrucksvollen Erlebnis machen, das die Routine in den Hintergrund drängt. Der stationäre Einzelhandel muss diesen Trumpf des direkten Erlebnisses, das in einem Geschäft viel intensiver ist als auf einer Website, ausspielen, um im Wettbewerb mit dem Online-Handel im Rennen zu bleiben. Mehrwert durch Standardisierung Die Studie „Digital Retail Vision“ verdeutlichte jedoch auch die Ängste der Händler. Der Mehrwert der neuen Technologien erscheint nicht deutlich genug, die Angst vor Innovationen ist groß und schmale Margen zwingen Händler dazu, ihre Investitionen einzuschränken, um den Cash Flow nicht unnötig zu belasten. Investitionen in innovative Technologien sollten jedoch ganzheitlich analysiert werden: Neben direkten Umsatzeffekten gibt es Einwirkungen auf die Kostenseite und die Loyalität, welche wiederum auf zukünftige Umsätze Einfluss nimmt. Beispielsweise führt die Automatisierung der Preisauszeichnung mit Hilfe von elektronischen Preisschildern zu Kostensenkungen. Die Möglichkeit, eigenständig an Self-Checkout Schaltern zu bezahlen und somit das Anstehen an der Kasse zu verkürzen, steigert in bestimmten Segmenten die Kundenloyalität. Ausländische Händler zeigen sich bei den neuen Technologien aufgeschlossener als die deutschen. So sind das eigenständige Scannen der Ware und das Bezahlen am Automaten für unsere europäischen Nachbarn in vielen Geschäften bereits selbstverständlich. Auch Whole Foods, der weltweit größte Betreiber einer Biosupermarktkette, die in den USA, Kanada und Großbritannien vertreten ist, zeigt sich mit dem Kinect Einkaufsbegleiter sehr experimentierfreudig. Dabei handelt es sich um den Prototypen eines am Einkaufswagen angebrachten Bildschirms, der die Einkaufsliste eines zuvor identifizierten Kunden zeigt. Legt der Kunde die Ware in den Wagen, wird diese von einer Kamera erkannt und registriert. Ist die Liste abgearbeitet, wird der Kunde darüber informiert. Die Bezahlung erfolgt automatisch. Außerdem muss dieser intelligente Einkaufswagen auch nicht mehr geschoben werden – er folgt „seinem“ Kunden. Bemerkenswert an diesem Beispiel ist die „Zweckentfremdung“ – die Kinect wurde ursprünglich für die Spielkonsole Microsoft

2 Studie der Hochschule Pforzheim

33

Detecon Management Report blue • 1 / 2015

Xbox entwickelt. Dies stellt sich als Vorteil heraus, da es sich um eine standardisierte Technologie mit bestehenden Supportprozessen handelt. Bei einem starken Verbreitungs- beziehungsweise Standardisierungsgrad fallen Einkaufs- und Betriebskosten weitaus günstiger aus als bei Speziallösungen. Eine Standardisierung und vielfältigen Einsatz gekoppelt mit niedrigen Einsatzkosten verspricht auch die Beacon-Technologie, die aktuell für viel Aufsehen sorgt. iBeacon – das Ortungsgerät Der englische Begriff „beacon“ lässt sich mit „Leuchtfeuer“ oder auch „Ortungsgerät“ ins Deutsche übersetzen und funktioniert nach dem Sender-Empfänger-Prinzip. iBeacon ist der 2013 von Apple Inc. eingeführte proprietäre Standard. iBeacons werden als Signalgeber in Räumen platziert. In festen Zeitintervallen senden sie Signale, die ein Empfänger, beispielsweise ein Smartphone mit einer für den Empfang dieser Signale konfigurierten App, empfangen kann. Die Übertragung geschieht dabei über die von Nokia bereits im Jahre 2006 vorgestellte Bluetooth Low Energy (BLE) Technologie, welche extrem stromsparend arbeitet. Die App reagiert auf die empfangen Signale, zum Beispiel mit dem Anzeigen von Informationen oder Nachrichten. Momentan kostet ein iBeacon Chip zwischen 3-15 Euro. ­Voraussichtlich wird sich der Preis auf Dauer jedoch im unteren Bereich dieser Spanne einpendeln. iBeacons sind klein und können unsichtbar in die Umgebung integriert werden, zum Beispiel in LED-Glühbirnen, wie von Philips gezeigt.3 Davon Abbildung: Beispiel „Das beratende Weinregal“

Quelle: hybris

34

Detecon Management Report blue • 1 / 2015

abgesehen gibt es eine Fülle an weiteren Form-Möglichkeiten vom USB-Stick bis hin zu virtuellen Beacons, die mit Hilfe ­einer Software einen Mac zu einem Beacon verwandeln.4 Auch bezüglich der bereitgestellten Informationen ist der ­Kreativität keine Grenze gesetzt. Navigation in geschlossenen Räumen, Hinweise auf besondere Angebote, angepasst an die Besucherzahl im Geschäft und/oder die Uhrzeit oder auch nur die Identifikation des Kunden sind mögliche Anwendungen. Auch für das schnellere und einfachere Bezahlen mit dem Smartphone gibt die Technologie neue Impulse. Eine große Community an Entwicklern beschäftigt sich bereits seit einiger Zeit mit der Beacon-Technologie. Dabei geht es mittlerweile nicht mehr nur um die iBeacons von Apple, sondern auch um weitere Beacon-Produkte. Das Gimbal-Beacon von Qualcomm beispielsweise wird derzeit verstärkt von Paypal getestet und eingesetzt. Durch den Wettbewerb um attraktive und kommerzialisierbare Anwendungen werden stets neue und vielversprechende Ideen verwirklicht. Zwei davon möchten wir hier vorstellen. Das beratende Weinregal Die Weinauswahl ist eine Kunst für sich. Rot für Fleisch, weiß für Fisch – das ist weitläufig bekannt. Doch wenn es um die ­Sorte, das Herkunftsland oder das Erntejahr geht, verzweifeln viele am prallgefüllten Weinregal. Meist fehlt ein beratender Sommelier in der Nähe. Erleichterung verspricht die Entwicklergruppe hybris mit ihrem „smart wine shelf“5. Die Gruppe entwickelt eine App, mit der der Kunde einen schnellen Weintest durchlaufen und danach sein errechnetes Weinprofil an das Regal schicken kann. Die zum Geschmacksprofil passenden Weine werden am Regal beleuchtet, um den Kunden die Suche zu erleichtern. Nimmt der Kunde eine Weinflasche aus dem Regal, informiert ihn das Regaldisplay mit ­Details zum Wein. Außerdem wird dem Kunden angezeigt, wie gut der entnommene Wein zu seinem grade errechneten Weinprofil passt. Den Händlern versprechen die Entwickler von hybris mit dieser Anwendung neue Analysemöglichkeiten. Zum Beispiel ist es möglich darzustellen, wie häufig welcher Wein entnommen wurde, welcher danach tatsächlich gekauft wurde und welches das beliebteste Wein-Profil ist. 3 www.techrepublic.com/article/10-ways-ibeacon-is-changing-the-future of-shopping/ 4 http://beekn.net/2013/11/turn-your-mac-into-a-bluetooth-beacon/ 5 http://techblog.hybris.com/2014/04/25/the-smart-wine-shelf-how-iot-and retail-come-together/

hybris nutzt sehr günstige Komponenten für das Regal, etwa den Raspberry PI Prozessor und Linux OS. Als Interaktions­ trigger wird das iBeacon genutzt. Das Produkt existiert bereits als Prototyp, 2014 möchte hybris eine vollfunktionale Version vorstellen.

In den USA installierte das Mobile-Shopping-Unternehmen ShopKick in zwei Filialen von Macy’s, dem größten Warenhausbetreiber der Vereinigten Staaten, die iBeacon-Technologie gekoppelt an die ShopKick-App. Daraus entstand das ­„Shop­Beacon“. Die Kunden bekommen Angebote und Produktinformation geschickt und werden so zum Kauf animiert. Mit der sehr genauen Verortung der Kunden bietet ShopKick außerdem die Möglichkeit zu einer genauen Laufbewegungs­ analyse, um etwa eine Optimierung der Verkaufsfläche vornehmen zu können.

Die Lösung sticht aufgrund der engen Anknüpfung an die Kaufbedürfnisse der Kunden hervor: Sie bietet eine leichte Navigation und eine interaktive und personalisierte Beratung, welche das Einkaufserlebnis steigert. Sie ist ein anschauliches Beispiel dafür, wie der Offline-Handel sich dem eCommerce nähern kann. Der Weinkauf ist sehr stark verbreitet im Internet, es gibt unzählige Weingemeinschaften, Clubs und Großhändler. Der Marktführer Wine.com verzeichnet jährlich ein Umsatzwachstum von über 25 Prozent. Alkohol gehört auch im stationären Lebensmitteleinzelhandel zu den Produkten mit der größten Marge. Indem man den Kunden richtig berät, zum Beispiel mit Hilfe eines solchen Regals, steigert man seinen Absatz und damit die durchschnittliche Marge.

Das Versenden von Nachrichten und Angeboten sollte der Marketer allerdings nicht übertreiben. Eine Umfrage von ISACA6 zeigt, dass etwa 50 Prozent der Käufer sich unwohl fühlen bei Nachrichten, die beim Vorbeigehen verschickt werden. Grade die 25-34 jährigen – also die Zielgruppe dieser Technologie – seien am meisten irritiert. Respekt vor der Privatsphäre und wirklich passende Nachrichten sind also essenziell, um Kunden ein perfektes Kauferlebnis zu bieten.

ShopKick’s Proximity Marketing

IoT als Chance nutzen

Ein großer Mehrwert der iBeacon-Technologie liegt darin, dass für das Verkaufspersonal im Geschäft zum ersten Mal die Möglichkeit besteht, die weitgehend anonyme Kundschaft schon beim Betreten des Ladens zu identifizieren und entsprechend zu reagieren. Dies war bisher, wenn überhaupt, nur bei einer kleinen Anzahl von Stammkunden oder durch den Einsatz der Kundenkarte beim Bezahlen möglich. Im letzten Fall ist der Einkauf aber bereits erledigt. Jetzt kann man den Kunden schon für seinen Besuch im Geschäft, beispielsweise durch das Gutschreiben von Treuepunkten, belohnen. Weiterhin erlaubt die einfache und für den Anwender bequeme Technologie, ortsbasierte Services in Gebäude und damit in die Geschäfte und Einkaufzentren zu bringen. Gezielte Information über den richtigen Weg oder bestimmte Angebote, die heute schon ­außerhalb von Gebäuden in Fußgängerzonen übertragen werden können, erhält der Kunde mittels der genauen Ortung durch die Beacons auf sein Smartphone, sobald er einen definierten Bereich im oder vor dem Geschäft betritt. Stellt der Kunde zusätzlich Informationen über sich zur Verfügung oder stimmt er beispielsweise einer Integration mit den von ihm benutzen sozialen Netzwerken zu, kann der Händler über seine Kunden lernen. Mit der Zeit erhält der Kunde nur noch Angebote, die ihn wirklich interessieren – und empfindet, dass der Händler ihn versteht.

Das Internet der Dinge bietet zweifellos eine Chance, die Attraktivität des (offline)Handels für online-affine Kunden zu steigern. Das iBeacon ist nur eine Möglichkeit, das Einkaufserlebnis am POS umzugestalten. Die dargestellten Anwendungsfälle von hybris und ShopKick zeigen anschaulich, welche neuen Arten der Interaktion mit dem Kunden dank dieser Technologie möglich sind. „Eine Betrachtung der Technologien anhand konkreter Situationen, also einem Use Case, macht deutlich, an welchen Stellen eine online-offline-Verflechtung sinnvoll ist. Eine Datenbank zu Anwendungsfällen des Internet der Dinge im Handel, wie sie von Detecon entwickelt wurde, bietet für jeden Händler individuell die Möglichkeit, sich nach den wichtigsten Kriterien einen Überblick zu verschaffen.“, rät Britta Cornelius. Nicht zu lange warten und ausprobieren, was zum eigenen Unternehmen passt, muss die Devise sein, um die eigenen Stärken wieder in den Mittelpunkt zu rücken und die letzte Chance im Kampf gegen den eCommerce nicht zu verpassen. 6 www.technewsworld.com/story/Macys-Dips-Toes-in-Brave-New Marketing-World-79493.html

Evgeny Shibanov, Senior Consultant, berät Unternehmen der Telekommunikationsindustrie in CIS zu innovativen und strategischen Themen. Lea Fortmann ist Business Analyst und berät Handelsunternehmen sowie ­öffentliche Institutionen hinsichtlich Fragestellungen aus dem Innovations- und Technologiemanagement.

35

Detecon Management Report blue • 1 / 2015

Car-to-X-Technologien verändern die Zukunft

K.I.T.T. BITTE KOMMEN! In den 1980er Jahren galt das autonom fahrende Fahrzeug K.I.T.T., der motorisierte Star aus „Knight Rider“, noch als Science Fiction. Heute forciert die Automobil- und Telekommunika­tionsindustrie Aktivitäten, die das Fahrzeug vernetzen: mit dem Internet, mit anderen Fahrzeugen und mit der Straße. Fahrzeuge werden damit zu einer Art K.I.T.T. – einem Unterstützer in allen Lebenslangen, zumindest im Straßenverkehr.

36

Detecon Management Report blue • 1 / 2015

ar-to-X subsumiert alle Technologien, die mit Hilfe von C Car-to-Car- und Car-to-Infrastructure-Kommunikation darauf abzielen, die Verkehrssicherheit und -effizienz sowie den Fahrkomfort zu steigern. Ermöglicht wird dies durch den blitzschnellen Austausch von Informationen, beispielsweise über Fahrzeugstandort, Geschwindigkeit und Ampelstatus. Fahrzeuge kommunizieren dabei durch Vehicular-Ad-Hoc-Networks (VANETs) oder durch Mobilfunk – miteinander oder mit der Verkehrsinfrastruktur. Über den direkten, idealerweise in Echtzeit erfolgenden Transfer relevanter Informationen, können Fahrzeuge ihre Fahrer nicht nur automatisiert vor Staus und Stauenden, Geisterfahrern und Hindernissen warnen, sondern ihn auch in Gefahrensituationen automatisiert unterstützen. Die Vision Doch wohin soll die Reise gehen? Betrachtet man die Entwicklungen sowohl bei OEMs als auch bei Zulieferern – und als solche betrachten wir auch explizit Google und Apple –, dann sind die Car-to-X-Systeme ein wichtiger, aber auch notwendiger Zwischenschritt auf dem Weg zum autonomen Fahren, in das der Mensch zwar eingreifen kann, aber nicht muss. Google scheint bei der Umsetzung dieser Vision schon recht weit zu sein und forscht seit 2009 am Thema „Autonomes Fahren“. Seit 2012 fahren mehrere umgerüstete Standardfahrzeuge im kalifornischen Straßenverkehr eigenständig umher und haben auf Highways, Landstraßen und sogar im Stadtverkehr auf vorprogrammierten Routen über eine Million Kilometer offensichtlich unfallfrei zurückgelegt. Langfristiges Ziel ist hier neben der Erhöhung der Fahrsicherheit sowie der Steigerung der Verkehrs­ effizienz wohl vor allem die Erhöhung des Zeitvolumens, das der Fahrer während des Fahrens für die Nutzung von GoogleServices und Werbung aufbringen kann. Auch hier bleiben Fragen offen: Wer haftet für den Fall, dass das autonom fahrende Fahrzeug Unfälle verursacht? Hat der Fahrer die Pflicht, ständig wachsam zu sein, um bei ­Gefahrensituationen einzugreifen? Erste Meinungen von offizieller Seite sehen hier ganz klar den OEM in der Verantwortung. Darüber hinaus müssen sich Anbieter intelligenter Fahrzeuge die Frage stellen,

wie diese in andere Anwendungsfälle des „Internet of Things“ integriert werden können. Nahezu alle internationalen OEMs und Zulieferer arbeiten und forschen an diesen Technologien und Konzepten, stehen dabei jedoch noch vor großen Herausforderungen, sowohl im Bereich der technischen Umsetzung als auch in der Entwicklung von tragfähigen Geschäftsmodellen. Technische Herausforderungen Eine der größten Herausforderungen im technologischen ­Bereich liegt dabei in der Vielzahl von unterschiedlichen Standardisierungen hinsichtlich der Übertragung der relevanten Informationen, von denen sich bislang noch keine durchsetzen konnte. Timo Bolse, Experte im Detecon Connected Car Solution Center, erklärt: „Die notwendigen technologischen Lösungen und Standards für VANETs, zum Beispiel IEEE 802.11p, sind vorhanden, aber ein dominantes Design, wie diese in die Fahrzeuge integriert werden, existiert noch nicht. Besonders für die direkte Fahrzeug-zu-Fahrzeug-Kommunikation befinden sich die OEMs in einer wartenden Position, da die Finanzierungssituation nicht abschließend geklärt ist. Ohne politischen und regulatorischen Druck wird sich kurzfristig vermutlich nicht viel bewegen.“ Bei einer reinen Vernetzung über Mobilfunk würden sich ebenfalls Verzögerungen in der Marktdurchdringung ergeben, so Bolse weiter. „Viele der potenziellen Anwendungsfälle für direkte Fahrzeug-zu-Fahrzeug-Kommunikation können theoretisch über reine Mobilfunkverbindungen abgewickelt werden. Da sich abzeichnet, dass Mobilfunkeinheiten allmählich in die Fahrzeuge integriert werden, wird hierdurch vermutlich die Verbreitung von 802.11p Hardware zur direkten Kommunikation verlangsamt.“ Eine weitere, bislang noch ungelöste Herausforderung liegt im Bereich Daten- und Übertragungssicherheit. Hier ist noch kein umfassendes Konzept von Herstellern oder Zulieferern vorgestellt worden, das den potenziellen Kunden die Angst vor einem „gehackten“ Auto nimmt. Dass solch ein Konzept notwendig ist zeigen erste Studien. Chris Valasek deckte beispielsweise auf der „Black Hat“ Sicherheitskonferenz 2014 zahlreiche potenzielle Schwachstellen in Connected Cars auf.

37

Detecon Management Report blue • 1 / 2015

Doch nicht nur das Thema Sicherheit scheint von Brisanz. Auch der Schutz der Daten ist noch lange nicht vollständig gelöst. Was passiert mit all den Daten, die das Auto während der Fahrt sammelt? Hier bedarf es einer klaren Regelung des Gesetzgebers, welche Daten von wem wie verarbeitet werden dürfen und wie diese zu anonymisieren sind. Dies gilt insbesondere dann, wenn der Autobesitzer dieser Datensammlung und -verarbeitung nicht explizit zustimmt. Ansonsten könnten Szenarien der Überwachung Realität werden, die weit über das hinausgehen, was George Orwell in „1984“ entworfen hat. Betriebswirtschaftliche Herausforderungen Neben diesen technischen Herausforderungen existieren bei Automobilherstellern und Zulieferern auch zahlreiche Restriktionen, die sich aus einer betriebswirtschaftlichen Perspektive ergeben. Eine der größten Herausforderungen auf dem Weg zu leistungsfähigen Car-to-X-Systemen resultiert aus der aktuell noch nicht vorhandenen Marktdurchdringung. Bisher liefern nur sehr wenige Fahrzeuge und Infrastrukturbestandteile die erforderlichen Daten, um eine flächendeckend stabile Datenlage bereitzustellen. Doch Neukunden werden erst dann von einem neuartigen System überzeugt sein, wenn die möglicherweise aufpreispflichtigen Features in vollem Umfang zur Verfügung stehen. „Wir haben es hier mit einem klassischen ­Henne-­­Ei-Problem zu tun, sowohl in Bezug auf die Verbreitung der Technologie im Fahrzeug als auch in der Verkehrsinfrastruktur.“, sagt Bolse. „Besonders auf der Seite der Infrastrukturbetreiber müsste in ausreichendem Umfang Technik verbaut werden, um realistische Anwendungsfälle zu ermöglichen“, so Bolse weiter. Darüber hinaus müssen OEMs flexibel bleiben, was die a­ ndere Seite der Car-to-X-Medaille angeht: die Ausstattung der Verkehrsinfrastruktur mit Kommunikationstechnologie. Denn eine flächendeckende Ausstattung von Lichtsignalanlagen, Fußgängerüberwegen, Kreuzungen, Fahrbahnen und Verkehrsleitzentralen ist teuer und aufwändig, so dass nur die Politik ­diese Entwicklung forcieren kann. Ob sich diese jedoch zeitnah hierzu entschließt, bleibt fraglich. Dementsprechend müssen OEMs auf der einen Seite zwar weiterhin eng mit der öffentlichen Hand kooperieren, wie beispielsweise durch die 20122013 durchgeführte SimTD(Sichere intelligente Mobilität – Testfeld Deutschland)-Studie. Auf der anderen Seite müssen sie aber auch in Alternativen denken, zum Beispiel an die Erforschung von visuellen Systemen, die die zuverlässige und automatisierte Erkennung von Lichtsignalanlagen, Verkehrszeichen und Fußgängern ohne entsprechend ausgerüstete Infrastruktur garantieren.

38

Detecon Management Report blue • 1 / 2015

Doch nicht nur hinsichtlich Produktentwicklung und Markteintritt gilt es, Hürden zu nehmen. Auch in Bezug auf die spätere Kundenansprache müssen OEMs Dienste schaffen, für die Endkonsumenten bereit sind zu zahlen, sei es als Besitzer von Fahrzeugen oder auch als Nutzer von Fahrzeugen in CarSharing-Modellen, bei denen Besitzer nicht gleich Nutzer sind und Fahrer häufig wechseln. Aktuelle Studien lassen den Schluss zu, dass Kunden gerade im Bereich sicherheitsrelevanter Systeme besonderes preissensibel agieren. Möglicherweise müssen OEMs einen Weg finden, wie sie den Fahrkomfort ihrer Kunden beispielsweise durch die zuverlässige Vorhersage von Staus und Verkehrsbehinderungen erhöhen können. OEMs sollten dabei auch abseits klassischer Geschäftsmodelle denken und zum Beispiel Pay-per-use-Ansätze nutzen, um Kunden auch weiterhin langfristig an die eigene Marke zu binden. Die Automobilindustrie, allen voran die OEMs, müssen dabei unter Beweis stellen, dass sie dazu in der Lage sind, tragfähige Geschäftsmodelle zu entwickeln. Dies kann nur mit Partnern gelingen, die sich mit der Kommunikation verschiedener ­Devices auskennen und erfahren in der erfolgreichen U ­ msetzung tragfähiger, digitaler Geschäftsmodelle sind. Nur durch ein intelligentes Kooperationsmodell werden es OEMs schaffen, mit diesen neuen und schnellen Entwicklungen Schritt zu halten. Lösungsansätze Experten sind sich sicher, dass in den nächsten Jahren eine Revolution in den Fahrzeugen stattfinden wird, bei der ­ ­manuelle Instrumente wie das Bremspedal immer mehr durch aktive ­Assistenzsysteme unterstützt werden. Ein Großteil der Technik, die die Zukunft des Autofahrens ermöglichen soll, ist heute schon in vielen Fahrzeugen vorhanden. Dazu gehört ebenso die Vernetzung des Fahrzeugs als Grundvoraussetzung für das zukünftige Geschäft der Automobilhersteller. Um die Vision von autonomer PKW-Mobilität jedoch wahr werden zu lassen, müssen die OEMs hierbei nicht nur relevante Fragen aus ihrem Kerngeschäft beantworten, sondern auch die Welt der IT und Telekommunikation verinnerlichen – und verstehen. Damit bald Fahrzeuge mittels Car-to-X-Technologie durch den Verkehrsdschungel navigieren können, reichen nicht nur aktive Sicherheitssysteme und Sensoren aus. Künftige auto­ nome Fahrzeuge werden sich als Minderheit in einem existierenden, von Menschen gesteuerten Verkehrssystem zuverlässig bewegen müssen. „Sicherheit“ bedeutet in diesem Fall nicht nur, die Fahrzeuge unfallfrei durch Stau und Berufsverkehr ­fahren zu lassen, sondern auch fahrer- und fahrzeugspezifische

Daten sicher zu nutzen. OEMs müssen möglicherweise einen Weg ­finden, die unterschiedlichen Applikationen im Fahrzeug und die Interaktion mit der Verkehrsinfrastruktur voneinander zu trennen. Denkbar wäre eine Aufteilung wie im ConnectedHome-Umfeld, wo Telematik-Applikationen wie die Haus­ steuerung unabhängig und gesichert vom Multimedianetzwerk betrieben werden. Da dies nicht zur unmittelbaren Kernkompetenz der meisten OEMs zählt, werden sowohl auf Technologie- als auch auf Business-Seite Unternehmenspartnerschaften eine entscheidende Rolle einnehmen. Automobilhersteller werden sich nicht mehr ausschließlich in einer Buyer-/Supplier-Konstellation wieder­ finden, sondern benötigen einen aktiven, industrieübergreifenden Ansatz. Neben der Implementierung der notwendigen Technik im Fahrzeug müssen sie auch die Entwicklungen im öffentlichen Sektor aktiv unterstützen. Durch die 2020er Klimaziele der EU laufen eine Vielzahl von „Smart City“-Projekten in Europas Metropolen, die weniger Stau, mehr Lebensqualität, weniger Abgase und mehr Sicherheit ermöglichen sollen. Damit dies gelingt, muss die gesamte städtische Infrastruktur auf diesen Zukunftstrend ausgerichtet sein, sodass Straßenlaternen, Ampeln und Parkhäuser eigenständig den Verkehrsfluss organisieren. Fahrzeuge könnten hier als „mobile Sensoren“ einen wesentlichen Beitrag für die Städte und Kommunen leisten, indem sie beispielsweise Daten über freie Parkplätze direkt an Verkehrsleitsysteme übertragen. Klamme Kommunen könnten so die nötigen Investitionen in die Ausrüstung ihrer Städte verringern: Anstatt hunderte von Stellplätzen mit einzelnen Sensoren auszustatten wäre ein Modell denkbar, bei dem PKWs als mobile Sensoren innerhalb der Smart City fungieren. Die Interkompatibilität der Systeme in Fahrzeugen und der städtischen Infrastruktur wird einer der Schlüsselpunkte für das vernetzte Fahren der Zukunft. Unter Wahrung der Sicherheitsanforderungen wird eine Öffnung der Systeme dabei ein unerlässlicher Faktor sein, um die künftigen Mobilitätsmodelle Realität werden zu lassen. Zu guter Letzt bleibt die Frage, welche Kundenbedürfnisse mit den Mobilitätskonzepten der Zukunft durch Car-to-X Technologien gedeckt werden? Menschen in aller Welt kaufen heute ihre Fahrzeuge, um dem Bedürfnis einer unabhängigen Mobilität nachzukommen. Diese Unabhängigkeit wird durch autonomes Fahren künftig eingeschränkt werden. OEMs und ihre Partnerfirmen müssen daher einen Weg finden, dem Kunden von morgen ein neues „Mobilitätserlebnis“ zu bieten. Die Vielzahl von Varianten, Online-Dienste in das Fahrzeug zu integrie-

ren, zeigt, dass die Branche sich derzeit noch auf experimenteller Ebene den vom Kunden als wertvoll und notwendig empfundenen Services nähert. Studien belegen, dass Kunden den bisherigen Fokus auf Komfort- und Multimediafunktionen nur bedingt als werthaltig empfinden und daher eine geringe Zahlungsbereitschaft besteht. Das Erledigen von Telefonaten und E-Mails während Stau­ phasen stellt heute kaum einen Schmerzpunkt für den Kunden dar, erhält aber eine andere Bedeutung, wenn der F ­ ahrer durch ­autonomes Fahren keinen Unfall befürchten müsste. Ob somit das vernetzte Fahrzeug ein Treiber für das autonome Fahren sein wird oder vice versa, kann dabei nur die Zukunft zeigen. Der Traum von K.I.T.T bleibt dennoch bestehen.

Tobias Kardach ist Product & Proposition Manager im M2M Competence Center der Deutschen Telekom AG. Er definiert industriespezifische M2MAngebotskonzepte, unter anderem im Bereich der Fahrzeugtelematik. Claus Eßmann, Senior Consultant, und Dr. Stefan Gladbach, Consultant, sind Mitglieder des Connected Car ­Solution Center. Sie beraten Unternehmen der Automobil- und ­Telekommunikationsindustrie zu Innovationsthemen. Das Detecon Connected Car Solution Center bündelt die Fachkompetenz der Detecon-Experten rund um das Thema vernetztes Fahrzeug. Berater aus verschiedenen Fachgebieten wie Innovations- und IT-Management, CRM oder Mobile Application beschäftigen sich mit allen Phasen des Produktentstehungsprozesses.

39

Detecon Management Report blue • 1 / 2015

Interview Datentechnisch wird das Auto das Mobiltelefon noch übertrumpfen Die Verbindung von Auto und Internet garantiert, dass der ­vernetzte Lifestyle nicht vor der Autotür halt macht. Dr. Sven Beiker vom Center for Automotive Research spricht über seine Vision, den Traum vom automatisierten Fahren und Silicon Valley als neuen ­Innovations-Hotspot der Automobilindustrie.

Dr. Sven A. Beiker Geschäftsführender Direktor von CARS, Center for Automotive Research, Stanford CARS ist eine interdisziplinäre Kooperation zwischen Wissenschaft und Industrie mit dem Ziel, die Heraus­forderungen persönlicher Mobilität im 21. Jahrhundert zu adressieren. Dr. Sven A. Beiker verantwortet hier das B ­ eziehungsmanagement zwischen Universität und Industrie. Darüber hinaus ist er in der Lehre tätig mit Lehraufträgen an der Stanford University‘s School of Engineering, der Stanford Graduate School of Business und der Fakultät für Elektrotechnik der Technischen Universität Braunschweig. Für seine eigene Forschung führt er Studien über Konsumverhalten und elektrische Mobilität in Stanfords Precourt Energy Efficiency Center durch. ­Als Berater in Sachen Automobil und Mobilität ist er für die Deutsch-Amerikanische Handelskammer in San Francisco sowie als Mitglied des wissenschaft­lichen Advisory Board für die Lecture Notes in Mobility der Springer Science+Business Media tätig.

40

Detecon Management Report blue • 1 / 2015

DMR: Herr Dr. Beiker, lassen Sie uns mit einer kurzen Einführung starten, in der Sie uns etwas über sich und Ihre Organisation CARS erzählen. Dr. Beiker: Gern. Ich bin geschäftsführender Direktor des Center for Automotive Research an der Stanford University mit der griffigen Abkürzung CARS. Es ist ein Programm, das in ­Kooperation mit der Industrie entwickelt wurde, das heißt, wir bringen Industrie und Wissenschaft zusammen, um einen Blick in die Zukunft des Automobils zu werfen. Oder etwas weiter gefasst, in die Zukunft der persönlichen Mobilität. Hier geht es im Wesentlichen um das Auto, aber auch darum, wie wir mit dem Fahrzeug interagieren, um Anwendungsfälle und Geschäftsmodelle sowie darum, wie wir uns generell fortbewegen und das Auto all unsere Bedürfnisse erfüllt. Es gibt vier Hauptthemen, an denen wir mit unseren Industriepartnern – zurzeit sind es 27 – zusammenarbeiten: Das sind zunächst unsere fahrerlosen Kraftfahrzeuge, die manch einer als autonome oder selbstfahrende Fahrzeuge bezeichnen würde, dann unsere elektrischen Fahrzeuge, das heißt vernetzte Fahrzeuge, und Themen wie Car Sharing und Ride Sharing. Wir sind davon überzeugt, dass unsere Arbeit einen ziemlichen Einfluss darauf haben wird, wie wir uns in Zukunft fortbewegen. DMR: Was ich selbst beobachte – und Sie wahrscheinlich in einem noch viel stärkeren Maß – ist, dass die Automobilbranche in Sachen High-Tech-Entwicklungen nicht wirklich führend ist, insbesondere im Vergleich zu Smartphones oder gar Flugzeugen. Dazu würde ich sehr gern Ihre Meinung hören. Warum sehen wir hier nicht den Fortschritt, den andere Branchen aufweisen? Ist das ein ­Problem, das mit der Struktur oder mit den Geschäftsmodellen zu tun hat? Dr. Beiker: Eine Frage, die mir in der Tat oft gestellt wird, ist: „Warum ist mein Telefon so intelligent, aber mein Auto so dumm?“ Allerdings ist das Auto eigentlich sehr intelligent oder zumindest ein hoch entwickeltes Produkt, in das man bis zu 100 Computer installieren kann. Sie steuern alles, von den Antriebssträngen, der Steuerung, den Bremsen bis hin zu Türschlössern und Navigation. Und all diese Systeme sind miteinander vernetzt. Das ist ein ziemlich hoher Grad an Innovation und Ausgereiftheit, wobei das meiste davon nicht unmittelbar sichtbar ist. Und letztlich dienen all diese Systeme einem einzigen Ziel: effizient, sicher und bequem Auto fahren. Es geht immer noch darum, von A nach B zu gelangen. Doch das Auto an sich ist ein sehr emotionales Produkt und auch ein sehr teures. Für die meisten von uns ist es die zweitgrößte Ausgabe während unserer gesamten Lebenszeit. Autos werden in Serie gefertigt und die Fertigungszahlen zumeist in Millionen pro Jahr angegeben. Aus der Fertigungsperspektive ist Effizienz ein kritischer Erfolgsfaktor. Die Entwicklung eines Automobils nimmt ziemlich viel Zeit in Anspruch, so dass Hersteller in Verbindung mit dem Fertigungsprozess jedes Jahr Riesenbeträge für die Werkzeugbestückung aufwenden müssen. Ein bisschen mit dem Produkt herumzuspielen nach dem Motto „lass uns mal dieses oder jenes ausprobieren“, um dann eine Entscheidung zu treffen – das funktioniert bei Autos nicht besonders gut. DMR: Wie werden wir uns in 2020 fortbewegen? Welcher Prozentsatz wird auf selbstfahrende Autos entfallen, welcher auf Car Sharing und andere innovative Mobilitätskonzepte? Dr. Beiker: Wir veranschlagen die Dauer eines Modellzyklus mit zirka sieben Jahren. Wenn wir über 2020 reden, dann bewegen wir uns sogar noch unter dieser Zeitmarke. Das Voranschreiten der Technologie erfolgt offensichtlich viel schneller und in wesentlich kürzeren Iterationszyklen. Man geht jedoch davon aus, dass sich im Automobilsektor sehr viel Neues in der zweiten Hälfte

41

Detecon Management Report blue • 1 / 2015

dieses Jahrzehnts ereignen wird. Fahrer-Assistenz-Systeme und partielle Automatisierung werden sich durchsetzen und bis zu einem gewissen Grad etablieren. Das bedeutet, dass Autos bei sehr langsamem Verkehr so gut wie von selbst fahren. Wenn wir von sehr langsamem Verkehr sprechen, dann meinen wir Parksituationen, eine starke Verkehrsdichte oder Verkehrsstaus, also Momente, in denen das Auto die Funktion des Fahrers übernimmt. Trotzdem muss der Fahrer die Kontrolle über das haben, was gerade passiert. Er muss nach wie vor die Straße im Blick haben und auf den Verkehr achten. Vielleicht gibt es um 2020 herum die ersten Lösungen, die den Fahrer in puncto Aufmerksamkeit völlig entlasten, aber bei unvorhergesehenen Ereignissen muss er sofort wieder übernehmen können. Das heißt, wir betreten den Bereich der Automatisierung, in dem zunehmend mehr Aufgaben, die das Führen eines Fahrzeugs betreffen, vom Fahrer auf den Computer übertragen werden. Ich würde in meiner Prognose so weit gehen, dass im Jahr 2020 die Mehrheit der neuen Fahrzeuge in der einen oder anderen Weise mit dem Internet verbunden sein wird. Egal, ob zu Unterhaltungszwecken, Media Streaming oder Internet-Radio im Auto. Auch Gestenerkennung ist ein wichtiger Aspekt und Spracherkennung funktioniert hervorragend im Auto. Da das Auto eigentlich mit viel zu vielen Knöpfen und Schaltern ausgestattet ist, ist die Gestenerkennung ganz stark in den Blick der Industrie geraten. Außerdem wird es mehr Elektrofahrzeuge geben. Meines Erachtens besteht jedoch Einigkeit darüber, dass der Antrieb für solche Fahrzeuge auch in 2020 mehrheitlich über Benzin- und Dieselmotoren erfolgen wird. DMR: Dann wird also mehr als die Hälfte aller Fahrer immer noch so fahren wie heute? Dr. Beiker: Ja. Lassen Sie es uns so formulieren: Wenn wir beide heute eine kleine Zeitreise in das Jahr 2020 unternehmen würden, müssten wir uns sicherlich neu orientieren, bevor wir ein Fahrzeug starten könnten. Aber danach könnten wir losfahren. Vermutlich könnten wir nicht alle kleinen Knöpfe und Schalter zuordnen, die sich irgendwo hinter dem Steuerrad befinden, um bestimmte automatisierte Fahrfunktionen einzuschalten. Dass sich in einem herkömmlichen Fahrzeug eine Revolution bei der Automatisierung oder dem autonomen Fahren vollzieht, ist nicht sehr wahrscheinlich. Es wäre jedoch möglich und denkbar, dass wir Situationen erleben, in denen das Fahren innerhalb der Stadt eventuell verboten ist. Eventuell dürfen wir dann nicht mehr in großen Städten Auto fahren, sondern nur bis zu einem am Stadtrand gelegenen Park+Ride-Parkplatz, wo wir in ein kleines automatisiertes Shuttle-Fahrzeug umsteigen. Der Shuttle sieht allerdings nicht aus wie ein Bus, so wie wir ihn heute kennen. Es kann ein Fahrzeug sein, das nicht mehr als vier bis sechs Passagiere befördern kann, das auf Anforderung exakt zu unserem Aufenthaltsort – in diesem Fall zum Parkplatz – kommt und uns zu sechs Bushaltestellen bringt, die auf diesem Parkplatz strategisch angelegt sind. Das Fahrzeug kommt also zu uns, sammelt uns ein, bringt uns in die Innenstadt und verschwindet wieder, um neue Kunden zu befördern. Der Grad der Automatisierung nimmt zu und es wird irgendwann auch völlig selbstfahrende Fahrzeuge geben. Ich glaube allerdings, dass der Einsatz dieser Fahrzeuge sehr beschränkt sein wird. Diese Entwicklung wird sich eher an der Schnittstelle zwischen persönlicher Mobilität und öffentlichen Verkehrsmitteln vollziehen und die privaten PKWs auf der Autobahn eher vernachlässigen.

42

Detecon Management Report blue • 1 / 2015

DMR: Wo sehen Sie heute im Bereich des Internet der Dinge die interessantesten Aktivitäten? Dr. Beiker: Das Auto ist ja bereits heute mit sehr vielen Computern ausgestattet, innerhalb des Autos ist alles miteinander vernetzt. Wir haben erwähnt, dass Fahrzeuge bis 2020 fast alle mit dem Internet verbunden sein werden. Darüber hinaus werden sie wahrscheinlich mit 20 bis über 100 Sensoren ausgestattet sein, die sowohl die Umgebung als auch den Zustand des Fahrzeugs selbst erkunden. Wenn Sie dies alles zusammen nehmen, erhalten Sie aus den Fahrzeugen eine Unmenge von Daten. Sie können Autos auch als Datensonden nutzen – sie sind „allwissend“: Sie erhalten eine sehr detaillierte Karte über die Temperatur und die Luftdruckverteilung in der Stadt, Informationen über die atmosphärische Zusammensetzung der Atemluft, natürlich Informationen über die Verkehrsdichte, und falls Sie Navigationsdaten nutzen, wird Ihnen ­außerdem noch mitgeteilt, wo sich diese Fahrzeuge in den nächsten fünf, zehn, fünfzehn oder dreißig Minuten befinden werden. Meine These lautet: Autos generieren in Zukunft wesentlich mehr Daten als Mobiltelefone! Schauen Sie sich zum Beispiel das Verhalten der Leute in einem Restaurant an: Nehmen wir an, ein Paar sitzt in einem Restaurant und einer verlässt kurz den Tisch. Ich garantiere Ihnen, dass die andere Person, die am Tisch zurückbleibt, innerhalb von dreißig Sekunden zum Telefon greift. Dasselbe wird auch im Auto passieren. Wenn Sie den ­Leuten sagen, dass sie das Fahrzeug nicht mehr führen müssen, dann werden sie die gewonnene Zeit sofort für andere Dinge nutzen. Daher ist es absolut wichtig, dass das Auto für den vernetzten Lebensstil über eine exzellente Datenverbindung verfügt. DMR: In Sachen Innovation nehmen Deutschland und Japan eine führende Rolle in der ­Automobilindustrie ein. Zurzeit bringen aber auch die USA sehr interessante Innovationen hervor, größtenteils Anwendungen für vernetzte, elektrische oder selbstfahrende Autos. Wo werden sich Ihrer Meinung nach in den nächsten Jahren die interessantesten Innovations-Hotspots befinden? Dr. Beiker: Solche Vorhersagen für die Zukunft zu treffen, ist generell eine heikle Angelegenheit. Was die führenden Standorte für Automobilentwicklung betrifft, so ist das Silicon Valley dank Tesla hier mittlerweile präsent. Das bedeutet einerseits, dass sich Innovation auf globaler Ebene vollzieht, andererseits aber auch, dass sich jede Art von Innovation auf das Auto anwenden lässt. Beim Auto geht es längst nicht mehr nur um das Fahren, sondern darum, dass man im Auto denselben Lebensstil wie außerhalb des Autos verfolgen kann. Daher ist so gut wie alles auf das Auto anwendbar. Das neue Modell von Mercedes ist zum Beispiel mit einem Duft-Steuerungssystem ausgestattet – man kann im Auto zwischen bestimmten Düften und Steuerungssystemen auswählen, und je nach Fahrsituation, Klimaanlageneinstellung oder Laune hat man dann den passenden Duft im Auto. Wer hätte gedacht, dass so etwas jemals Eingang in die Welt des ­Autos finden würde, in der man Gerüche eher mit Benzin, Gummi oder Metall assoziiert? Nach m ­ einer Auffassung hat sich die Automobilindustrie nicht nur im Hinblick auf den weltweiten Absatz, der in den letzten zwanzig bis dreißig Jahren stattgefunden hat, global entwickelt, sondern ist zu einer Branche geworden, die Innovation global vorantreibt. Daher blickt auch jeder auf das Silicon Valley. Es ist sicherlich nicht zu einem neuen Detroit geworden, aber diese ­Branche kooperiert eng mit Detroit. Übrigens auch mit Stuttgart, Wolfsburg, Paris, Yokohama und Tokio. Und wenn es in der Zukunft ein neues Innovationszentrum gibt, wäre ich nicht erstaunt, wenn Automobilhersteller dort eine kleine Außenstelle errichten würden, um direkt zu sehen, was dort passiert. DMR: Herzlichen Dank für all die neuen Erkenntnisse!

43

Detecon Management Report blue • 1 / 2015

Business Insights

Big-Data-Technologien machen das Notwendige möglich Die Nutzung von Big Data Insights ist heute bereits wesentlich leichter und ­erschwinglicher. Sie erfordert jedoch nach wie vor eine angemessene Governa­nce ­sowie eine klare Strategie, um die vorhandenen Technologien effektiv zu etablieren und zu nutzen und wertvolle Insights für die Geschäftsbereiche verfügbar zu machen.

atengesteuerte Business Insights innerhalb eines UnterD nehmens bilden keine Nische mehr. Sie sind ein notwendiger

­ estandteil geworden, da sie sich branchenweit zu einem echB ten Wettbewerbsvorteil entwickelt haben. Insbesondere das Internet der Dinge wird das Datenwachstum in Unternehmen ­wesentlich vorantreiben. Künftig wird man fast alles messen und in Zahlen und Kontexten ausdrücken können. Firmen sollten diese Daten nutzen – und sich in datengesteuerte Unternehmen verwandeln! Herkömmlicher Enterprise-Data-Warehouse-Ansatz ist nicht mehr ausreichend Agile Start-ups wie Uber, Zalando, 23andMe und Netflix sind bereits extensive Nutzer modernster Big-Data- und AnalyticsTechnologien und führend in datengesteuerten Unternehmens­ entscheidungen, die den zentralen Treiber ihres Erfolgs bilden. Zur Aufrechterhaltung der Wettbewerbsfähigkeit müssen Un-

44

Detecon Management Report blue • 1 / 2015

ternehmen das volle Potenzial aller Daten erschließen, die dem Unternehmen zur Verfügung stehen. Das heißt, sie m ­ üssen die Daten in einen Kontext einbetten, Erkenntnisse ableiten und sinnvolle und durchdachte datengesteuerte Entscheidungen treffen. Wenn es darum geht, wie verfügbare Daten innerhalb eines Unternehmens genutzt werden, unterscheidet sich der Ansatz eines vollständig datengesteuerten Unternehmens grundlegend von einem klassischen Ansatz. Datenvielfalt, ­Datengeschwindigkeit und Datenvolumen erfordern neue und erweiterte IT-Architekturen und -Technologien, um StreamingDaten, Datenvolumen im Petabyte-Bereich und diverse unstrukturierte Daten managen zu können. Klassische Technologien und Paradigmen wie Enterprise Data Warehouse (EDW) genügen diesen Anforderungen nicht länger. Insbesondere für größere Unternehmen wird sich der Prozess, der mit dem Wandel zu einem datengesteuerten Unternehmen einhergeht, als langwierig und schwierig erweisen. Dennoch ist die Einleitung dieses Wandels zwingend erforderlich.

Seit Jahrzehnten errichten Unternehmen Reporting-Architekturen auf klassische Weise, und zwar unter Verwendung von zwei Arten von Datenquellen: Betriebsdaten aus ­ Systemen wie Enterprise Resource Planning (ERP) und Customer ­Relationship Management (CRM) sowie aus dem zentralen Enterprise Data Warehouse (EDW). Sämtliche Daten sind in herkömmlichen relationalen Datenbanken strukturiert, Analytics sind primär als vordefiniertes Reporting konfiguriert. Adhoc-Analysen können nur mit den vom Data Warehouse – oder Data Marts und Analytics Cubes – gelieferten Daten durchgeführt werden. Weiterhin ist die Durchführung von Advanced ­Analytics mit den zur Verfügung stehenden Datenstrukturen und Softwareprogrammen kaum möglich. Unternehmen nutzen spezielle Infrastrukturkomponenten, die im Hinblick auf künftige Bedürfnisse kaum skalierbar sind. Die Kosten für diese Art Infrastruktur sind hoch, denn aufgrund teurer Lizenzen und spezieller Infrastrukturkomponenten werden die Kosten für die Errichtung eines Enterprise Data Warehouse gewöhnlich mit mindestens einer Million US-Dollar veranschlagt. Tatsächlich wird dabei nur ein Bruchteil der erzeugten Unternehmensdaten für das Treffen durchdachter Entscheidungen genutzt. Und dennoch hat sich die klassische Data-Warehouse-Architektur nicht überlebt – sie muss mit weiterentwickelten Technologien ergänzt werden, um die Anforderungen der Zukunft erfüllen zu können.

Big-Data-Architektur erhöht Gesamtkomplexität Unter dem Dach von Big Data haben sich in den vergangenen zehn Jahren mehrere neue Technologien herausgebildet. Diese Technologien ermöglichen Unternehmen eine verteilte Datenhaltung und Datenanalyse sowie die Identifizierung von Mustern, Trends und sonstigen Insights. Zusätzlich zu herkömmlichen vordefinierten Reports und ­Ad-hoc-Analytics, Statistical und Predictive Analytics wurden maschinelles Lernen, Graph Analytics und operative Intelligenz möglich. Dies wiederum erlaubte den Unternehmen nicht nur die Durchführung von historischen Analysen und rückwärtsgerichtetem Reporting, sondern auch den Blick nach vorn und damit die Vorhersage von Business Insights – eine aktive Unterstützung für künftige Entscheidungen! Die Big-Data-Technologien lassen sich in die sechs unterschiedlichen Schwerpunktbereiche Datenspeicherung, Datenintegration, Analytical Processing, Visualisierung und Daten-­ Governance gruppieren, in denen spezielle Technologien genutzt werden (siehe Abbildung). Die neue Big-Data-Architektur ergänzt die traditionellen Systeme, erhöht aber gleichzeitig die Gesamtkomplexität. Es sind

Abbildung: Vereinfachter Big Data Stack Datenintegration

Visualisierung EchtzeitIntelligenz

Erweiterte Visualisierung

Dashboard Datenkonnektivität

Datensicherheit und Daten-Governace Identitätsmanagement

Analytical Processing

Data Ingestion

Video Audio

Georäumlich

Web

Textsemantik

Datenverschlüsselung

Prädiktiv

Data Mining

Maschinelles Lernen

Reporting

Mandantenfähigkeit (Multitenancy) Governance

Datenzugriff BatchVerarbeitung

Streaming und Verarbeitung

Suchen und Finden

Anfrage

Datenspeicherung Hadoop HDFS

NoSQL Datenbanken

In-Memory Datenbanken

Analytische Datenbanken

Transaktionsdatenbanken Quelle: Detecon

45

Detecon Management Report blue • 1 / 2015

diverse spezielle Systeme erforderlich, um die unterschiedlichen Anforderungen und Methoden handhaben zu können. Insbesondere für das Internet der Dinge, M2M und Sensordaten ist die Anwendung von In-Memory- und Streaming-Datenbanken unverzichtbar, da die für die Daten erforderliche Echtzeitverarbeitung und Analyse mittels herkömmlicher Systeme nicht geleistet werden kann. Hadoop wird als zentrale Technologie für Big Data oft falsch verstanden Hadoop hat einen regelrechten Hype erfahren. Das bedeutet jedoch nicht, dass Hadoop wirklich von jedem Unternehmen verstanden wird. Bei Hadoop handelt es sich nicht um eine einzige Technologie, sondern um ein ganzes Framework, das aus vielen unterschiedlichen Technologien fast den gesamten Big Data Stack zusammenfasst. Die Hadoop-Technologien sind Open Source Software unter der Apache-Lizenz und w ­ urden in ihrem Kern zuerst als Teil eines von Yahoo gestarteten Forschungsprojekts entwickelt. Die wichtigsten Bestandteile von Hadoop sind Hadoop Common (Shared Library), Hadoop HDFS (verteilte Datenhaltung), Hadoop MapReduce (­ Datenverarbeitung), Pig (Datenmanipulation), Hive (Data Warehouse) und HBase (Bigtable NoSQL-Datenbank). Das Hadoop Distributed File System (HDFS) löste eines der Hauptprobleme traditioneller relationaler Enterprise Data Warehouses: Es kann unstrukturierte Daten aus unterschiedlichsten Quellen speichern und die Gesamtheit der gespeicherten Daten über verteilte Standardsysteme – zum Beispiel x86-Architekturen – auf Tausenden von kostengünstigen Servern verteilen. Die Nutzung von HDFS ermöglicht eine kostengünstige Speicherung von ­Datenvolumen im Terabyte-Bereich und ist in der Regel etwa 20 Mal preiswerter als spezialisierte BI-Systeme. Darüber ­hinaus ist HDFS hoch skalierbar, sodass neue Server der verteilten Infrastruktur einfach hinzugefügt werden können und historische Daten nicht mehr ausgelagert werden müssen, wie es bei EDW-Systemen häufig der Fall ist. Die Hadoop-Komponente MapReduce wird zur Koordinierung und Programmierung von Batch-Verarbeitungsjobs verwendet, um Daten zu laden, zu verarbeiten und zu analysieren. MapReduce basiert nicht auf der Datenbanksprache SQL (Structured Query Language), sondern nutzt im Vergleich zu der weit verbreiteten SQL ein komplexeres Programmiermodell und Paradigma. Um die Datenabfragen und Datenverarbeitung zu erleichtern, versuchen viele Anbieter, zusätzliche SQL-Layer auf MapReduce aufzusetzen. Für Unternehmen, die gewaltige Datenvolumen, Datenvielfalt

46

Detecon Management Report blue • 1 / 2015

und Datengeschwindigkeit handhaben müssen, kann Hadoop als zugrunde liegender Enabler für Big Data Insights betrachtet werden. Hadoop ist jedoch keine Lösung für alle Big-DataHerausforderungen, und Unternehmen, insbesondere, wenn es sich um kleine Unternehmen handelt, sollten sorgfältig prüfen, ob ihnen nicht gegebenenfalls bestehende traditionelle Ansätze dabei helfen können, ihren Bedarf an Daten-Insights zu befriedigen. Kommerzielle Hadoop-Anbieter haben bis Mitte 2014 eine Risikokapitalfinanzierung in Höhe von mehr als anderthalb Milliarden US-Dollar erhalten, wodurch das enorme Wachstum der Hadoop-basierten Technologielösungen gefördert wurde. Innerhalb des Hadoop-Marktes haben sich dabei vier große Anbieter als deutliche Marktführer positioniert: Hortonworks, MapR Technologies, Cloudera und IBM. Diese Unternehmen haben es geschafft, das Open Source Framework mit zusätzlichen Services und klaren Geschäftsmodellen anzureichern. Sie bieten zum Beispiel professionelle Services für Implementierungs-Support, Enterprise-Grade-Support und Release-Zyklen sowie weitere (Analytics) Funktionen. Analytics-Lösungen und industriespezifische Anwendungen Hadoop und NoSQL-Datenbanken fördern die unternehmensweite Nutzung unterschiedlicher Datenquellen und ermög­ lichen daher eine einzige Schnittstelle für Business Analytics für vielfach strukturierte Daten. In erster Linie geht es hier jedoch nicht um die Technologie, sondern um den geschäftlichen Nutzen und die Nutzung der Insights für Entscheidungsprozesse in Unternehmen. Relevante Analytics und deren Anwendung innerhalb der Geschäftsbereiche sind ausschlaggebend, nicht die technologischen Lösungen. Vorausschauende AnalyticsModelle werden von vielen Branchenteilnehmern genutzt, um Angebot und Nachfrage angemessen abschätzen zu können. Branchen wie Telekommunikation, Finanzdienstleistungen und Einzelhandel agieren bei der Nutzung der Daten stärker vorausschauend. Visualisierung ist für Unternehmen wichtig, die ­ regelmäßig massive Datenvolumen erzeugen. Moderne ­Visualisierungstools sind zur Identifizierung von Mustern unverzichtbar und bewirken stärker durchdachte Entscheidungen. Insbesondere im Bereich der Visualisierung haben diverse innovative Unternehmen in den letzten Jahren neue Lösungen auf den Markt gebracht. Tableau und Quid sind Beispiele für die erfolgreiche Positionierung neuer Visualisierungslösungen, um Muster und Verbindungen zu identifizieren, Insights zu veranschaulichen oder ganze Marktlandschaften abzubilden. Die Verbesserung der Rechenleistung für Analytics und die Ge-

schwindigkeit von Datenströmen führen dazu, dass die Bedeutung von Echtzeit-Analytics zunimmt. Unternehmen wollen bei neuen Ereignissen mit der Analyse auf dem Laufenden bleiben, um so die Durchführung ihrer Geschäftsprozesse optimieren zu können. SAP investiert seit einiger Zeit mit großem Aufwand in seine HANA-Lösungen für In-Memory-Datenverarbeitung mit der Zielsetzung, hiermit zentrale Enabler für Data Analytics in Echtzeit zu ermöglichen. Die steigende Komplexität der ITLandschaft erzeugt eine Menge an Log- und Maschinendaten, die es zu analysieren gilt. Unternehmen wie Splunk oder Sumo Logic haben sich diesen Bereich mit operativen Data Analytics erschlossen, die Insights über Ausfälle und IT-Probleme liefern und diese zeitweise sogar automatisch lösen können. Neuere Bereiche wie Text Analytics und Web & Social Analytics gewinnen ebenfalls an Bedeutung, da Unternehmen ihre Onlinepräsenz erweitern und Soziale Medien zunehmend an Akzeptanz gewinnen. Generische Analytics-Produkte ohne spezifische Branchenausrichtung sind der von Big-Data-Analytics-Anbietern am häufigsten genutzte Ansatz. Sie liefern den Unternehmen die ­passenden Tools, um Analytics-Lösungen an ihre Anforderungen anzupassen und somit ihre speziellen organisatorischen oder branchenspezifischen Herausforderungen meistern zu können. Für manche Industrien, zum Beispiel die Finanz­ industrie, ­haben Anbieter aufgrund sich wiederholender Probleme spezielle Lösungen entwickelt, um etwa Credit Scores innerhalb ­einer Sekunde zu analysieren oder Betrugsmuster zu identifizieren und Risiken zu vermeiden. Der Schwerpunkt der Lösungen für Retailer und E ­ -Commerce liegt auf prädiktiver und operativer­­Analytics, um Kundenverhalten vorhersagen zu können, sowie auf der Analyse operativer Daten, um effektiver agieren zu können. Telekommunikationsunternehmen stehen ebenfalls im Mittelpunkt, wenn es um die industriespezifische Nutzung geht. Prädiktive und operative Analytics werden insbesondere eingesetzt, um Kundenabwanderungen vorherzusagen, Zeitreihendaten und gewaltige Kundendatenmengen wie CDRs zu analysieren, operative Effizienz und Marketing-Insights zu erzielen oder gar Mobilfunkinfrastruktur auf Basis von Nutzerdaten oder durchschnittlicher Bandbreite zu planen. Weiterhin sind die visuelle Datenentdeckung (Data Discovery) und Mustererkennung für das Gesundheitswesen von großer Bedeutung. Stärker als andere Branchen setzt die Hightech- und Media-Branche ebenfalls auf Web und Social Analytics.

Neue Delivery-Modelle bilden sich im Big-Data-Ecosystem heraus Um mit spezialisierten und innovativen Start-ups Schritt halten zu können, nehmen etablierte Hersteller wie Microsoft, IBM und Oracle Anpassungen an ihren Produktangeboten und -strategien vor. Diese setzen verstärkt auf M&A-Maßnahmen, um ihre Portfolios entsprechend der neu generierten Nachfrage zu ergänzen. Flexible Lizenzmodelle und Open-Source-Produkte wirken sich dabei ebenfalls auf die Einkaufsmuster von Unternehmen aus. Stark beeinflusst wird dies durch die zunehmende Nutzung der SaaS-Delivery-Modelle für Big-Data-Lösungen. Um einfache und schnelle Lösungen liefern zu können, offerieren viele Anbieter Out-of-the-Box-Lösungen ihrer Produkte, die Hosting, Datenverarbeitung und auch die Software selbst beinhalten können. Dieser Ansatz ist nicht ganz problemlos, kann Unternehmen jedoch dabei helfen, Analytics-Lösungen kostengünstiger, schneller und flexibler einzusetzen. Self-Service-Analytics-Lösungen für nicht technische Nutzer sind ­dabei ein zentraler Enabler für geschäftliche Nutzer, um Daten-Insights entsprechend ihren eigenen Bedürfnissen zu entdecken, zu analysieren und zu visualisieren. Hierbei sind insbesondere Advanced-Analytics-Lösungen sind von schwerfälligen, komplexen und umständlich zu nutzenden Tools hin zu Use-Casebasierten und intuitiven „Dashboards“ gereift. Die Nutzung von Big-Data-Insights stellt nach wie vor eine technologische und organisatorische Herausforderung dar Analytics-Lösungen und die zugrunde liegenden Technologien haben sich weiterentwickelt und sind während der vergangenen Jahre extrem gereift. Die effektive Nutzung von Big Data ist aber immer noch keine einfache Standard-Aufgabe. Anwendungsfälle und Business-Anforderungen müssen von den Unternehmensbereichen nach dem Top-down-Prinzip definiert werden. Bis heute erfordern die zugrunde liegenden Datenbanktechnologien ein hohes Maß an Anpassung und Implementierungsaufwand, damit diese Lösungen angemessen in die bestehenden IT-Architekturen integriert werden können. Lars Bodenheimer ist Senior Consultant und Experte für Strategie, Planung und Rollout neuer ICT-Produkte und Technologien sowie für eine Vielzahl von Themen im Bereich ICT-Migration. Er arbeitet mit Festnetz- und ­Mobilfunkbetreibern in Nord- und Südamerika und anderen Regionen weltweit. Kolja Schluetter arbeitet als Consultant bei Detecon Inc., USA, und ­unterstützt Klienten weltweit dabei, neue Technologien einzuführen und die Transformation in die digitale Geschäftswelt zu meistern.

47

Detecon Management Report blue • 1 / 2015

Implementierung von Big Data

Warum Prozesse und Kultur von zentraler Bedeutung sind Big Data bedingt eine ganzheitliche und grundlegende ­Transformation des Unternehmens. Solange Unternehmen hierin nur eine weitere ­Technologieimplementierung sehen, können sie das Potenzial nicht ­ausschöpfen.

48

Detecon Management Report blue • 1 / 2015

Das starke Interesse von Unternehmen an Big Data und dessen zahlreichen Applikationen ist mehr als gerechtfertigt: Vom Internet der Dinge bis hin zu Marketing Analytics verändert Big Data die Geschäftswelt. Die Implementierung von Big Data wird allerdings in vielen Unternehmen nur wie „noch eine weitere“ Technologieimplementierung behandelt. Diese Sichtweise ist nicht nur falsch, sondern vor allem ineffektiv. Wer die Leistung von Big Data wirklich nutzen will, muss die internen Prozesse und operativen Ziele eines Unternehmens völlig neu gestalten. Wir sehen hierfür vier Gründe:

Alte Hierarchien sind ein Hindernis: Die Bezeichnung Big Data er-

folgte aus gutem Grund. Damit Big Data sich für ein Unternehmen als effizient erweist, müssen so viele Daten wie möglich aggregiert werden. Das bedeutet jedoch, dass Daten nicht separat gemäß den alten Linienfunktionen oder Hierarchien gespeichert werden können. Individuelle Linienfunktionen oder Abteilungen, die ihre Daten in separaten Data Warehouses speichern, verfehlen den Zweck für Big Data.

Data Pockets stehen im Gegensatz zu Big Data: Technische Einschränkungen und die Nachteile der Linienfunktion – mangelndes „linienübergreifendes“ Denken und Wissen auf der Fachseite sowie Machtinteressen – führen dazu, dass Daten heute oft nur eingeschränkt verfügbar sind. Damit Big Data effektiv ist, müssen die Daten jedoch für alle zugänglich sein. Big Data ist mit Linienfunktionen unvereinbar. Verfügbarkeit der Rohdaten für alle: Die Rohdaten müssen allen

Abteilungen und Mitarbeitern innerhalb eines Unternehmens zur Verfügung s­ tehen und nicht über eine Abteilung oder Mitarbeitergruppe gefiltert werden. Zusätzliche Einblicke und Erkenntnisse, die nicht planbar oder vorhersehbar sind, können erst dann generiert werden, wenn verschiedene Personen und Abteilungen die Analysen aus unterschiedlichen Perspektiven durchführen.

Management der Analyse statt Management der Daten:

Eines der größten Probleme bei Big Data ist nicht das Management der Daten, ­sondern das Management der Analyse. Das Problem „Paralyse durch Analyse“ wird sich in großen Unternehmen mit der Implementierung von Big Data noch ­potenzieren. Da viele Personen und Abteilungen Analysen durchführen, besteht für die Unternehmen das Risiko, eine Überfülle an Analysen zu erhalten und daher wichtige Entscheidungen nicht rechtzeitig zu treffen. In welcher Weise müssen Unternehmen sich also neu aufstellen, um die Leistung von Big Data effektiv nutzen zu können?

49

Detecon Management Report blue • 1 / 2015

Eine effektive Big-Data-Implementierung beinhaltet ­Folgendes:

Neugestaltung der Unternehmenshierarchie:

Falls Globalisierung und Soziale Medien es noch nicht geschafft haben, die alten Funktionssilos in den Unternehmen aufzubrechen, wird Big Data den Anstoß zum Handeln geben! Damit Big Data gut funktionieren und effektive Analysen auf der Basis von aggregierten Daten liefern kann, ist es erforderlich, die Datenströme neu zu definieren. In den meisten Unternehmen verläuft der Datenstrom „bottom-up“, da der Großteil der Daten sich aus den täglichen Interaktionen zwischen Unternehmen und Kunden generiert. Die Verwaltung dieser Daten ist entscheidend für den Erfolg von Big Data. In der Vergangenheit war das Management dieser massiven Datenvolumen durch die Linienfunktionen eine wahre Herkules-Aufgabe. Wir sehen jedoch zwei Trends, die das Aufweichen dieser alten starren Struktur bewirken: Erstens geht mit dem Eintritt der Generation Y ins Arbeitsleben ein Wertewandel einher. Zweitens stehen heute leistungsstarke und kostengünstige Technologien für die Speicherung, Verarbeitung und Analyse unendlich vieler Daten zur Verfügung, die atemberaubend sind im Vergleich zu den Möglichkeiten der letzten drei Jahrzehnte. Geschwindigkeit und Datenvolumen der Analysen haben sich vervielfacht.

Zentrale Datenerfassung und -speicherung:

Big Data ist nur dann effektiv, wenn alle Daten zentral aggregiert werden. In diesem Kontext sollte darauf hingewiesen werden, dass zentralisiertes Erfassen und Speichern nicht identisch ist mit zentraler Kontrolle. Das zentrale Erfassen und Speichern ist absolut wichtig, damit gewährleistet werden kann, dass alle Daten für eine sorgfältige Analyse und Interpretation der relevanten Fragen, die es zu beantworten gilt, verfügbar sind.

Verhindern, dass das Erfassen und Speichern von Daten in der Unternehmenshierarchie „verloren geht“: Eine der einschneidendsten Änderungen, die Unternehmen bei der Implementierung von Big Data kontinuierlich überwachen müssen, ist, dass die Daten nicht innerhalb der einzelnen Linienfunktionen oder Hierarchien „versteckt werden“ oder „verloren gehen“.

Bereitstellung der erforderlichen Tools, Schulungen und Support: Big Data ermöglicht es, die Daten innerhalb der gesamten Unter-

nehmensstruktur „freizusetzen“. Diese Datenfreiheit ist jedoch mit einer großen Verantwortung in Bezug auf Analysen verknüpft. Eine freie Verfügbarkeit der Daten ohne die erforderlichen Schulungen, Tools und Support ist die Anleitung für eine perfekte Unternehmenskatastrophe. Ein konsequentes Schulungsprogramm ist unverzichtbar.

Dedizierter Support in Bezug auf Unternehmensressourcen: Eine effektive Big-Data-Implementierung erfordert ein mit Ressourcen ausgestat-

50

Detecon Management Report blue • 1 / 2015

tetes Team, dessen Aufgabe nicht nur in der schnellen Durchsetzung der kulturellen Veränderungen und Überprüfung der Prozesse besteht, sondern das zur effektiven Implementierung von Big Data angemessene Schulungen durch- und Regeln innerhalb des Unternehmens einführt.

Kultureller Wandel: Mit der Neukonzeption der Datenströme und der ­Verfügbarkeit von Datenanalysen müssen im Unternehmen neue kulturelle ­Normen gesetzt werden, um effektive Entscheidungsprozesse zu ermöglichen und der ­„Paralyse durch Analyse“ vorzubeugen. Die Verankerung einer entsprechenden Kultur ist von zentraler Bedeutung in einem Umfeld, in dem Daten ausgetauscht werden und für jeden verfügbar sind, insbesondere auch zur Vermeidung von ­Silobildung. Ebenso wichtig ist die Offenheit in Bezug auf Daten-Sharing und Analyse. Bereinigte Daten ja, „politisch“ bereinigte Daten nein: Mit

konsequent bereinigten Daten kann sichergestellt werden, dass die Analysen ­präzise sind und relevante Erkenntnisse liefern. Bereinigte Daten dürfen jedoch nicht als Daten interpretiert werden, die so bearbeitet wurden, dass einzelne P ­ ersonen oder Abteilungen „gut aussehen“. Außer in Bezug auf die Konsistenz dürfen an den ­Daten keine Änderungen vorgenommen werden.

C-Level-Support:

Das größte Hindernis bei der effektiven Implementierung von Big Data ist die Gewährleistung eines durchgehenden und dedizierten C-Level-Supports. Ohne C-Level-Support wird jeder Versuch einer effektiven BigData-Implementierung zum Scheitern verurteilt sein. Da Big Data für den Ausbau von Wettbewerbsvorteilen unverzichtbar sein wird, müssen Unternehmen schnell handeln und adäquate Implementierungspläne erstellen. Die hohe Relevanz, die Technologiepläne haben, muss auch den Veränderungen in Kultur, Prozessen und HR beigemessen werden. Unternehmen sollten Big Data auf keinen Fall bloß als ein weiteres Technologieprojekt betrachten, das einfach nur implementiert werden muss. Vielmehr geht es bei Big Data um eine ganzheitliche und grundlegende Transformation des Unternehmens, die kurz- wie auch langfristig mit großer Sorgfalt angegangen werden muss. Nur wenn diese ­Prämisse eingehalten wird, können Unternehmen daraus ihren Nutzen ziehen. Eric Quon-Lee ist als Management Consultant bei Detecon Inc., USA, tätig. Er ist Spezialist für ­Themen in den Bereichen Finanzen, Humankapital und Projektmanagement. Thomas Peters, Senior Consultant, nutzt seine Erfahrungen aus der Telekommunikationsindustrie und erbringt Beratungsleistungen für Kunden in Sachen ICT-Systeme und -Infrastruktur in service­ orientierten Umgebungen. Darüber hinaus erstellt er Geschäfts- und Marktanalysen und ist spezialisiert auf die Entwicklung und Ausrichtung von Geschäfts- und Technologiestrategien.

51

Detecon Management Report blue • 1 / 2015

Big Data für Telekommunikationsunternehmen

Die Sweet Spots treffen – kurzfristige Chancen intern realisieren Für Telekommunikationsunternehmen liegen die Chancen von Big Data in Einsparungen, die sie durch interne ­Effizienz­steigerungen ihres Netzes und ihrer Abläufe erzielen. Sie sollten die zentralen ­Anwendungsfälle für Big Data identifizieren, die für ihre Organisation nutzbringend sind, und Pilotprojekte starten, um den potenziellen Nutzen eines datengesteuerten Betreibers zu testen.

enn das Wachstum stagniert und die Gewinne sinken, W halten Telekommunikationsbetreiber in entwickelten Märk-

ten Ausschau nach neuen Potenzialen. Über Konnektivitätslösungen hinaus streben Telekommunikationsunternehmen nach Möglichkeiten, IoT-Plattformen und -Analytics, also die Big-Data-Komponente des Internet der Dinge, anzubieten. Die zentrale Frage lautet: Wird „Big Data“ zum „Big Thing“, das den nächsten Wachstumsschub auslöst? Studie zeigt Potenziale und Grenzen auf Um diese Frage für einen integrierten Tier-1-Betreiber (Festnetz und Mobilfunk) beantworten zu können, haben wir eine umfangreiche Studie durchgeführt. Ziel war es, den tatsächlichen Wert von Big Data für die Unternehmen zu quantifizieren. Die Ergebnisse waren überzeugend: Die Möglichkeiten, die Big Data eröffnet, sind enorm. In unserem Fall könnte die potenzielle Gesamtauswirkung einer bis an die Grenzen genutzten Big-Data-Strategie für diesen Betreiber mehr als fünf Milliarden

52

Detecon Management Report blue • 1 / 2015

US-Dollar Umsatz sowie Kostenersparnis während der nächsten fünf Jahre innerhalb eines einzigen Marktes generieren. Blickt man auf die Treiber dieser Möglichkeiten, ergeben sich zusätzliche Erkenntnisse für die Entwicklung einer Big-Data-Strategie von Telekommunikationsbetreibern: Für integrierte Betreiber mit unternehmenszentrierten ICT-Portfolios eröffnet sich die Möglichkeit, Big-Data-Lösungen als Service zu ­ entwickeln. Sie nutzen hierzu bestehende Ressourcen, um H ­ osting, pro­ fessionelle Dienste sowie Big-Data-zentrische Innovationen, zum Beispiel Sicherheit und M2M, zur Erweiterung ihres Portfolios anzubieten. Unsere Quantifizierung zeigt jedoch auf, dass mehr als 60 Prozent aller Möglichkeiten in Bezug auf Big Data für die Betreiber realisiert werden können, wenn Big Data als eine potenzielle Effizienzquelle innerhalb des Unternehmens genutzt wird. Big-Data-Technologien können bei der Neu­ definition und Verbesserung bestehender interner Abläufe unterstützend wirken – von der Optimierung der Netzplanung über die Aktualisierung der Speicherinfrastruktur bis hin zur Reduzierung von Betrug.

Unsere Studienergebnisse zeigen aber auch, dass das Potenzial für Big Data als Enabler neuer Geschäftsmodelle für Telekommunikationsunternehmen nur ein Hype ist. Zwar ist es richtig, dass Daten eine wirtschaftliche Goldmine sind. Der Kreis der echten Gewinner bleibt jedoch klein und erstreckt sich letztendlich auf digitale Giganten wie Google, Facebook oder Amazon, die sich mit ihrem immensen Volumen an personalisierten, kontextuellen Insights den größten Wertschöpfungsanteil sichern. Auch wenn Telekommunikationsunternehmen innerhalb des digitalen Ökosystems als vertrauenswürdige Partner gelten, ­befinden sie sich aufgrund ihrer begrenzten Menge an kundenspezifischen Datenbeständen – insbesondere im Vergleich zu ­digitalen Diensteanbietern – in einer relativ schwachen Position. Wir sehen wenig Sinn in der Verfolgung einer Strategie, die ein kurzfristiges Eindringen in diesen Markt bewirken soll, denn gemäß unserer Studie generiert selbst eine hocheffektive, erfolgreiche Markteindringung weniger als zehn Prozent der gesamten Big-Data-Umsätze. Da wir die Möglichkeiten in diesem wettbewerbsintensiven Umfeld als suboptimal einschätzen, raten wir Betreibern, in diesem Bereich zurzeit nicht aktiv zu werden. Es gibt allerdings einige sehr überzeugende Anwendungsfälle, aus denen Telekommunikationsunternehmen erheblichen geschäftlichen Nutzen entwickeln können. Entscheidend ist, zu wissen, wo und wie Betreiber in dieses Ökosystem eindringen können, um neue Umsätze als Anbieter von Big-Data-Services generieren zu können. Noch wichtiger ist es aber, die internen „Sweet Spots“ zu finden, Bereiche, für die Big Data zur Verbesserung interner Prozesse genutzt werden kann.

Big Data als Wachstumschance Mobilfunkbetreiber haben den Vorteil, dass sie die in ihrem Besitz befindlichen Daten zu Geld machen und zusätzliche Umsatzströme generieren können. Diese Daten könnten wertvoll für kundennah arbeitende Unternehmen diverser Branchen wie Einzelhandel, Werbung, Marketing, Gesundheitswesen und ­Finanzen sein. Große Chancen liegen in der Analyse von Kundendaten, um den Absatz zusätzlicher Produkte und Dienste über Cross- oder Up-Selling zu steigern. Die Abbildung zeigt die externen Möglichkeiten für Betreiber auf. Abgebildet sind das Volumen und die Geschwindigkeit von Big Data mit dem Wert, den Big Data auf den unterschiedlichen Stufen der Wertschöpfungskette – von den Rohdaten bis zu den vollständig analysierten Daten – generiert. Die inverse Beziehung zwischen Datenwert, -volumen und -geschwindigkeit zeigt, dass der tatsächliche Wert in der Bedeutung und Auslegung der Daten liegt. Rohdaten: Mobilfunkbetreiber können Rohdaten wie Standort, Kundenprofil und -demografie oder Verkehrsdaten an Unternehmen verkaufen. Diese Daten werden von den Unternehmen vorrangig dazu verwendet, um ihre bestehenden Produkte mit Mehrwert aufzuladen. Ein Beispiel ist Locaid, ein LaaS-Unternehmen (Location-as-a-Service), das Netzwerkstandortdaten an Life360, einem Anbieter für Family Safety Apps, vertreibt. Als reiner Datenanbieter haben Betreiber weniger Möglichkeiten, erweiterte Dienste anzubieten. Daher ist die Datenvermittlung eine weniger attraktive Option. Abbildung: Big Data – eine Wachstumschance

Geschwindigkeit

~ € 700 Millionen

~ € 350 Millionen

€ 1 Millarde

Rohdaten • Rohe, unverarbeitete Quelldaten • Location, Bewegung, Verkehr etc. Hosting/Management • Datenerfassung und -transport • Data Hosting, Datenspeicherung und Datenmanagement Big Data VAS • Data-Analytics-Plattform, Insights, Präsentation • M2M-Lösungen Produktverbesserung/Marketing • Datengesteuerte Interaktionen mit Endanwendern • Cross-Selling, Up-Selling, Produktempfehlungen und -verbesserungen Volumen

= Beispielhafte, sich steigernde Umsatzchance in den nächsten 5 Jahren für repräsentativen Service Provider Quelle: Detecon

53

Detecon Management Report blue • 1 / 2015

Hosting/Management: Seit Betreiber mit dem Hosting, Verarbeiten, Verwalten und der Zusammenfassung von Daten für Unternehmen, die eine Plattform für Big Data benötigen, begonnen haben, steigt diese Option im Wert. M2M- und IoTUnternehmen benötigen eine solide Datenverarbeitungs- und -managementplattform für ihre Lösungen. Sprint ist ein Beispiel für einen solchen Betreiber, der mit der Entwicklung einer offenen Plattform für M2M-Lösungen diese Chance ergriffen hat. Die Plattform bietet M2M-Lösungen für vernetzte Kraftfahrzeuge, vernetzte Flotten, integrierte Versicherungs­ leistungen, Asset Tracking, Einzelhandel und Gastronomie, Fernüberwachung und Fernkontrolle oder das Gesundheitswesen. Andere Beispiele beinhalten Unternehmen wie Integra Telecom und Macquarie Telecom, die Daten-Hosting und Speicherlösungen für unterschiedliche Unternehmen und Branchen anbieten. Big Data VAS: Betreiber haben Applikationen und Produkte entwickelt, die einen Einblick in die Daten ermöglichen und sie damit für Unternehmensentscheidungen branchenweit noch nützlicher machen. Solche Angebote ermöglichen es Unternehmen, ihre Produkte mit Mehrwert aufzuladen und Plattformen für datengesteuerte Transaktionen für Bereiche wie M2M Analytics, Echtzeit-Netzsicherheit/-Risikoerkennung und Customer Insights für Werbung zu entwickeln. Ein Beispiel dafür ist die von Telefónica Dynamic Insights kürzlich eingeführte Lösung für Händler. Sie liefert Erkenntnisse, die auf dem Verhalten von Crowds basieren und Unternehmen und staatliche Organisationen dabei unterstützen, durchdachte Entscheidungen zu treffen. Dieses Produkt, das Kundendaten in Echtzeit anonym sammelt und aggregiert, zeigt die Verhaltensmuster der unterschiedlichen Bevölkerungsschichten. Ein Händler kann beispielsweise vor Geschäftsöffnung die Anzahl der Kunden kennen, die – aufgeschlüsselt nach Zeit, Geschlecht und Alter – in einem Gebiet verweilen. Verizons Precision Market Insights, ein weiteres Beispiel in diesem Kontext, anonymisiert und verkauft Informationen über Standort und Nutzerverhalten der Kunden. Werbeunternehmen können erfahren, welche Inhalte ihre Zielgruppe mit hoher Wahrscheinlichkeit mobil konsumiert und somit ihr Cross- und Up-Selling optimieren. Produktverbesserung/-Marketing: Der höchste Wachstumswert in Bezug auf Big Data kann dann erzielt werden, wenn Betreiber Daten nutzen, um ihre Kunden besser zu verstehen und sie mit kontextbezogenen Angeboten gezielt ansprechen. Die Daten, die mit Zustimmung der Kunden erfasst werden, ermöglichen es den Betreibern, eine 360-Grad-Sicht auf den Kunden zu erhalten und diesen mit stärker personalisierten und kontextbezogenen Inhalten, Produkten und Diensten anzusprechen. Ein Beispiel in diesem Zusammenhang ist die O2-App „Priority

54

Detecon Management Report blue • 1 / 2015

Moments“, die den O2-Mobilfunkkunden exklusive und maßgeschneiderte Angebote liefert, die auf detaillierten und mit Zustimmung der Kunden zur Verfügung gestellten Daten basieren. OTT-Provider wie Netflix und Amazon zählen in diesem Segment wahrscheinlich zu den Fortschrittlichsten. Netflix nutzt beispielsweise intelligente Algorithmen zur Analyse von Daten, die von den Abonnenten stammen, um diese mit personalisiertem Content gezielt anzusprechen und eine Auswahl künftiger Inhalte vorzuschlagen. Betreiber haben die Wahl, ob sie einen oder mehrere Anwendungsfälle implementieren. Sie können den passenden Ansatz mittels Durchführung einer Analyse des lokalen Marktes, der im aktuellen Portfolio enthaltenen Lücken, der Potenziale, der regulativen und rechtlichen Probleme, des Datenschutzes und der Ressourcen entwickeln. Big Data als Treiber für Kosteneinsparungen Der bei weitem größte Anteil des Big-Data-Nutzens ergibt sich allerdings aus den potenziellen Einsparungen durch die internen Anwendungen der datengesteuerten Systeme. Die potenzielle Reduzierung der globalen Kosten, die sich daraus ergibt, beträgt 54 Milliarden US-Dollar pro Jahr oder fast sechs Prozent der Gesamtkosten der Telekommunikationsunternehmen (IDATE 2013). Von den Möglichkeiten, Big Data in den operativen Geschäftsablauf eines Unternehmens zu implementieren, heben sich drei Anwendungsfälle aufgrund ihres erheblichen Einsparpotenzials und ihrer frühzeitigen Zugkraft ab: Netzplanung und -optimierung, Identifizierung von Betrug (Fraud Detection) und Reduzierung der Kundenabwanderungsquote. Netzplanung und -optimierung: Die Netzinfrastruktur verschlingt bei den meisten Unternehmen fast die Hälfte der Investitionskosten. Deshalb können sogar geringe Kostensenkungsmaßnahmen, die für das gesamte Netz eines Telekommunikationsunternehmens durchgeführt werden, enorme Einsparungen bringen. Netzoptimierungsplattformen sind keine Standardlösungen. Es sind komplexe Systeme, die auf einer Server- und Datenbankinfrastruktur, Datenmanagement- und Analysesoftware und kundenspezifischen Integrationen basieren, die auf die individuellen Spezifikationen eines Unternehmens zugeschnitten sind. Datengesteuerte Netzplanung und -optimierung wird schon seit einiger Zeit genutzt, aber die ­neuen Entwicklungen, Netzleistung in Echtzeit zu erkennen und zu analysieren, ermöglichen es, dass Plattformen wesentlich größere Datenvolumen verarbeiten können. Gemäß unserer Studie ergeben sich dadurch für die Betreiber innerhalb der nächsten fünf Jahre Kosteneinsparungen in einer Größenord-

nung von 19 Milliarden US-Dollar. Das Unternehmen AT&T beispielsweise ist dafür bekannt, Unmengen an Daten in seinem Netz zu erfassen – das Volumen ist während der vergangenen sechs Jahre um sagenhafte 50.000 Prozent angestiegen und ermittelt 30 Milliarden Datenpunkte pro Stunde. Mit einem intern entwickelten Analyse-Tool, dem Tower-Outage-Analyzer, kann AT&T feststellen, wie sich die Ausfälle auf Kundenaktivitäten auswirken, um dann die Reparatur solcher Funkmasten zu priorisieren, deren Auswirkungen auf die Kunden am stärksten sind. Laut eigener Aussage konnte AT&T die Customer Experience mit dieser Methode um 59 Prozent steigern.

und Reduzierung der Kundenabwanderungsquote führt. Als zum Beispiel die Kundendatensysteme von Telefónica Ireland ltd. hohe IT-Kosten und starke Verzögerungen bei der Datenanalyse verursachten, änderte das Unternehmen die Strategie und setzte zur Analyse des Kundenverhaltens eine einheitliche ­Data-Warehousing-Strategie ein. Das reduzierte die Total Cost of Ownership und verbesserte die Erreichbarkeit der Kunden über Location-based Marketing, das auf Personen abzielt, die sich in der Nähe von Telefónica-Niederlassungen bewegen.

Fraud Detection: Nach Angaben der Communications Fraud Control Association haben Telekommunikationsunternehmen aufgrund von Betrug weltweit einen Verlust in Höhe von 46 Milliarden US-Dollar allein in 2013 erlitten. Betrug kann überall vorkommen. Unternehmen sind daher gezwungen, in FraudDetection-Systeme zu investieren. Mithilfe solcher Systeme können Riesendatenströme länder- und kundenübergreifend durchsucht werden, um betrugsverdächtige Nutzungs- und Zahlungsmuster zu identifizieren. Turkcell ging eine Partnerschaft mit Oracle ein, um eine Big-Data-Plattform zu implementieren, die Beziehungen und Muster zwischen Schlüssel­ parametern zur Vorhersage betrügerischer Handlungen erkennt. Dies ermöglicht eine schnelle Betrugsaufdeckung und minimiert die negativen finanziellen Auswirkungen.

Für Anwendungsfälle wie die Reduzierung der Kundenabwanderungsquote, Customer Experience Management und Netzplanungsoptimierung gilt, dass sie bereits jetzt mittels herkömmlicher Data-Analytics-Technologien ständig optimiert werden. Der durch Hadoop herbeigeführte Technologiesprung liefert jedoch in all diesen Fällen Größenordnungen, höhere Transparenz und Effizienz. Daraus ergibt sich wiederum das Potenzial, die Leistungssteigerung voranzutreiben. Damit verbunden ist – wie in unserer Studie ermittelt – eine erhebliche finanzielle Auswirkung.

Reduzierung der Kundenabwanderungsquote: Als Wettbewerber in gesättigten Märkten entsteht für Telekommunikationsunternehmen der Nebeneffekt, dass sie mit steigenden Kosten für Kundengewinnung und Kundenbindung (SAC/SRC) konfrontiert werden, die einen großen Teil des Kunden-ARPU verschlingen. Zur Aufrechterhaltung ihres Kundenstamms nutzen Betreiber eine Vielzahl spezieller Techniken einschließlich Kundenbindungsprogramme wie „Net Promoter Score“ und „Voice of the Customer“, bei denen es sich um Methoden handelt, die Feedback in messbaren Datenpunkten zusammenfassen. Die Vielfalt an Kundenkontaktpunkten, aus denen sie CustomerExperience-Daten extrahieren, ermöglicht Kundenbindungsexperten die gezielte Nutzung dieser Informationen. Hier kommt die Verbreitung der Customer-Experience-ManagementPlattformen ins Spiel. Unternehmen wie Medallia entwickeln CEM-Softwaresysteme, die Kundenfeedback und CRM-Daten abteilungsübergreifend integrieren, um daraus umsetzbare Insights zur Verbesserung der Kundenerlebnisse abzuleiten. Da Big-Data-Plattformen Kundenberatern einen leichteren Zugriff auf Kundendaten erlauben, können Telekommunikationsunternehmen eine persönlichere Beziehung zu ihren Kunden aufbauen, was wiederum zu einer erhöhten Kundenzufriedenheit

Wir sehen erst die Spitze des Eisbergs

In den nächsten fünf Jahren wird Big Data weitere Möglichkeiten eröffnen, die wir zum jetzigen Zeitpunkt noch nicht quantifizieren können. Donald Rumsfeld, ehemaliger US-Verteidigungsminister, formulierte es in seinem berühmten Statement zum Irak-Krieg so: „ ... aber es gibt auch unbekannte Unbekannte – Dinge also, von denen wir nicht wissen, dass wir sie nicht wissen.“ Diese Formulierung trifft auch für Big Data zu. Was wir allerdings wissen, ist, dass Big Data für Telekommunikationsbetreiber kurzfristig beträchtliche Chance bereithält. Langfristig betrachtet haben wir möglicherweise erst die Spitze des Eisbergs entdeckt.

Yasmin Narielvala leitet den Bereich Strategy & Innovation bei Detecon Inc., USA. Mit fast 20 Jahren Branchenerfahrung führt sie strategische Technologie­bewertungen für Kunden durch und entwickelt Maßnahmen für das Innovations­management, die Wachstum vorantreiben und der Disruption entgegenwirken. Daniel Means ist Consultant und Mitglied des Teams Strategy & ­Innovation bei Detecon Inc., USA. Er unterstützt Kunden aus vielfältigen Branchen dabei, in jeweils angrenzenden Branchen aktiv zu werden und neue Produkte einzuführen.

55

Detecon Management Report blue • 1 / 2015

Auswirkungen des Internet der Dinge auf die Transportnetze

Wie sich Netzbetreiber auf den Vormarsch der Maschinen vorbereiten Die heutigen Telekommunikationsnetze sind nicht für Anwendungsfälle des Internet der Dinge ausgelegt. Welche Auswirkungen wird es auf die Netze der Betreiber haben, wenn bis 2020 26 Milliarden Dinge mit ihren Netzen verbunden sind?

56

Detecon Management Report blue • 1 / 2015

enn man über das Internet der Dinge (Internet of Things, W IoT) spricht, geht die Auffassung darüber, welche Geräte tat-

sächlich als „Dinge“ betrachtet werden – und somit auch die Anzahl der Dinge, die mit dem Internet jetzt schon verbunden sind und künftig verbunden sein werden –, weit aus­einander. Im Folgenden konzentrieren wir uns auf innovative IoT-Anwendungsfälle wie implantierbare Herzmonitore, BiochipTransponder bei Nutztieren, Fahrzeuge mit eingebauten Sensoren oder intelligente Thermostatsysteme. Aus diesem Grund bleiben Endgeräte wie Smartphones, Tablets und Laptops unberücksichtigt. Wir gehen auf die Netzanforderungen ein, die die IoT-Anwendungsfälle dem Transportnetz abverlangen, beispielsweise hinsichtlich Adressierung, Sicherheit, Verkehr und Servicequalität. Betreiber müssen ihre Netze für diese Anforderungen rechtzeitig vorbereiten, um das Umsatzpotenzial zu nutzen, das die IoT-Anwendungsfälle versprechen. Die Adressierung des Internet der Dinge Das gegenwärtig weit verbreitete Internet-Protokoll Version 4 (IPv4) wurde vor langer Zeit entwickelt mit der Folge, dass der Adressraum jetzt allmählich ausgeschöpft ist. Weltweit gibt es keine nicht zugewiesenen IPv4-Subnetze mehr. Um der steigenden Anzahl an Geräten, die an das Netz angebunden sind, Adressen zuweisen zu können, wurde das Internet-Protokoll Version 6 (IPv6) entwickelt. IPv6 bietet einen riesigen Adressraum

von zirka 3,4×1038 eindeutigen IP-Adressen, und selbst wenn wir sämtliche Adressen abziehen, die von Standardisierungs­ gremien reserviert sind, bleiben noch etwa 4,6×1018 Adressen, die für Endsysteme, die mit dem Internet verbunden sind, genutzt werden können. Auch wenn die Weltbevölkerung im Jahr 2020 auf acht Milliarden Menschen angewachsen sein wird, wird jeder Mensch weltweit zirka 575 Millionen IPv6-Adressen bekommen. Das ist der Grund, warum das IPv6-Protokoll für das Internet der Dinge das Protokoll der Wahl sein wird. Derzeit liegt das Problem darin, dass die Internet Provider IPv6 nur sehr langsam einführen. Die RIPE-Statistik zeigt, dass zum jetzigen Zeitpunkt nur 18 Prozent der autonomen ­Systeme* IPv6 eingeführt haben. Aus Abbildung 1 geht ebenfalls deutlich hervor, dass die Betreiber nach einer ­Wachstumsphase der IPv6-Einführung während der Jahre 2010 bis 2012, die durch den zunehmend knappen IPv4-Adressraum ausgelöst wurde, ihre Bemühungen zur Einführung von IPv6 gedrosselt haben. Lateinamerika bildet aufgrund des schnellen Internetwachs­ tums und der fehlenden freien IPv4-Ressourcen die einzige Ausnahme. Die tatsächliche Situation hinsichtlich der IPv6-Einführung ist noch gravierender, weil die RIPE-Statistik nur die Anzahl der IPv6-Subnetze ausweist, die von Organisationen erworben wurden, während aus Googles Statistik hervorgeht, dass nur

* Teil des Internet, das von einem Netzbetreiber betrieben wird. Abbildung 1: Prozentsatz der Netze (ASes), die ein IPv6-Präfix ankündigen

28 %

= = = = = =

26 % 24 % 22 % 20 %

EU USA Lateinamerika und Karibik Asien-Pazifik Afrika Alle Länder

18 % 16 % 14 % 12 % 10 % 8% 6% 4% 2% 0% 2004

2005

2006

2007

2008

2009

2010

2011

2012

2013

2014

2015 Quelle: RIPE

57

Detecon Management Report blue • 1 / 2015

4,5 Prozent der Besucher der Google-Website IPv6-Adressen verwenden. Es liegt daher auf der Hand, dass Telekommunikationsbetreiber und Internet Service Provider stärkere Anstrengungen zur Einführung des IPv6-Protokolls unternehmen ­müssen, um ihre Netze für das IoT-Zeitalter zu rüsten. Implikationen in Bezug auf Sicherheit Auch wenn das Adressenproblem mit dem IPv6-Protokoll gelöst werden kann, erfordert die Nutzung von IPv6 gleichzeitig ein stärkeres, verlässlicheres und komplexeres Sicherheitsmodell als das zurzeit verwendete. Im Folgenden geht es um die Sicherheit, die das Netz und nicht die Anwendungsschicht bietet. Die derzeitige Beschränkung des IPv4-Adressraums führte zur Entwicklung der nachstehend üblichen Vorgehensweise, die in Kundennetzwerken zur Anwendung gelangt: Der Provider weist dem Kunden eine „öffentliche“ Adresse zu, während der Kunde in seinem privaten Umfeld mit seinem Internetzugangsgerät (IAD) „private“ IP-Adressen für seine Geräte verwendet. Eine Network Address Translation(NAT)-Funktion im IAD übersetzt dynamisch private in öffentliche IP-Adressen. Während NAT als Verfahren zur Überwindung des eingeschränkten IPv4-Adressraums ­entwickelt wurde, wird es fälschlicherweise auch als Sicherheitstool betrachtet, weil es die Topologie des privaten Kundennetzwerks verbirgt und die Verbindung vom Internet zum privaten Netzwerk ­einschränkt. Fälschlicherweise wird NAT als Sicherheitstool wahrgenommen. Aufgrund seiner Ubiquität und Einfachheit präferieren Betreiber und Nutzer jedoch NAT statt Firewalls, die verlässlicher, aber gleichzeitig auch komplizierter zu handhaben sind. Ein weiterer Aspekt bei NAT ist, dass es Probleme für alle Protokolle verursacht, die eine direkte Verbindung zwischen den Internet-Hosts, zum Beispiel VoIP-Gespräche und -Signalisierung, Internet-Video-Anrufen oder unterschiedlichen Cloud-­ Synchronisierungsprotokollen, erfordern. Entwickler von Internet-Anwendungen müssen große Anstrengungen unternehmen, um unterschiedliche Methoden zur Überwindung dieser NATHindernisse zu entwickeln. Dies führt dazu, dass ihre Lösungen teurer, weniger skalierbar und weniger zuverlässig sind. Mit der Entwicklung des IPv6-Protkolls fiel das NAT-Verfahren weg, weil IPv6 jedem Nutzer ausreichend öffentliche Adressen zuweisen kann. NAT bedeutet ein einfacheres Applika­ tionsdesign für viele IoT-Anwendungsfälle, aber gleichzeitig erfordert es ein besseres Sicherheitskonzept, um die Verbindung zu und von den mit dem Internet verbundenen Dingen zu kon-

58

Detecon Management Report blue • 1 / 2015

trollieren. Dies ist insbesondere für viele IoT-Anwendungsfälle wichtig, da sie die Kontrolle kritischer Infrastrukturen (Smart City, Smart Energy) oder die Überwachung sensibler Daten ermöglichen. IADs mit IPv6-Support verfügen heute bereits über eingebaute Firewalls. Konfiguration und Handhabung jedes dieser SmartHome-Geräte wie Glühbirnen, Kaffeemaschinen, Kühlschrank, Klimaanlage oder Überwachungskamera sind jedoch für den typischen Nutzer zu kompliziert. Für den Internet Service Provider liegt darin die Chance, den Nutzer von dieser Bürde zu befreien und die Netzsicherheitsregeln für das Heimnetzwerk des Kunden zu managen. Um dies zu tun, muss der Provider die Geräte kennen, die im Netzwerk des Kunden eingesetzt sind. Anderseits ist der typische Kunde nicht mit allen technischen Einzelheiten seiner Geräte vertraut, weil er diese einfach nur nutzen, aber nicht verwalten will. Heute gibt es neue Technologien, die dieses Dilemma lösen und es dem Kunden ermöglichen, sein Gerät mit dem Heimnetzwerk über Plug-and-Play zu verbinden, und es gleich­zeitig dem Internet Service Provider erlauben, alle erforderlichen Sicherheitsanforderungen für das installierte Gerät automatisch zu empfangen und geeignete Sicherheitsregeln auf dem IAD des Kunden und/oder den Edge Devices des Betreibernetzwerks zu implementieren. Diese Technologie wird als Software Defined Networking bezeichnet. Verkehrswachstum und Qualitätsanforderungen Aus sämtlichen Prognosen geht deutlich hervor, dass die Anzahl der mit dem Internet verbundenen Geräte die Anzahl der Menschen, die online sind, sehr bald übersteigen wird. In 2020 werden wahrscheinlich fünfmal mehr Geräte als Nutzer vernetzt sein, wenn man das Wachstum der Weltbevölkerung und die optimistische Annahme berücksichtigt, dass 75 Prozent der Bevölkerung bis 2020 online sind. Dieses eindrucksvolle Wachstum der vernetzten Dinge ist jedoch nicht der zentrale Treiber des Internet-Verkehrswachstums bis 2020, wie sich anhand einer einfachen Berechnung aufzeigen lässt: Die meisten IoT-Anwendungsfälle verfügen über integrierte Sensoren oder Aktuatoren, die den Datenverkehr mit zirka 5 bis 15 Kilobytes pro Minute übertragen, wohingegen die durchschnittliche Hauptverkehrsstunde pro Internetnutzer eine Bandbreite von 100 bis 200 Kilobit pro Sekunde aufweist. Abbildung 2 zeigt die auf diesen Annahmen basierende Entwicklung der vernetzten Nutzer, Dinge und des Verkehrs.

IoT-Anwendungsfälle werden den Internet-Verkehr in den kommenden Jahren wahrscheinlich nicht beschleunigen, aber sie erhöhen die Qualitätsanforderungen für Transportnetze. Anwendungsfälle wie die Überwachung von Herzschritt­machern, Waldbränden, die frühzeitige Erdbebenerkennung oder die Überwachung der Energie- oder Gasindustrie stellen hohe Anforderungen an Netzqualitätsparameter, insbesondere hinsichtlich Paketverlust oder Latenz. Die derzeitigen Netze sind für Breitbandnutzer und in erster Linie für Best-Effort-Verkehr und Kostenoptimierung konzipiert. Auch wenn für Video-­ Streaming oder Sprachanwendungen eine Verzögerung von 100 Millisekunden ausreichend sein kann, erfordern viele IoTAnwendungsfälle eine Latenz von nur wenigen Milli­sekunden. Bei der Entwicklung ihrer Netze sollten die Betreiber diese erweiterten Qualitätsanforderungen berücksichtigen und zum Beispiel Edge Clouds – dezentrale Netz-, Rechner- und Speicherressourcen – in ihre künftigen Netzwerkarchitekturen einbinden. Da IoT-Anwendungsfälle generell ein hohes Maß an die Flexibilität der Transportnetze fordern, muss die ­Netzqualität ebenfalls flexibel und auf Abruf verfügbar sein. Zusätzliche Qualitätsanforderungen resultieren ebenfalls aus der Entwicklung der traditionellen Breitbanddienste für Netzbetreiber. Cloudbasierte TV- oder Gaming-Dienste erfordern ein hohes Maß an Interaktivität und eine geringe Latenz. Daher steht die Transportnetzqualität bereits ganz oben auf der Agenda der Betreiber.

Diese können Synergien nutzen, wenn die Transportqualität für Breitbanddienste und IoT-Anwendungsfälle verbessert wird. Doch selbst wenn die eigenen Netze der Betreiber Qualität ­liefern, reicht dies nicht aus, um die Anforderungen der IoTAnwendungsfälle zu unterstützen. Sensoren sind weltweit verteilt und mit den Netzen unterschiedlicher Betreiber verbunden. Wenn die Betreiber das Umsatzpotenzial des qualitätsgarantierten Transports für Smart City-, Smart Environment-, industrielle Steuerungs- oder eHealth-Applikationen nutzen wollen, muss diese Netzqualität Ende-zu-Ende verfügbar sein. Diese aus den IoT-Anwendungsfällen resultierende Anforderung für Ende-zu-Ende-Qualität könnte sich als neuer Treiber für Inter-Operator-Vereinbarungen über Netzqualität erweisen. Während des letzten Jahrzehnts waren die Inter-Operator-Vereinbarungen über die Lieferung einer Ende-zu-Ende-Qualität nicht besonders erfolgreich: Die Herausforderung, Transportqualität für Video-Streaming-Applikationen zu liefern, wurde zum Beispiel von CDN-Providern und nicht von Netzbetreibern gelöst. Doch insbesondere für Applikationen, die anfällig für Paketverluste sind und kein großes Verkehrsaufkommen generieren, können Inter-Operator-Qualitätsvereinbarungen eine gute ­Lösung sein. Betreiber sollten schnell den Bereich Endezu-Ende-Qualität besetzen, weil sonst die Gefahr besteht, dass die Applikationsebene eine ­Lösung liefern.

Abbildung 2: Wachstum der mit dem Internet verbundenen Dinge und Nutzer Mit dem Internet verbundene Nutzer/Dinge in Milliarden

Teil des IoT-Verkehrs = Mit dem Internet verbundene Nutzer = Mit dem Internet verbundene Dinge = Teil des Geräte-Verkehrs

30

10 % 26,3

25

9% 8% 7%

20

6% 15

5%

13,4

4%

10 5 0

3% 3,8

3,4

3,0 0,9 2015

3,5

4,4

6,9

5,6

5,0

2% 1%

1,8

0% 2016

2017

2018

2019



2020 Quelle: Gartner, UN, Detecon

59

Detecon Management Report blue • 1 / 2015

Die Lieferung von Netzqualität für IoT-Anwendungsfälle ist für Betreiber sowohl ein Erfordernis als auch eine ­Umsatzchance, wobei die zusätzliche Lieferung von Netzwerkdiensten eine ­weitere Möglichkeit darstellt. Da viele IoT-Anwendungsfälle Sensoren oder Aktuatoren mit Einschränkungen hinsichtlich des Energieverbrauchs und der Funktionen beinhalten, können die Betreiber mehrere Dienste wie standortbezogene Dienste, Synchronisierungsdienste oder Notrufdienste zur Unterstützung der diversen IoT-Anwendungsfälle anbieten. Wenn diese Funktionen durch das Netz verfügbar gemacht werden, dann können die Sensoren, zum Beispiel durch Ent­fernung der GPSModule, vereinfacht und Kosten und Energieverbrauch entsprechend optimiert werden. Das Internet der Dinge und Software Defined Networking Wie soll das IoT-Netzwerk aussehen? Kurz zusammengefasst: Das Netzwerk, das die Anforderungen des Internet der D ­ inge erfüllt, muss agil sein, um Verbindungen, Management und Kontrolle der diversen Dinge, die über unterschiedliche Zugangstechnologien verbunden sind, mit Plug-and-Play-Mechanismen zu ­ermöglichen. Zusätzlich zu der gestiegenen Zahl an Endpunkten (IPv6-fähig) müssen die Verbindungen zwischen den Endpunkten flexibel und auf Abruf eingerichtet werden, und zwar unter Verwendung unterschiedlicher Kommunikations­ modelle, die sich von Hub and Spoke-Modellen für Thin ­Clients über lokale ­Vorverarbeitung bis hin zu Peer-to-Peer-Modellen für Smart Clients ­erstrecken. Ein weiterer zentraler Aspekt des IoT-Netzwerks ist die Interoperabilität, die die Integration von Geräten unterschiedlichster Hersteller ermög­licht. ­Einige der IoT-Anwendungsfälle stellen zusätzliche Anforderungen an das Netz – beispielsweise eine stärkere Zuverlässigkeit sowie erhöhte Sicherheit und Datenschutz bei Anwendungsfällen aus den Bereichen Gesundheitswesen und Sicherheit. Sind die Netze der Betreiber für das Internet der Dinge ­gerüstet? Die bestehenden Netze weisen keine ausreichende Flexibilität auf, um sich den Anforderungen schnell anzupassen, die sich aufgrund ändernder Netzanforderungen, innovativer Service Offerings und der konsequenten Ende-zu-Ende-Betrachtung, um das gesamte Netz zu managen, ergeben. Es müssen neue Netztechnologien untersucht werden, damit das Internet der Dinge Realität werden kann, ohne dass für die bestehenden Netze zu hohe Belastungen entstehen. Software Defined Networking (SDN) kann die erforderliche Flexibilität, Interoperabilität und Netzwerkprogrammierung liefern. SDN zeichnet sich aus durch die Trennung von Weiterleitung und Kontrolle des Verkehrs, die Existenz eines logisch zentrali-

60

Detecon Management Report blue • 1 / 2015

sierten Netzmanagements und dadurch, dass das Netzwerk über offene APIs zur Anwendungsschicht verfügt. Die zentrale anbieterunabhängige Kontrolle des gesamten Netzwerks von einem einzelnen ­logischen Punkt ermöglicht eine erhebliche Vereinfachung von Netzwerkdesign und -betrieb. Im Gegensatz zur gegenwärtig vorherrschenden Konfiguration auf Geräteebene ermöglicht die Ende-zu-Ende-Netzwerkansicht darüber hinaus die Bereitstellung von Diensten Ende-zu-Ende mit der erforderlichen Sicherheit und den Servicequalitätsparametern (QoS). Aufgrund der permanent steigenden Anzahl der IoT-Anwendungsfälle werden sich neue Umsatzchancen für Telekommunikationsunternehmen und in noch stärkerem Maße für Betreiber ergeben, die in der Lage sind, innovative Dienste rechtzeitig anzubieten. SDN liefert einen Mechanismus, um Netzwerkressourcen schnell zu konfigurieren, zu verwalten und zu o­ ptimieren, und zwar mit Hilfe von automatisierten SDN-­ Anwendungen, die auch wieder verwendet oder bei Bedarf leicht erzeugt werden können. Eine zu SDN komplementäre Technologie, die zur Optimierung der Betreibernetze beitragen kann, um die Anforderung des IoT zu erfüllen, ist die Virtualisierung von Netzfunktionen (NFV). NFV wendet die weiterentwickelte IT-Virtualisierungstechnologie auf Netzwerkfunktionen an, um zu ermöglichen, dass statt proprietärer Plattformen standardisierte IT-Server, Switches und Speicher verwendet werden. Dies ermöglicht sowohl die Skalierung der Kapazität als auch die Mobilität von Netzwerkfunktionen. Diese Flexibilität in der Dimensionierung und Lokalisierung von Netzwerkfunktionen wird sich für Betreiber als leistungsstarkes Tool erweisen, um die Anforderungen des Internet der Dinge erfüllen zu können.

Dr. Stefan Schnitter ist Partner im Bereich International Telecommunications mit langjähriger, internationaler Erfahrung auf dem Gebiet IP-basierter Netze und Dienste. Der Schwerpunkt seiner Beratung umfasst Strategien für den Breitbandausbau für Festnetz- und Mobilfunk­betreiber sowie die Architektur, Planung und Implementierung der Netze für Telekommunikationsunter­ nehmen weltweit. Vera Markova und Alexey Gumirov sind Senior Consultants aus dem Bereich ­International Telecommunications.

Bereit für die Zukunft ? Agilität in Prozessen und IT Integrierter Ausbau der Netzkapazitäten

Infor

mati

onen

Differenzierte Marktbearbeitung

Fokussierte Innovation

unte

r: w

ww.

dete

con.

com

Empowerment Wholesale

Forcierung Partnering

Herausforderung „Zukunft“

Moderne Netzkonzepte

Consulting

DETECON

M2M für Telekommunikationsunternehmen

Strategiedimensionen für den Eintritt in den M2M-Markt

62

Detecon Management Report blue • 1 / 2015

Telekommunikationsunternehmen sehen sich sich mit einem stagnierenden oder sogar sinkenden Mobilfunkgeschäft konfrontiert. Neue Geschäftsmodelle nahe den eigenen Kernkompetenzen und mit Umsatzsteigerungspotenzial rücken in den Fokus. Noch bietet der sich entwickelnde M2M-Markt eine vielversprechende Chance für Telekommunikationsunternehmen.

ie Einführung von Machine-to-Machine (M2M) in das D Portfolio scheint zunächst für Telekommunikationsunternehmen

einfach möglich, da sich das M2M-Geschäft vom traditionellen Mobilfunkgeschäft auf den ersten Blick nicht wesentlich unterscheidet. Grundprozesse wie die Bereitstellung von SIM-Karten und Endgeräten sowie deren Provisionierung und Abrechnung sind in beiden Geschäften notwendig. Auf den zweiten Blick werden jedoch erhebliche Unterschiede mit Konsequenzen in der Bereitstellung von M2M-Dienstleistungen durch Telekommunikationsunternehmen deutlich. Um erfolgreich in den M2M-Markt einzutreten, sollten Telekommunikationsunternehmen eine umfassende Strategie entwickeln. Hierbei müssen die Charakteristika des M2M-Marktes und der Betriebsmodelle ebenso betrachtet werden wie die notwendige Technologielandschaft, die für die Bereitstellung von M2M-Dienstleistungen erforderlich ist (siehe Abbildung 1). Im Folgenden stellen wir zu diesen Themenkomplexen unsere Erfahrung aus einer Vielzahl von Kundenprojekten vor, um entsprechende Hilfestellungen an die Hand zu geben.

Charakteristika des M2M-Marktes Der M2M-Markt unterscheidet sich deutlich vom klassischen Mobilfunkgeschäft. Das M2M-Geschäft wird bestimmt durch eine Vielzahl von geschäftlichen Anwendungsfällen, in d­ enen M2M-Kommunikation zum Einsatz kommt. Dies reicht von branchenspezifischen Lösungen, zum Beispiel Industrielle Automatisierungen oder Remote Health Monitoring, Smart ­ Metering, mit lokal oder regional angepassten M2M-Service ­ Portfolios bis hin zu generischen Tracking-Lösungen, die weltweit zum Einsatz kommen können. Aufgrund des breiten Einsatzspektrums von M2M-Technologie müssen Telekommunikationsunternehmen beim Einstieg in das M2M-Geschäft eine klare strategische Positionierung ent­wickeln. Dazu müssen die angestrebte Wertschöpfungstiefe, das Produktportfolio und der regionale Fokus definiert werden. D ­ arüber ­hinaus nehmen der Aufbau und die Pflege von Unternehmens­ kooperationen und Partnernetzwerken eine heraus­ ragende ­Stellung ein.

Abbildung 1: Die M2M-Strategie

Der Markt

Der Betrieb

Die Technologie

• Wertschöpfungstiefe • Kundensegmentierung und Produktportfolio • Regionalität • Partnerschaften

• Organisation • Governance

• SIM/Roaming • Plattform • Netzwerk

Quelle: Detecon

63

Detecon Management Report blue • 1 / 2015

Die Wertschöpfungskette für M2M-Dienstleistungen kann schematisch in die notwendigen Hardware-Komponenten wie Kommunikationsmodule und Sensoren, Konnektivität, die ITPlattform für das Management von Konnektivität und SIMVerwaltung, die Plattform für „Solution Enabling“ und die (vertikale) Lösung für den Endkunden zerlegt werden. Für letztere sind oftmals umfassende Dienstleistungen für die Integration der M2M-Plattformen in die bestehende IT-Landschaft der Kunden notwendig. In dieser komplexen Wertschöpfungskette müssen Telekommunikationsunternehmen sich positionieren. Aus unserer Projekterfahrung ergeben sich im Wesentlichen drei mögliche Platzierungen, die in Abhängigkeit von den eigenen Möglichkeiten bewertet werden müssen. Telekommunikationsunternehmen können sich für das reine Anbieten der Konnektivität, das „Connectivity Wholesale“Modell, entscheiden. In diesem Modell erfährt der Anbieter nur eine limitierte Wahrnehmung im Markt – keinen direkten Endkundenzugang – und kann nur einen geringen Anteil am Gesamtumsatz einer M2M-Lösung abschöpfen. Dies veranlasst viele Telekommunikationsunternehmen, ihr Angebot ­„Managed Connectivity“-Szenario um die Bereitstellung von Diensten zum Konnektivitäts- und SIM-Management zur Verfügung zu stellen. Entscheidet sich das Telekommunikationsunternehmen,

die Position als „End-to-End Solution Provider“ einzunehmen, ist neben einer Plattform für „Solution Enabling“ auch die Orchestrierung möglicher Partner entlang der gesamten Wertschöpfungskette nötig. Mit dieser Option hat der Operator jedoch einen direkten Endkundenzugang und kann seine eigene Marke für die Vermarktung nutzen. Kundensegmentierung und Produktportfolio: Abgeleitet aus den zuvor genannten möglichen Positionierungen eines Telekommunikationsunternehmens im M2M-Markt stellen B2B oder B2B2C die wesentlichen Modelle dar. Das Spektrum potenzieller Kunden deckt die komplette Bandbreite von kleinen Unternehmen, vielfach auch Start-ups, bis hin zu globalen Großkonzernen ab. Die avisierten Kundensegmente haben erheblichen Einfluss auf die Art der angebotenen Dienstleistungen. So müssen für kleine Unternehmen standardisierte Produkte angeboten werden, während für große Kunden vielfach maßgeschneiderte Lösungen zum Einsatz kommen, die auch eine tiefe Integration in bestehende IT-Systeme erfordern. Die Auswahl der zu adressierenden Kundensegmente hängt deshalb stark von den eigenen Kompetenzen beziehungsweise von den Partnerschaften des Anbieters im Bereich Systementwicklung und Systemintegration ab. Das Dienstleistungsportfolio ist zudem branchenspezifisch auszurichten. Spezifische Lösungen und Produkte werden angeboten und auf die jeweiligen Bedürfnisse einer Industrie angepasst.

Abbildung 2: Die M2M-Wertschöpfungskette

M2M-Wertschöpfungskette

Trend bei Telekommunikationsunternehmen

Geräte und Module

Konnektivität

Solution Enabling

Option 1: Wholesale Provider Konnektivität

Option 2: Managed Connectivity Provider Konnektivität

Konnektivitäts- und SIM-Management

Option 3: End-to-End Solution Provider Konnektivität

Quelle: Detecon

64

Konnektivitäts- und SIM-Management

Detecon Management Report blue • 1 / 2015

Konnektivitäts- und SIM-Management

Solution Enabling

Vertikale Lösungen

Integration

Horizontale Lösungen hingegen sind Standardprodukte, welche branchenübergreifend angeboten werden können. Die Anwendungsfälle für horizontale Lösungen sind jedoch nach wie vor begrenzt. Regionalität: Ein Großteil der Komplexität des M2M-Geschäfts hängt von der geographischen Reichweite des M2M-Angebots ab. Weltweit ist zu beobachten, dass sich Telekommunikationsunternehmen dazu entschließen, ausschließlich im Heimatmarkt oder in benachbarten Regionen M2M-Dienstleistungen anzubieten. Nur wenige große Anbieter, beispielsweise Vodafone, setzen auf eine globale Bereitstellung von Lösungen. Ein Kriterium zur Bestimmung der geographischen Reichweite ist die derzeitige Marktabdeckung, Partnerschaften und das Marktpotenzial des Anbieters. Partnerschaften: Der M2M-Markt ist vielfältig und komplex. Um hier zu bestehen, sind Partnerschaften unabdingbar. Diese können in allen zuvor beschriebenen Dimensionen – Wertschöpfungstiefe, Produktportolio und Regionalität – genutzt werden. Die funktionalen Partnerschaften decken Bestandteile der M2MWertschöpfungskette ab, die nicht im Kompetenzbereich des eigenen Unternehmens liegen, zum Beispiel Entwicklung von Hardware-Komponenten. Vertikale Partner unterstützen bei der Entwicklung und Vermarktung von Dienstleistungen in den ­fokussierten Industrien. Mithilfe von geographischen Partnerschaften können Telekommunikationsunternehmen ihren „Footprint“ erweitern – im M2M-Markt kann dies in Form von einzelnen Roaming-Verträgen, M2M-Kooperationen mit anderen Anbietern oder durch den Eintritt in bestehende M2M-Allianzen erreicht werden. Nicht zuletzt sollten auch in der Vermarktung von M2M-Produkten Partnerschaften angestrebt werden. Neben Vertriebskooperationen, die insbesondere in großen Deals Anwendung finden, hat sich für Telekommunikationsunternehmen die Bereitstellung eines Marktplatzes als veritables Modell herausgestellt. Hier können Kunden Partnerlösungen erwerben, die auf Basis einer Plattform für „Solution Enabling“ funktionieren. Die Wahl des Partnermodells hängt stark von der Produktreife und Kundenbeziehung des Partners im Vergleich zur eigenen ab. Operatives M2M-Geschäft Nicht nur bei der Segmentierung des Marktes und der zugehörigen Positionierung birgt das M2M-Geschäft Besonderheiten, sondern auch bei der operativen Bereitstellung von M2M-

Dienstleistungen. Durch die typischerweise niedrigen ARPUs, die notwendige IT-Expertise und die Anforderungen bezüglich Flexibilität und Schnelligkeit der Lösungsbereitstellung sind die Organisation und Governance im Vergleich zum traditionellen Mobilfunkgeschäft anders aufzustellen. Organisation: Die optimale interne organisatorische Aufstellung hängt im Wesentlichen von der gewählten Wertschöpfungstiefe und der Priorität des M2M-Bereichs im Unternehmen ab. Es können drei Basisvarianten für die Einbindung von M2M in die Organisation unterschieden werden. Die integrierte M2M-Organisation bindet ein M2M-Team innerhalb einer bestehenden B2B-Organisationeinheit des Anbieters ein. Diese Variante ist durch ihre schnelle Umsetzbarkeit vor allem im Szenario „Connectivity Wholesale“ relevant. Die geringe Autonomie bei der Budgetgestaltung und die geringere Wahrnehmung innerhalb der Organisation hindert jedoch die Umsetzung höherer M2M-Ambitionslevels. Der Aufbau ­einer strategischen Business Unit für M2M verspricht dahingehend die Nutzung von Querschnittsfunktionen bei gleichzeitig ­höherer Eigenbestimmung. Eine Gefahr liegt jedoch im Wettbewerb mit bereits etablierten Einheiten, dem sich die M2M-Einheit mit ihren typischerweise geringeren Margen und längeren ­Akquisezeiten stellen muss. Die Einführung einer unabhängigen Legaleinheit für M2M, mit eigenverantwortlicher GuV und Vertragsautonomie gegenüber Kunden und Partnern, ist die typische Lösung bei End-to End-Solution Providern. Klare Governance: Telekommunikationsunternehmen mit mehr als einer operativen Gesellschaft, zum Beispiel mehreren Landesgesellschaften, müssen die Rollen und Verantwortungen im Bereich M2M eindeutig festlegen. Bei einer zentralisierten ­Governance wird das M2M-Geschäft aller operativen Gesellschaften auf der Konzernebene gesteuert und kontrolliert. Wird dieses Governance-Modell mit dem Aufbau eines zentralen M2M-Kompetenzteams verbunden, das mit den lokalen B2BEinheiten kooperiert, kann kurz- bis mittelfristig ein entscheidender Wettbewerbsvorteil entstehen, da die M2M-Expertise schnell und zielgerichtet aufgebaut werden kann. Im Gegensatz dazu, wird bei in einem Modell mit lokaler Governance das M2M-Geschäft auf Ebene der operativen Gesellschaften geführt. Diese Option verspricht eine hohe lokale Spezialisierung auf die jeweiligen Märkte bei geringeren Synergieeffekten auf Konzern­ ebene. Bei der föderierten Governance werden die Verantwortlichkeiten zwischen Konzern und operativen Gesellschaften

65

Detecon Management Report blue • 1 / 2015

aufgeteilt. Der höhere Abstimmungsaufwand kann durch den Aufbau eines zentralen M2M-Kompetenzteams bei gleichzeitig gezieltem Angang der lokalen Märkte ausgeglichen werden. Schlussendlich hängt die Wahl des Governance-Modells stark von der etablierten Organisationsstruktur des Konzerns und der Mitwirkung der einzelnen operativen Gesellschaften ab. Technologische Landschaft Neben Markt und Betrieb ist Technologie der dritte Bestandteil einer M2M-Strategie. Auf den Ebenen Plattform – für Konnektivität & SIM-Management und Solution Enabling –, SIMStrategie/Roaming und Netzwerk müssen wesentliche Dinge beachtet werden. Plattform: Die Art und der Umfang der notwendigen M2MPlattform hängt insbesondere von der verfolgten Positionierung innerhalb der Wertschöpfungskette ab. Eine Plattform für Konnektivitäts- und SIM-Management dient als eine Art „Self Service Portal“. Sie stellt wesentliche Funktionen zur Verwaltung von SIM-Karten – zum Beispiel SIM-Karten Aktivierung und Deaktivierung, Bestellung, Provisionierung – und die zugehörigen Verbindungen für den Geschäftspartner zur Verfügung. Darüber hinaus kann sie als Basis für den Aufbau einer Plattform für Solution Enabling dienen. Eine Solution-EnablingPlattform stellt Programmbibliotheken häufig benutzter Funktionalitäten und sonstige Programmierschnittstellen zur Verfügung. Hiermit kann die Entwicklung branchenspezifischer, vertikaler M2M-Lösungen vereinfacht und beschleunigt werden. „Solution-Enabling-Plattformen wurden lange Zeit sehr stiefmütterlich behandelt. Sie gewinnen jedoch zunehmend an Bedeutung wenn Telekommunikationsunternehmen größere Anteile der Wertschöpfung und damit des Umsatzes von M2MLösungen abschöpfen möchten.“, erklärt Claus Eßmann, Senior Consultant bei Detecon. „Die aktuelle Marktentwicklung, insbesondere von dem Hintergrund des Internet der Dinge, deutet klar in die Richtung, dass Solution-Enabling-Plattformen zum essentiellen Angebotsbaustein von Telekommunikationsunternehmen im M2M-Markt werden.“ Ist die Entscheidung für den Aufbau einer M2M-Plattform gefallen, muss die „make or buy“-Frage gestellt werden. Soll die Plattform selbst aufgebaut werden oder auf ein existierendes Standardprodukt zurückgegriffen werden? Unsere Erfahrung

66

Detecon Management Report blue • 1 / 2015

zeigt, dass Projekte zur Eigenentwicklung nur selten im geplanten Zeit­horizont realisiert werden können. Häufig werden die ­Komplexität, zum Beispiel für die direkte Netzintegration, beziehungsweise der mangelnde Einfluss auf gewisse Faktoren, zum Beispiel die Bereitstellung benötigter Leistungsmerkmale auf Systemen von Drittanbietern, unterschätzt. Im Gegensatz dazu können beim Einsatz einer Standardsoftware mit dem Zulieferer Vertragsstrafen im Falle von Nichteinhaltung von Lieferterminen vereinbart werden. Darüber hinaus werden zunehmend Betriebsmodelle angeboten, in denen die Plattform über ein Umsatzbeteiligungsmodell mit dem Zulieferer finanziert werden kann. Bei diesem Modell zahlt das Telekommunikationsunternehmen meist nur einen geringen Betrag für den Aufbau, die Bereitstellung und die Integration der M2M Plattform in das eigene Netz. Hinzu kommt ein bestimmter Anteil des Verkaufspreises für jede verkaufte SIM-Karte, der an den Zulieferer gezahlt wird. Diesen Vorteilen bezüglich der finanziellen Risikominimierung steht jedoch die reduzierte Möglichkeit zur Individualisierung der Leistungsmerkmale der Plattform gegenüber. M2M-Experte Eßmann rät: „Übergreifend muss die Auswahl der M2M-Plattform in ­enger Abstimmung mit vorhandenen Technologiestrategien, zum Beispiel Netzwerk-/IT-Strategie, erfolgen, um eine nahtlose Integration in die existierende Technologielandschaft sicher zu stellen. Eine „tiefe“ Integration in schon vorhandene BSS- und OSS-Systeme ist jedoch aufgrund der Wachstumsvorhersagen im M2M-Geschäft nicht zu empfehlen.“ Durch mögliche Skalierbarkeitsprobleme können sich unmittelbar negative Auswirkungen auf das Kerngeschäft im Massenmarkt ergeben. SIM/Roaming: Im M2M-Geschäft gilt es, bei der Auswahl der SIM-Karte zwei wesentliche Zielrichtungen zu verfolgen: minimale Kosten für die Bereitstellung der SIM-Karte bei Sicherstellung der gewünschten Netzabdeckung. Als Basis für die Auswahl dienen also das geplante Einsatzgebiet der SIM-Karte – lokal versus regional versus global – und die geforderten Anforderungen an die Netzabdeckung. So kann es beispielsweise für beide Seiten von (finanziellem) Vorteil sein, statt einer lokalen SIM-Karte dem Kunden eine sogenannte „Global Roaming SIM“ Karte zur Verfügung zu stellen. Diese SIM-Karte hat kein „Heimatnetz“ und ist in jedem Netz, in dem sie sich anmeldet, im RoamingModus. Netzwerk: Auch im Netzwerkbereich müssen Spezifika des M2MGeschäfts beachtet werden. So können existierende Netzwerkknoten für die M2M-Kommunikation verwendet werden, das

heißt M2M SIM-Karten und M2M-Datenverkehr werden in den bestehenden Sytemen (HLR/HSS beziehungsweise GGSNs) verwaltet. Insbesondere die großen Telekommunikationsanbieter verfolgen jedoch zunehmend einen anderen Ansatz. „Aufgrund der Vorhersagen zum drastisch steigenden Kommunikationsvolumen in den nächsten Jahren wird die M2M-Kommunikation zunehmend über dedizierte Netzwerkknoten durchgeführt.“, so die Einschätzung von Eßmann. ­Diese Separierung bietet eine Reihe von Vorteilen. Zum einen lässt sich der M2M-Datenverkehr so einfacher von herkömmlichem ­Datenverkehr unterscheiden, zum Beispiel um einfach und ­flexibel zusätzliche (Roaming-)Tarife anzubieten. Zum anderen benötigen M2M SIM-Karten viele (teure) Funktionen im HLR/HSS nicht. Hier kann aufgrund günstigerer Lizenzgebühren pro SIM-Karte im dedizierten HLR/ HSS ein erhebliches Einspar­potenzial realisiert werden. Sorgfältige Analyse ist erfolgsentscheidend Telekommunikationsunternehmen sollten sich vor dem Eintritt in den M2M-Markt die Unterschiede gegenüber dem traditionellen Mobilfunkgeschäft bewusst machen. Das M2M-Geschäft bietet ein breites Spektrum an Gestaltungsoptionen und fordert entsprechend grundlegende Entscheidungen. Für die Entwicklung einer umfassenden, erfolgreichen M2M-Strategie sind marktseitige, betriebliche und technische Aspekte zu berücksichtigen. Aus unserer Erfahrung heraus sollten für den Entscheidungsweg zunächst die marktseitigen Ziele im Fokus stehen, gefolgt von der betrieblichen Ausgestaltung und der technischen Umsetzung. Alle drei Komponenten müssen dabei aufeinander abgestimmt sein und sich zu einer einheitlichen M2M-Strategie zusammenfügen. Zudem muss der Abgleich mit der übergreifenden G ­ eschäfts- und Technologiestrategie sichergestellt werden.

Dr. Philipp Bodenbenner ist Management Consultant und berät Klienten aus der Dienstleistungsbranche. Er beschäftigt er sich mit Themen an der Schnittstelle von Geschäftsstrategie und Informationstechnologie und berät Unternehmen zu Geschäftsmodellinnovationen und Marktangangsstrategien für innovative (Technologie-)Produkte. Andreas Winter ist Management Consultant. Sein Beschäftigungsfeld liegt in der Erstellung von Marktangangsstrategien und der kommerziellen Bewertung von innovativen ICT-Produkten für Kunden in der Telekommunikationsund Automobilindustrie. Im Bereich IoT und M2M unterstütze er bereits Unternehmen bei der Konzipierung der Geschäftsfeldstrategie und deren Implementierung.

67

Detecon Management Report blue • 1 / 2015

Wearable Technology

Trends, Ökosystem und strategische Optionen für Carrier Marktforschungsstudien liefern sehr optimistische Perspektiven für das Wachstum des Wearables-Marktes. Für Carrier liegt die offensichtlichste Chance im Reselling der Geräte über ihre bestehenden Kanäle und der Bereitstellung von Konnektivität.

„ Wearables bestimmen die Zukunft!“, prognostiziert Mary

Meeker, Expertin aus dem Silicon Valley. Die von aller Welt erwartete Ankündigung der Apple Watch hat unsere Social Media Feeds geradezu überschwemmt und Wearables als neue Gerätekategorie etabliert. Damit sind sie aus dem Nischendasein befreit und zum Standard erhoben. Wearables sind mit Sensoren ausgestattete Geräte, die am Körper getragen werden. Die Landschaft dieser neuen MiniComputer ist vielfältig und fragmentiert und reicht von FitnessArmbändern, Uhren und Brillen bis hin zu Hautpflastern und intelligenter Kleidung. Die meisten Wearables können zurzeit noch nicht direkt an das Internet angeschlossen werden. Mit auf dem Smartphone installierten Companion Apps, einer Schnittstelle zwischen Smartphone und Wearables, kann aber über Bluetooth auf die Wearables zugegriffen werden. Diese Apps sammeln und synchronisieren Sensordaten in der Cloud und senden Updates und Benachrichtigungen an die Wearables. Bedürfnisse des Verbrauchers im Fokus Marktforschungsstudien liefern sehr optimistische Perspektiven für das Wachstum des Wearables-Marktes. Sie prognostizieren für den Zeitraum von 2013 bis 2018 durchschnittliche jährliche Wachstumsraten (CAGRs) von mehr als 50 Prozent. Sie

68

Detecon Management Report blue • 1 / 2015

zeigen jedoch eine große Wachstumsabweichung, wenn es um die Entstehung des Marktes geht. Während ABI die Zukunft der Smartwatches sehr optimistisch einschätzt und insbesondere für Brillen und Kontaktlinsen 485 Millionen Lieferungen für 2018 vorhersagt, ist Junipers Marktstudie konservativer und prognostiziert 130 Millionen Lieferungen. Der Wearable-Markt wird durch eine hohe Smartphone-Durchdringung und die allgegenwärtige drahtlose Konnektivität sowie durch kleinere und erschwinglichere Sensoren angetrieben. Zu den weiteren Enablern gehören intelligente Warnsysteme und Nutzererkenntnisse, die auf Predictive Analytics und Big Data basieren, darüber hinaus neue Anwendungsfälle im Internet der Dinge, die Technologien wie M2M-Kommunikation und integrierte SIM-Karten ermöglichen. Doch bevor Wearables ­massentauglich sind, müssen noch einige Hindernisse überwunden werden. Wearable-Hardware muss einen Reifeprozess durchlaufen, um den Mode- und Designansprüchen der Verbraucher gerecht zu werden. Verbesserungswürdig ist darüber hinaus die Batterieleistung. Software und Apps müssen bislang nicht gelöste Datenschutz- und Sicherheitsprobleme lösen, insbesondere in Anbetracht der personenbezogenen Daten. Die meisten Geräte, die auf den Markt kommen, zielen auf die Bedürfnisse der Verbraucher ab, das heißt auf Fitness und auf

die Quantified-Self-Bewegung sowie auf Nischen im Gesundheitsbereich wie die Überwachung der Herzfrequenz und des Blutzuckerspiegels. Anwendungsfälle im B2B-Umfeld befinden sich in der Entstehungsphase. Intelligente Brillen könnten zum Beispiel für die Baubranche nützlich sein, um die Arbeitskräfte untereinander zu vernetzen oder die Leistungsfähigkeit der Fernwartung zu steigern. Im Gesundheitssektor öffnen die Applikationen der intelligenten Brillen ein breites Anwendungsfeld: Sie ermöglichen Ärzten, direkt am Krankenbett ihrer Patienten auf klinische Informationen zugreifen und diese bestätigen zu können. Auch das Fern-Coaching bei Live-Operationen per Augmented Reality, wo genau angezeigt wird, an welcher ­Stelle ein Instrument platziert werden muss oder ein chirurgischer Eingriff vorzunehmen ist, ist realisierbar. Angesichts der leichten Zugänglichkeit für den Nutzer sind Wearables überzeugende Begleitgeräte für das Internet der ­ Dinge. Selbst in diesem frühen Stadium lassen sich bereits ­interessante Implementierungen beobachten, zum Beispiel das Kontrollieren der Beleuchtung anhand einer Armbanduhr oder die Entwicklung bedingter Anweisungen über die App IFTTT, die eine beliebige Anzahl von Home-Automation-Systemen integrieren kann. Überzeugende M2M-Anwendungen für ­Connected Cars beinhalten die Überprüfung des Ladezustands der Batterie auf der Smartwatch mit anschließender Benachrichtigung auf dem Display über einen eventuellen Dienst­ leistungsbedarf. Entwicklung des Ökosystems Ähnlich der Entwicklung von Dumbphones zu Smartphones entwickeln sich auch Wearables von zweckorientierten Geräten zu Plattformen. Die Leistungsmerkmale der ersten Wearables beschränkten sich lediglich auf Aufgaben wie Schritt-, Herzschlag- oder Schlafüberwachung. Erst in letzter Zeit haben Apple und Google Wearable-Plattformen eingeführt, auf denen ThirdParty-Apps laufen. Im Einklang mit der Android-SmartphoneStrategie entwickelte Google das Android-Wear-Betriebssystem sowie Protokolle, hielt aber für die Fertigung der Geräte nach bestehenden Android-Hardware-Partnern Ausschau. Apple dagegen entwickelte ähnlich dem iPhone für die Apple Watch beides – das Betriebssystem und die Hardware. In Bezug auf die Apps, die auf diesen Plattformen – bis jetzt nur auf Android Wear – laufen, scheint es so, dass die beliebtesten Android SmartphoneApps ihre Führungsposition auf diese neuen Plattformen ausweiten: Spotify für Musik, Runkeeper für Fitness und andere mehr. Für die Aussage, dass ihre Dominanz eine ausgemachte Sache ist, ist es jedoch zu diesem Zeitpunkt noch zu früh, da neue Formfaktoren und Daten aus neuen Sensoren den Wettbewerbern sowohl das Eindringen in bestehende App-Kategorien als auch die Entwicklung gänzlich neuer Kategorien ermöglichen.

Da dieselben OEMs, OTTs und App-Entwickler, die auf dem Smartphone-Markt im Wettbewerb stehen, auch bei den ­Wearables um die Customer Ownership konkurrieren, sollten die MNOs diesen Bereich für sich in Anspruch nehmen, um die Bedeutung und Nutzung bestehender Kunden-Smartphoneund Datenübertragungsverträge zu erweitern, ARPU zu steigern oder zu stabilisieren und gegen Disintermediation zu wirken. Die offensichtlichste Chance für Carrier auf dem WearableTechnologiemarkt liegt im Reselling der Geräte über ihre bestehenden Kanäle und der Bereitstellung von Konnektivität. Während man davon ausgeht, dass nur wenige Wearables in den nächsten Jahren SIM-fähig sein werden, wird das Umsatzpotenzial im Zuge der Entwicklung des Internet der Dinge steigen. Zweitens bilden die Wearables für MNOs ein weiteres Fenster, um ihre eigenen Mehrwertdienste, zum Beispiel Zahlungs- und IP-basierte Kommunikations-Apps, voranzutreiben und sich gegen den Wettbewerb zu wappnen. Darüber hinaus haben Carrier wie AT&T und NTT DoCoMo das Potenzial zur Entwicklung von Ökosystemen erkannt, die auf Vertikale wie Gesundheit abzielen, um ihre bestehenden Fähigkeiten in der Sicherung von Datenspeicherung und Cloud-Plattformen zu nutzen. Daten aus unterschiedlichen Geräten und Quellen können auf einer integrierten Plattform gesammelt und aggregiert werden, um Nutzer, Ärzte, Krankenhäuser und Versicherungsgesellschaften mittels eines zweiseitigen Geschäftsmodells zu vernetzen. Laut Markus von Blumröder, Vice President Product & Innovation Terminals, Deutsche Telekom, der das Wearables-Geschäft der Deutschen Telekom leitet, sollten sich Carrier frühzeitig positionieren, um so Anspruch auf ihre Nische zu erheben und Entwicklungen im Wearables-Ökosystem voranzutreiben: „Angesichts des niedrigen Umsatzes und der eingeschränkten Verbrauchernachfrage sollten wir unsere Bemühungen auf keinen Fall reduzieren. Jede Innovation benötigte bislang eine Anlaufzeit, immer steht man vor der Herausforderung, Dienstleistungen und Geschäftsmodelle so zu gestalten, dass das Ergebnis einen deutlichen Kundenutzen liefert. Daher hat die Deutsche Telekom damit begonnen, diese neue Kategorie zu entwickeln, sich auf die Herausforderungen einzustellen und die strategische Bedeutung und zukünftigen Chancen für Carrier zu adressieren.“ Lars Theobaldt verantwortet als Managing Partner den Bereich Innovationsund Geschäftsentwicklungsstrategie und berät die Deutsche Telekom in Deutschland und den USA. Er ist durch seine Beiträge über die Zukunft des ICT-Marktes bekannt. Miriam Jansche ist Senior Consultant bei Detecon Inc., USA, und berät ­Unternehmen aus dem Telekommunikationsumfeld zu Strategie und Innovation.

69

Detecon Management Report blue • 1 / 2015

Agile Economics

Eine Methode zur wirtschaftlichen Bewertung und Steuerung von Innovationen wie Big Data Big Data und das Internet der Dinge befinden sich auf dem ­Höhepunkt der Erwartungen. Erweisen sie sich als herausragende Innovationen für die Telekommunikationsbranche mit entsprechenden Auswirkungen auf viele andere Wirtschaftszweige? Agile Economics liefert Antworten.

W er weiß schon genau, was eine Innovation so alles nach

sich zieht? Klassische Innovationscontrolling-Methoden helfen nicht immer weiter. Sie funktionieren oft nach dem „WasserfallPrinzip“: Man beginnt mit einer Idee, erstellt eine Machbarkeitsstudie, bevor ein detailliertes Design entwickelt wird – die Dinge nehmen ihren Lauf. Bei jedem Übergang in die nächste Phase sollte der Business Case präziser sein und weniger Risiken aufweisen. Auf den ersten Blick erscheint alles gut und schön. Aber wie sieht es aus, wenn die Prämissen dieser Business Cases fast ausschließlich auf „Papierkram“ basieren? Wasserfall-Prinzip ist für die Steuerung vieler Innovationen ungeeignet

Controlling-Methoden müssen agiler werden, um eine stärkere Kontrolle zu erlangen und Risiken aktiv managen zu können. Agile Economics ermöglicht es, auf I­ nnovation beruhende Geschäftsprinzipien in der Praxis zu testen, sodass Business Cases auf einer echten Faktengrundlage basieren. Die Methode beruht auf iterativen Lernzyklen, in denen über P ­ raxistests Wissen gewonnen wird, um die Annahmen im Hinblick auf Umsatz und Kosten des Geschäftsmodells zu ­validieren. Sowohl Erfolge und unerwartete positive Neben­effekte als auch Fakten, die den Business Case nicht unterstützen, werden erfasst. Praxisorientierte Pilotprojekte als Basis verringern so das Risiko der „Luftblasenbildung“. Prinzip I: Den Umbruch schrittweise zu verstehen lernen

Da nur geringe Investitionsspielräume vorhanden sind, um in der Anfangsphase marktbezogene Pilotstudien durchzuführen, führt der Mangel an einschlägigen Marktdaten dazu, dass sich Umsatzannahmen nur sehr schwer untermauern lassen. Es ist daher keine Überraschung, wenn die Blase nach einer ­Weile platzt und zur Enttäuschung wird. Oft wird zu wenig Geld ausgegeben, um eine echte Faktengrundlage für den Business Case zu schaffen. Das Ergebnis ist leider, dass diese Projekte zurückgestellt werden. Und wenn der Paradigmenwechsel endlich eingetreten ist, ist es bereits zu spät, um auf dem Markt wirklich erfolgreich zu sein. Ein Teufelskreis!

70

Detecon Management Report blue • 1 / 2015

Agile Economics zwingt dazu, zuerst ein Geschäftsmodell zu entwickeln und dieses dann anhand praxisorientierter Pilotprojekte ausreichend nachzuweisen. Die Praxistests werden nicht nur dazu verwendet, um die Technologie zu testen und potenzielle Kosten zu schätzen, sondern auch, um die Nutzenseite des ­Geschäftsmodells soweit wie möglich zu validieren. Die Verwendung praxisorientierter, geschäftsgesteuerter Tests führt dazu, dass Agile Economics durch das systematische und schrittweise Sammeln von Informationen die Erfolgswahr-

scheinlichkeit erhöht. Der relativ kleine Umfang der Praxistests begrenzt die Anfangsinvestition und bewirkt einen Ausbruch aus dem Teufelskreis: > Definieren und aktualisieren Sie den Business Case oder das Geschäftsmodell, indem Sie sich auf den wirtschaftlichen Wert der Informationen konzentrieren, den es im Praxistest zu definieren und validieren gilt. Definieren Sie wirtschaftliche Kriterien! > Erstellen Sie die vorläufigen Testumfänge basierend auf der Validierung wirtschaftlicher Kriterien. Dies betrifft beispielsweise die Auswahl der Technologie und der Testpopula­tion. > Treffen Sie die endgültige Rangfolge und Auswahl der Bestandteile des Testumfangs basierend auf erwartetem ROI oder anderen geeigneten Kriterien des Pilotprojekts. > Führen Sie den Praxistest unter Verwendung eines Bewertungsrahmens durch, um die Geschäftstreiber zu validieren. > Bewerten Sie den Praxistest mit Fokussierung auf Geschäftstreiber und gleichzeitiger Erfassung unerwarteter Nebeneffekte. > Validieren Sie den Business Case und treffen Sie eine Entscheidung über das weitere Vorgehen.

Prinzip II: Risiko und Ungewissheit zur Kenntnis nehmen „Agile Economics kann Risiken und Ungewissheit m ­ inimieren.“, sagen Detecon-Berater Daniela Ujhelyiová und Julian Oberloer. Der Business Case-/Geschäftsmodell-Ansatz ist eine Anpassung an eine Methode, die in der Öl- und Gasindustrie vorherrschend ist. Sie basiert auf Variablen, die mit Wahrscheinlichkeitsverteilungen definiert werden. Da Experten hiermit eine realistischere Bewertung abgeben können, werden die Annahmen dadurch in ihrer Genauigkeit erfasst. Ein weiterer Vorteil ist, dass sie nicht nur wirtschaftsübliche Projektbewertungsdaten, sondern auch Zahlenwerte der in diesen Kriterien enthaltenen Risiken liefert. Die erforderlichen Monte-Carlo-Simulationen werden von bewährter Standardsoftware unterstützt, wobei Oracle Crystal Ball quasi den Industriestandard darstellt. Lösung des Big-Data-Hype als zentraler Anwendungsbereich Agile Economics passt sich aufgrund der Tatsache, dass die ­Methode auf dem Konzept des Informationswertes basiert, besonders gut in den Big-Data-Kontext ein: > Die statistische Beschaffenheit ist stark an die Eigenheiten von Big Data angepasst. > Da die Methode auf dem Konzept des Informationswertes basiert, werden die Kerngrößen direkt adressiert und innerhalb der Big-Data-Anwendungen validiert. Abbildung: Agile Economics und Big Data

Funktionale Auswirkung

Wirtschaftliche Auswirkung

Informationswert (Verbesserungspotenzial) Wahrscheinlichkeit

Steigert

Volumen

Verringert zumeist

Kosten

Big Data Use Cases

Verbesserung in % Wahrscheinlichkeit

Verbessert

Geschwindigkeit

Agilität der Entscheidung wirkt sich aus auf

Umsatz/Kosten Verbesserung in % Wahrscheinlichkeit

Beinhaltet

Vielfalt

Qualität der Entscheidung wirkt sich aus auf

Umsatz/Kosten Verbesserung in %

Quelle: Detecon

71

Detecon Management Report blue • 1 / 2015

> Da Big Data sich nach wie vor in der Hype-Phase befindet, ist es für Unternehmen sehr schwierig, fundierte wirtschaftliche Bewertungen abzugeben. Der Big-Data-Use-Case wird in seine zentralen Auswirkungen zerlegt. Das Modell basiert auf der Big Data inhärenten 4VDefinition:* Volume: Die Big-Data-Technologie sollte große Datenvolumen managen können. Das Versprechen von Big Data lautet, dass es diverse Terabytes im zweistelligen Bereich – das Volumen einer derzeitigen Speicherlösung – in Minuten verarbeiten und ein Gesamtvolumen im Petabyte-Bereich (= 1015 Bytes: entspricht der Größe Tausender aktueller Festplattenlaufwerke) managen kann. Velocity: Die Big-Data-Technologie sollte große Datenvolumen schnell analysieren können. Die Leistung, die von den Big-Data-Systemen versprochen wird, liegt in der Unterstützung der Right-Time-Datenverarbeitung. Unter „Right-Time“ verstehen wir, dass das Ergebnis der Datenverarbeitung dann vorliegen muss, wenn es betrieblich gebraucht wird, was nicht notwendigerweise in Einklang mit Echtzeit sein muss. So muss Big Data in der Lage sein, die Threads in den sozialen Medien schnell genug interpretieren zu können, um Änderungen der „Stimmungsbilder“ aufspüren zu können, sodass die Steuerung der Kundenwahrnehmung proaktiv ermöglicht wird. Variety: Die Big-Data-Technologie sollte unterschiedlichste Datentypen bearbeiten können. Sie sollte nicht nur Antworten in solchen Daten finden, die, ähnlich wie Bewegungsdaten wie Billing-Daten, stark strukturiert sind, sondern auch in der Lage sein, aus Quellen mit wenig oder überhaupt keiner Struktur, zum Beispiel E-Mails oder Kundenanrufen, Informationen zu ziehen. Value ist der erwartete Net Present Value für Big-Data-Investi­ tionen, der mit diesem Modell analysiert wird. Ein Volumeneffekt, zum Beispiel aufgrund der Migration eines klassischen Data Warehouses in einen Hadoop Cluster, wirkt sich zumeist auf die Kosten aus. Aufgrund bisheriger Erfahrungen führt das meist zu einer Kostenverbesserung pro gespeichertem Volumen, jedoch nur mit einem gewissen Grad an Gewissheit. Daher besteht der Wert der zu validierenden Informationen in dem Kostensenkungspotenzial, das es im Lernzyklus zu validieren gilt. Da das Kostensenkungspotenzial von Fall zu Fall variiert, liegt das Verbesserungspotenzial in einer Verteilung. * Dr. Frank Wisselink, Intelligent Business by Big Data, Detecon Opinion Paper, July 2013

72

Detecon Management Report blue • 1 / 2015

Ein weiteres Beispiel, das sich stärker an dem Informationswert orientiert, ist der Geschwindigkeitsaspekt bei Big Data. In diesem Zusammenhang sollte die Frage gestellt werden: „Welchen wirtschaftlichen Beitrag hat es, wenn ich dies vorher wissen ­ würde?“ Der Geschwindigkeitsaspekt von Big Data wirkt sich auf die Kosten aus, beispielsweise verkürzte Abwicklungszeiten im einem Call Center oder Umsatzeffekte oder ein verringerter Umsatzrückgang aufgrund optimierter ­Entscheidungszeiträume, die dadurch ermöglicht werden. „Die Mehrwertschöpfung von Big Data lässt sich durch ­Anwendung statistischer Verfahren am besten ermitteln.“, sagt Dr. Bert Klöppel, Consulting Enterprise Architect bei T-Systems.Die Vielfalt kann die Qualität von Entscheidungen durch das Kombinieren unterschiedlicher Datentypen steigern. Dies betrifft die Antwort auf folgende Frage: „Welchen wirtschaftlichen Nutzen hätte es, wenn ich darüber vorher umfassender Bescheid wissen würde?“ Das Kombinieren stark strukturierter Daten (­Bewegungsdaten) mit gering strukturierten Daten wie Social Media Feeds ist ein Beispiel dafür. Die Serviceleistung kann ­daher verbessert werden und ermöglicht, abhängig vom Anwendungsfall, Umsatzsteigerungen oder Kostenersparnis. Ein anderes Beispiel für Vielfalt ist die vorausschauende Wartung. Es werden unterschiedliche Kennzahlen für Abnutzung erfasst und miteinander in Beziehung gesetzt, um Wartungen recht­zeitig, also bevor sich der tatsächliche Ausfall ereignet, durch­zuführen und somit Kosten zu sparen. Bessere Steuerung von Innovationen bei schneller Time-to-Market Da Agile Economics auf statistischer Wertschöpfungsrechnung basiert, sind die Innovationsrisiken präziser quantifizierbar und können systematisch bewertet und gemanagt werden. Mit Einführung dieser Methode wird das Time-to-Market verkürzt, „Paralyse durch Analyse“ verhindert und Risiken minimiert, weil die Methode auf echten Daten und nicht auf spekulativen Prognosemodellen basiert und ausdrücklich Risiken quantifiziert. Die Methode ist kosteneffizient, weil Ressourcen nur schrittweise und bedingt zugeteilt werden. Daher stehen mehr Gelder für Diversifizierung oder zur Erforschung anderer Möglichkeiten zur Verfügung. Agile Economics steigert somit die Investitionssteuerung und leistet große Unterstützung, wenn es um die Bewältigung von Big-Data-Umbrüchen geht. Dr. Frank Wisselink ist Interimsmanager und Managing Consultant. Er leitet Innovations- und Strategiegroßprojekte innerhalb und außerhalb des DeutscheTelekom-Konzerns. Tim Horn ist Junior Business Development Manager für Big Data bei ­T-Systems und berät Kunden über deren innovative Anwendung.

Art meets Consulting

www.detecon-dmr.com

Detecon Management Report

DMR

blue Ausgabe 1 / 2015

Wir geben Kunst eine Bühne. Die neue Detecon-Webseite ist online!

Internet der Dinge Künstler haben unsere Themen neu interpretiert und unsere neue Webseite mitgestaltet.

Wir stehen mit unseren Geschäftsfeldern

Besuchen Sie uns unter: www.detecon.com

Detecon Management Report

blue

Die Vernetzung globaler Information und Kommunikation.

• 1 / 2015

an einer der spannendsten Baustellen unserer Zeit: Car-to-X-Technologien verändern die Zukunft : K.I.T.T. Bitte kommen! Interview mit Hagen Rickmann, T-Systems : „Wir verstehen uns als Partner der Industrie auf dem Weg zu Industrie 4.0“ Big Data für Telekommunikationsunternehmen : Die Sweet Spots treffen – kurzfristige Chancen intern realisieren

View more...

Comments

Copyright © 2020 DOCSPIKE Inc.