2020 und darüber hinaus: Umbrüche, disruptive Veränderungen und Transformationen

Technologien verändern sich mit Lichtgeschwindigkeit, und dennoch gilt: So langsam wie jetzt werden wir Veränderung nie wieder erleben. Das Tempo von technologischer Veränderung und Implementierung nimmt zu und wird durch die Demokratisierung von Innovation weiter vorangetrieben. So verhelfen beispielsweise Technologien wie Cloud Computing kleineren Unternehmen einen besseren Zugang zu neuen Technologien. Während die Skalierung und Nutzung einiger dieser Technologien noch ein Stück weit in der Zukunft liegen, bedeutet die Geschwindigkeit, mit der diese Veränderungen vor sich gehen, dass die Zukunft nicht so weit weg ist, wie wir vielleicht denken. Die Trends von heute sind der technologische Mainstream von morgen und Unternehmen müssen darüber nachdenken, wie sich dies auf ihre Geschäfte auswirkt und was sie priorisieren sollten.

datenstrategien

Daten werden zum Mittelpunkt des IT-Universums

Die operative und digitale Transformation basiert vollständig auf Daten: wie man sie sammelt, was man damit anfängt, welche Plattformen man zu ihrer Verwaltung verwendet und wie man sie zur Verfügung stellt.

Größeres Volumen, genauere Details, mehr Erkenntnisse

Die Fähigkeit, Daten von Anwendungen zu entkoppeln, ermöglicht es Unternehmen, die operative Transformation und die digitale Transformation vollumfänglich zu realisieren.

Die Datenmengen, die auf der kleinsten Ebene von IoT-Geräten und digitalen Plattformen – und letztlich von jedem Technologiesystem – erfasst werden, können nun über APIs für Analysen, Geschäftserkenntnisse und zur Entwicklung zusätzlicher Anwendungen zur Verfügung gestellt werden.

Wir sammeln nicht einfach nur mehr Daten, wir erfassen granularere Daten, die es uns ermöglichen, mehr Erkenntnisse als je zuvor abzuleiten.

Mit genügend Datenpunkten können Sie Verhaltensweisen modellieren und Muster verstehen – zum Beispiel die Ernährung des biometrischen Zwillings einer Person – und zu genaueren Schlussfolgerungen kommen (etwa wie lange es dauern würde, bis eine Erkrankung auftritt), und das schneller und zu einem Bruchteil der Kosten heutiger Technologien.

Daten sind auch für Technologien der nächsten Generation von entscheidender Bedeutung: Digitale Zwillinge, räumliches Computing, künstliche Intelligenz, Deep Analytics und neue Anwendungsarten von Technologien sind allesamt von Datenplattformen abhängig. Datenplattformen werden sogar die nächste Generation von Computing-Architekturen ermöglichen, beispielsweise Serverless Computing.

Data Lake oder Data Swamp?

Daten bilden mittlerweile überall das Herzstück, und daher ist es wichtig, über die richtige Datenplattform zu verfügen. Datenstrategien müssen die Architektur für die Erfassung und Verwaltung aller Arten von Daten berücksichtigen – strukturierte, halbstrukturierte, unstrukturierte und Streaming-Daten – und sie über APIs und einen Data Service Catalogue zugänglich machen, damit unterschiedliche Stakeholder sie nutzen können, um neuen Wert zu generieren.

Es sind Daten, die Einblicke bieten, die die menschliche Beobachtungs- oder Interpretationsgabe übersteigen, und die Wahrheiten oder Realitäten aufdecken, die in der Vergangenheit nicht nachweisbar waren. Es sind Daten, die zeigen, dass es nicht der schnellste Radfahrer ist, der das Rennen gewinnt, und es sind Daten, die ein öffentliches Transportunternehmen in einen Anbieter von Verbraucherverhaltensmustern für die Einzelhandelsbranche verwandeln.

Unternehmen, die verabsäumen, solche Datenkompetenzen aufzubauen, werden von ihrem Umfang erdrückt statt von ihrem Potenzial angetrieben.

Die NTT-Initiative für Digital Twin Computing nutzt Daten wie geografische Informationen und Transportinformationen, um virtuelle Gesellschaften zu erschaffen, die die Ausbreitung einer Infektion korrekt vorhersagen und dazu beitragen können, einen echten Ausbruch in Echtzeit zu kontrollieren.

„Vollständiges End-to-End-Computing wird in den Vordergrund rücken und durch und durch intelligente Umgebungen zum Leben erwecken, die rundum miteinander vernetzt sind und einen großen Einfluss auf die Welt haben werden, in der wir leben.“


Ettienne Reinecke, Chief Technology Officer, NTT Ltd.


Auf LinkedIn folgen

edge-verarbeitung

Massive Veränderungen am Edge werden die Technologielandschaft verändern

Dank Container-basierter Architektur können wir herunterskalierte Stacks ausführen, Daten verarbeiten und Entscheidungen am Edge treffen, ganz ohne Backhaul in die Cloud oder ein Datencenter. Edge-Verarbeitung wird die Industrie maßgeblich beeinflussen.

5G – am Edge oder in der Peripherie?

5G ist ein wichtiges Gesprächsthema in der Branche, aber hier muss differenziert werden, was flächendeckende Breitbandversorgung tatsächlich verspricht – und das ist ein höherer Frequenzbereich (also eine höhere Bandbreite) zwischen 24 und 28 GHz.

Die Herausforderung dieses Frequenzbereichs besteht darin, dass die kurze Wellenlänge anfällig für Interferenzen ist und keine Festkörper (z. B. Wände) durchdringen kann. Im Vergleich zu niedrigeren Reichweiten (unter 6 GHz) – der Bereich, für den derzeit die meisten Pilotprojekte durchgeführt werden –, ist mindestens die zehnfache Dichte von Mobilfunkmasten und Basisstationen erforderlich. Dies wird erhebliche Investitionen erfordern, sodass es Jahre dauern könnte, bis Mobilfunkbetreiber einen Business Case finden, um hochfrequentes, hochwirksames 5G einzusetzen.

WiFi 6 hingegen arbeitet im 2,4-GHz-Bereich und wird fürs Erste wahrscheinlich einen größeren Einfluss auf den Edge-Bereich haben. Es ist effizienter als WiFi 5, insbesondere in verdichteten Umgebungen, wo es bis zu viermal besser performt. WiFi 6 bietet auch eine größere Reichweite, mehr Unterkanäle und bessere Leistung – und hat weniger mit den Basisstationen zusammenhängende Probleme. Eingebaute Abschaltalgorithmen helfen, den Stromverbrauch zu optimieren und den Energieverbrauch zu senken.

IoT: von Unmengen an einzelnen Sensoren hin zu audiovisuellen Sensoren

Das IoT verändert sich in großem Maßstab. Wir erleben, wie audiovisuelle Technologien eingesetzt werden, um dieselben Daten zu erfassen, die man aus der Verknüpfung zahlloser IoT-Sensoren erhalten würde. Audio-Analyse kann den Klang von zerbrechendem Glas identifizieren, um beispielsweise eine Warnung auszulösen. Hochauflösende Videos ermöglichen die Objektverarbeitung, Isolierung und Erstellung von Musterbibliotheken und den Einsatz von Musterabgleich zur Überwachung von Echtzeitereignissen. Im Vergleich zu unzähligen Einzelsensoren bieten diese Technologien eine durchführbare Massenabdeckung zu geringeren Kosten.

Es gibt mehrere Anwendungsfälle für diesen audiovisuellen Ansatz in intelligenten Gebäuden und Smart Cities, zum Beispiel, wenn die Kosten für die Stromversorgung und Wartung unzähliger Sensoren einfach viel zu hoch wären. Audiovisuelle Lösungen besitzen ein weitaus größeres Skalierungspotenzial, was dies zu einem bedeutenden Wachstumsbereich macht.

Auswirkungen und Folgen der Veränderungen am Edge

Diese Veränderungen am Edge werden tiefgreifende Auswirkungen darauf haben, wie wir sämtliche Bereiche – von Netzwerken und Datenzentren über Anwendungen bis hin zur Sicherheit – gestalten und betreiben, und wie Unternehmen Wert aus neuen Daten ziehen, die sie als Ergebnis der Veränderungen sammeln und verarbeiten können.

Im „Innovation District“ von Las Vegas haben von NTT eingerichtete hochauflösende Videokameras, Schallsensoren und IoT-Geräte das Situationsbewusstsein durch Video- und Sounddaten verbessert. Dieses System kann die Behörden auf Muster aufmerksam machen, die ungewöhnlich erscheinen, und hilft dabei, die Reaktionszeiten von Ersthelfern zu reduzieren.


angewandtetechnologie

Unzählige Technologieanwendungen vernetzen die digitale mit der physischen Welt

Der Einsatz von Technologie mit einem spezifischen Ergebnis im Hinterkopf wird uns an einige interessante Schnittstellen zwischen der physischen und der digitalen Welt führen. Es folgt ein kurzer Ausblick auf das, was kommen wird.

Nahtloses Verschmelzen einer Welt von Realitäten

Technologieanwendungen werden uns nicht nur helfen, die Lücke zwischen der physischen und der digitalen Welt zu schließen, sondern sie wird uns ermöglichen, die beiden nahtlos miteinander zu verschmelzen. Räumliches Computing wird ein ganzes Reich von Realitäten schaffen – virtuelle, erweiterte, verstärkte, gemischte, authentische, Hyper-Realitäten – und digitale Schnittstellen werden sich auf mehrere Sinne ausdehnen: Sicht, Klang, Berührung, Geruch. Immersive Umgebungen, in denen das Physische mit dem Digitalen verschmilzt, werden eine allgegenwärtige Auswirkung auf die Branche haben.

Es könnte als ein Dual-Screen-Erlebnis beginnen – bei dem traditionelle Formate wie hochauflösende Bilder durch einen zweiten Echtzeitbildschirm ergänzt werden, auf dem Augmented Reality das Seherlebnis bereichert – und sich zur volumetrischen Erfassungstechnologie entwickeln, wie z. B. NTTs Kirari!®, das mit holografischem Telecasting in großem Maßstab Leben einhaucht.

Eröffnung neuer Möglichkeitswelten

Angesichts des Wachstums und der granularen Erfassung von Daten in großem Maßstab wird sich die Datenmodellierung weiterentwickeln und sämtliche Systeme und Prozesse umfassen, wodurch die Erforschung digitaler Zwillinge in verschiedenen Forschungsbereichen möglich wird. Das Ausmaß und der Umfang dessen, was möglich ist, befinden sich noch in den Kinderschuhen. Technologieanwendungen halten Einzug in Bereiche, die früher undenkbar waren – und zwar mit einer Geschwindigkeit, die wir noch nicht erlebt haben.

NTT und Major League Baseball werden zusammenarbeiten, um mit NTT Ultra Reality Viewing ein aufregendes neues Erlebnis für Baseball-Fans zu schaffen, das auf NTTs Kirari!® basiert. Zuschauer werden sich Sportinhalte ansehen können, als wären sie live im Stadion dabei.

„Das birgt enormes Potenzial: jedes verfügbare Tool zu nutzen, um Innovationsinitiativen in jedem Bereich zu unterstützen und unsere zukünftige Welt wirklich zum Besseren zu transformieren. Um dieses Potenzial erfolgreich zu nutzen, ist Intelligenz gefragt.“


Andy Cocks, Chief Go-to-Market Practices Officer, NTT Ltd.


Auf LinkedIn folgen

hybridcomputing

Computing-Modellevolution und Hybrid Computing werfen große Fragen auf

Die Computing-Modellentwicklung und die Einführung von Hybrid Computing haben tiefgreifende Auswirkungen auf Unternehmen, Anbieter und Startups. Es ist an der Zeit, herauszufinden, was dies tatsächlich für Anwendungen, Workloads und das Geschäft im weiteren Sinne bedeutet.

Von serverbasiert zu serverlos: Wohin geht die Reise?

Im Gegensatz zu physischem Computing ist es mit virtuellem und containerbasiertem Computing ganz einfach, den Standort von Anwendungen zu ändern, da sie von der zugrunde liegenden Computing-Infrastruktur entkoppelt sind. Die Anwendungsfälle für diese Modelle werden immer klarer, und die Akzeptanz und Umsetzung nimmt zu. Die vielversprechende Weiterentwicklung davon ist serverloses Computing, das noch mehr Agilität und Kosteneinsparungen bietet, da Anwendungen überhaupt nicht mehr auf einem Server bereitgestellt werden müssen. Stattdessen laufen Funktionen auf der Plattform eines Cloud-Anbieters, liefern Ergebnisse und geben dann die zugehörigen Ressourcen sofort wieder frei.

Im Wesentlichen gibt es vier unterschiedliche Computing-Modelle, die gleichzeitig weiterentwickelt werden: physische Server, virtuelle Server, containerbasiertes und serverloses Computing. Dies wirft einige große Fragen für Unternehmen auf: Was machen wir mit unseren Anwendungen? Welche Workloads sollten in die Cloud wechseln? Was muss vor Ort weiterlaufen? Kann ich bestimmte Anwendungen in virtuelle Maschinen integrieren? Kann ich andere für Container oder die serverlose Welt umschreiben? Und am wichtigsten: Wie lange wird es dauern, bis ich die Vorteile dieser neuen Modelle nutzen kann?

Die Entscheidung über die Computerarchitektur steht in direktem Zusammenhang mit der Zukunft jeder Anwendung – sie kann sogar die zukünftige Ausrichtung der jeweiligen Anwendung bestimmen.

Die Auswirkungen von Hybrid Computing

Die Realitäten des Hybrid Computing mit all seinen Variationen spielen für Unternehmen immer mehr eine zentrale Rolle. Einige Anwendungen sind es einfach nicht wert, umgeschrieben zu werden, und werden noch viele Jahre auf physischen Servern vor Ort laufen. Einige Workloads können in virtuellen Maschinen und Containern ausgeführt werden – doch Unternehmen müssen eine Entscheidung treffen, welchen Ansatz sie bei der Weiterentwicklung verfolgen wollen.

Fähigkeiten, Architektur, Budget, Strategie und Geschäftsergebnisse werden eine Rolle bei der Entscheidung spielen, ob sie die Veränderungen allein angehen oder nach einem Compute-as-a-Service-Anbieter, Platform-as-a-Service-Anbieter oder Software-as-a-Service-Angebot suchen, um die Umgebung nicht selbst aufbauen zu müssen. Für die meisten Unternehmen zeichnet sich aktuell ein Wendepunkt ab, da sie zu der Entscheidung gezwungen sind, welche IT-Architekturmodelle sie künftig implementieren sollen.

Auch Anbieter spüren die Auswirkungen dessen und haben keine andere Wahl, als softwarebasierte Angebote zu entwickeln. Alles, was sie produzieren, muss programmierbar sein – wenn es physisch ist, muss es auch virtuell und auf allen Cloud Marketplaces verfügbar sein. Wir haben einen Punkt erreicht, an dem so viele Workloads in die Cloud wechseln, dass Anbieter, deren Softwareangebote nicht mehr das leisten können, was sie früher vor Ort geboten haben, zurückbleiben werden. Die Auswirkungen dessen auf Skalierung, Bereitstellung, Verwaltung, Betrieb und Neuentwicklung ganzer Systeme mischen die Karten völlig neu.

Nehmen wir zum Beispiel Anbieter mit einer voll programmierbaren Firewall, die innerhalb von Sekunden am Edge einer virtuellen Maschine installiert werden kann. Plötzlich verfügen wir über Mikro-Perimeter auf der kleinstmöglichen Computing-Ebene, die ein anderes Maß an Schutz bieten, das nur durch programmierbare Automatisierung möglich wird.

Die Antworten auf viele der Fragen, die diese neue Landschaft aufwirft, werden bei wichtigen Entscheidungen über Investitionen, Betrieb, Sicherheit, Kompetenzen usw. berücksichtigt, aber im Grunde genommen sind diese Antworten noch im Entstehen. Vorerst werden wir also wahrscheinlich eine hybride Welt erleben, in der alles – physische Server, virtuelle Server (vor Ort oder in der Cloud), Container, Serverless-Systeme, Cloud (Public, Private, Hybrid und Multi-Cloud) und As-a-Service-Modelle – unter Berücksichtigung der Vorteile und Stärken der jeweiligen Architektur verwendet wird, um ein wirklich hybrides Computing-Modell zu schaffen.

52 % der befragten Unternehmen beabsichtigen, mehrere Cloud-Umgebungen gleichzeitig zu betreiben, um nahtlose Geschäftsfunktionen zu ermöglichen. Allerdings haben 44 % keine übergreifende Strategie für die Einführung von Hybrid Cloud. NTT Insights: Going Hybrid


prädiktivecybersicherheit

Programmierbarkeit und prädiktive Fähigkeiten transformieren Cybersicherheit

Cybersicherheit durchläuft im Moment einen fundamentalen Wandel: Neue Technologien weisen immer umfangreichere prädiktive Fähigkeiten auf und ermöglichen Sicherheit auf atomarer Ebene.

Ein Use Case für die Blockchain

Die Blockchain findet nicht mehr ausschließlich bei internationalen Geldabrechnungen Anwendung, sondern breitet ihren Einflussbereich auf alle Bereiche des Finanzsektors aus – selbst auf jene, bei denen es niemand erwartet hätte. So bietet die Blockchain beispielsweise mehr Kontrolle über Daten und kann als ein völlig neuer Ansatz für die Verwaltung von Konfigurationsnachweisen in IT-Systemen verwendet werden.

Mit der Blockchain kann die Agent-Software auf jedem Gerät in einer physischen oder virtuellen Umgebung ausgeführt werden, sodass alle Geräte Teil eines Distributed Ledger sind. Sie können dann den Hash des Blocks mit der Konfigurationsdatei ausführen, um den Hash-Code des Blocks zu erstellen, der einen Zustand der Gesamtkonfiguration wiedergibt. Wenn sich der Hash-Code ändert, bedeutet das, dass eine Änderung in der Konfiguration vorgenommen wurde – und plötzlich verfügt man über einen unveränderlichen Mechanismus, mit dem Änderungen (in Echtzeit) erkannt, durch den Block verfolgt und ihr Ursprung sowie die für die Änderungen verantwortliche Partei identifiziert werden können. Diese Technologie hat großes Potenzial, signifikanten Einfluss auf Cybersicherheit zu nehmen und vielleicht sogar Cybersicherheit, wie wir sie heute kennen, neu zu definieren.

Programmierbarkeit und Sicherheit auf atomarer Ebene

Jetzt, da jede Komponente der Infrastruktur und Architektur programmierbar wird, ist es an der Zeit, die Sicherheitssituation als Code zu verstehen. Wenn wir die Software aller Container und virtuellen Maschinen in unserer Architektur mit einer Firewall versehen und den Datenfluss zwischen ihnen innerhalb der Software halten können, werden Sicherheitslücken stark reduziert – die Wand hat dann einfach keine Türen mehr, deren Schlösser Angreifer knacken könnten. Wenn es möglich ist, den Datenfluss innerhalb der Software zu halten, befindet er sich auch nie in einem Netzwerk, wo er gehackt, angezapft oder gestohlen werden kann. Einige Schwachstellen wird es weiterhin geben, aber die Granularität, in sich geschlossene Datenflüsse und Software reduzieren und verbessern das Schwachstellenprofil erheblich.

In gewisser Weise wird hier die geballte Kraft der Programmierbarkeit genutzt, um Sicherheitstechnologie auf granularer Ebene einzubetten und das Ergebnis in einer Größenordnung zu orchestrieren, die in der Vergangenheit nicht denkbar war. Dies sind gute Nachrichten für die Branche, und diese Kompetenzen und Möglichkeiten werden mit der Weiterentwicklung und stetigen Verbesserung von Programmierbarkeit mitwachsen.

Prädiktive Power für Erkennung und Prävention

Cybersicherheit ist eine der ersten IT-Funktionen, die durch die Nutzung großformatiger Datenmengen mit Machine Learning, Analytics und künstlicher Intelligenz zu besserer Vorhersagbarkeit heranreift. Je mehr Datensätze wir im Laufe der Zeit sammeln und je ergiebiger diese Daten sind, desto besser können wir Muster ermitteln und vergleichen, um Angriffsvektoren vorherzusagen und zu eliminieren. Dies ist ein wichtiger Schritt – ein wichtiger und überaus positiver Schritt.

Das Ausmaß und die Granularität der Maßnahmen, die wir mit Programmierbarkeit und den daraus resultierenden generierten Daten in Verbindung mit Machine Learning, Analytics und prädiktiver künstlicher Intelligenz ergreifen können, ermöglichen es uns, leistungsstarke Technologien zu kombinieren, um Sicherheitsbedrohungen effektiver zu bekämpfen. Wir sind besser in der Lage, diese Bedrohungen zu erkennen und einzudämmen, bevor sie sich manifestieren, wodurch an Stelle der Zero-Day-Prävention nunmehr eine Negative-Day-Angriffsprävention möglich wird.

Die Piper-Plattform von NTT, eine hoch skalierbare Pipeline für Machine Learning, ermöglicht es uns, Milliarden von Datenflüssen pro Stunde zu bewältigen – und dabei über 300 einzigartige statistische Merkmale (z. B. globale Geostandortverteilung) für jeden Internethost zu generieren – und ihren jeweiligen Standort zu verfolgen.

„Die Zahl unterschiedlicher Komponenten in den hybriden Umgebungen von Unternehmen nimmt stetig zu, was zu einer starken Fragmentierung traditioneller Konzepte von Perimeter, Angriffsvektoren und Schwachstellen führt.“


Kazu Yozawa, Chief Technology Officer, Security Division, NTT Ltd.


Auf LinkedIn folgen

co-innovation

Co-Innovation für komplette Lösungen

Die meisten Unternehmen werden schlicht und ergreifend nicht über die Kompetenzen oder Ressourcen verfügen, um mit jedem Aspekt der Technologieänderungen Schritt zu halten. 

Co-Innovation wird jetzt, da immer mehr Unternehmen Partnerschaften mit Technologieanbietern eingehen, die F&E-Ressourcen anbieten, immer wichtiger. Sie helfen ihnen bei der Bewältigung und Lösung dieser geschäftlichen Herausforderungen, geben Orientierungshilfen für den besten Weg nach vorn und zeigen bewährte Use Cases für vorgeschlagene Lösungen auf. Diese Unternehmen erwarten jedoch vor allem Geschäftsergebnisse, nicht Technologielösungen – was bedeutet, dass Technologieunternehmen sowohl Tiefe als auch Breite in ihrem Angebot und Know-how benötigen, um künftigen Anforderungen gerecht zu werden.

Die Rahmenbedingungen für die gemeinsame Nutzung von geistigem Eigentum werden neu definiert. Co-Innovationspartner steuern geistiges Eigentum bei, entwickeln sich gemeinsam weiter, um spezifische geschäftliche Herausforderungen zu lösen, und überprüfen Monetarisierungsmodelle.

Ettienne Reinecke

Ettienne Reinecke

Chief Technology Officer, NTT Ltd

Ettienne ist bei NTT verantwortlich für die Technologiestrategie, Unternehmensarchitektur und Innovationsstrukturen und kümmert sich um die Positionierung unserer Kompetenzen bei externen Stakeholdern und liefert Ideen für neue Projekte. 

Unsere Innovationsfähigkeiten

Jetzt Kontakt aufnehmen