Der Cloud-Mythos: Warum ein reiner Kostenvergleich die digitale Transformation scheitern lässt.

Wir sehen sie überall: Artikel und Studien, die penibel ausrechnen, wann On-Premise-Ressourcen günstiger sind als die Public Cloud. Dabei wird oft nur die reine IaaS-Ressource (Server, Speicher) verglichen. Die Schlussfolgerung ist dann gerne: Bei guter Auslastung ist der eigene Server noch immer der Sparfuchs.

Diese stumpfe Ressourcen-Gegenüberstellung ist nicht nur kurzsichtig, sie verfehlt den gesamten Wertschöpfungshebel der digitalen Transformation.

Die wahre Rechnung, die wir in der IT-Führung stellen müssen, sieht anders aus. Es geht nicht darum, was die Ressource kostet, sondern wie wir IT-Leistung in Zukunft erbringen.


Vom Warten zum Orchestrieren: Die neue Rolle der IT-Operations

Viele verharren im Gedanken, dass sie lediglich ihren physischen Server in eine virtuelle Maschine bei Azure oder AWS verschieben („Lift & Shift“). Solange sie jedoch weiterhin denselben hohen Anteil an manueller Fertigungstiefe in ihren Services beibehalten, haben sie nichts gewonnen, außer einer neuen Adresse für ihren Server.

Der Game-Changer ist die Cloud-native Leistungserstellung:

  1. Infrastructure as Code (IaaC) ist das neue Fundament: Heute verwalten wir Infrastruktur nicht mehr händisch; wir coden sie. Die Orchestrierung nativer Cloud-Services (PaaS, SaaS, FaaS) bedeutet einen grundlegenden Kultur- und Funktionswandel. Wir bewegen uns weg vom Ressourcen-Verwalter hin zum Service-Designer.
  2. Agilität durch SIAM: Mit der Verringerung der Fertigungstiefe entsteht die Notwendigkeit, externe Provider nahtlos einzubinden. Die Implementierung einer SIAM (Service Integration und Management) Organisation ist nicht Kür, sondern Pflicht. Sie ermöglicht das Managen verschiedener IT-Lieferanten hin zu einer durchgehenden, geschäftsorientierten IT-Leistung. Das Ergebnis ist eine massive Steigerung der Agilität.
  3. Innovationsplattform statt Datensilo: Es ist hilfreich ein Cloud Competence Center zu etabliert, um eine Integrationsplattform zu schaffen. Mit dem Ziel der Verknüpfung von Legacy-Anwendungen mit Cloud-Native-Anwendungen. Diese Hochintegration ermöglicht die Nutzung von Infrastructure, Platform und Software as a Service. Das ist der wirkliche Mehrwert!

Digitale Souveränität vs. Zukunftsfähigkeit

Ja, wir müssen die Abhängigkeit von Hyperscalern und damit die Frage der digitalen Souveränität kritisch beleuchten. Diese Bedenken sind valide und erfordern eine klare Governance aktiv gesteuert wird.

Aber diese Risiken müssen wir gegen die unternehmerischen Möglichkeiten abwägen, die sich aus der veränderten IT-Leistungserstellung ergeben:

Risiko (Digital Souveränität)Chance (Agilität & Zukunftsfähigkeit)
Abhängigkeit von wenigen großen AnbieternSkalierbarkeit und Flexibilität für Geschäftsmodelle
Datenhoheit und juristische GrauzonenInnovationsgeschwindigkeit durch sofort verfügbare Services
Lock-in-Effekte und Verhandlungsmacht der ProviderFokus auf Kernkompetenz statt auf Infrastruktur-Wartung

Der AI-Turbo: IT-Operations der nächsten Stufe

Wer heute auf eine starre On-Premise-Strategie setzt, verbaut sich den Weg zur KI-gestützten IT-Operations.

Künstliche Intelligenz kann Infrastruktur-Leistungen nur dann effektiv optimieren, warten und autonom steuern, wenn diese Leistungen digitalisiert und als Code verwaltet werden. Die Orchestrierung nativer Cloud-Services schafft die notwendige datengesteuerte Basis.

Die Zukunft der Infrastrukturleistung liegt in der intelligenten, automatisierten Entscheidungsfindung. Das Zielbild ist eine IT, die ihre Schutzziele (Vertraulichkeit, Integrität und Verfügbarkeit) nicht nur garantiert, sondern durch AI-Einsatz kontinuierlich verbessert! Und das bei gleichzeitig maximaler Agilität für das Business.

Wir müssen aufhören, die Cloud als reines Rechenzentrum zu betrachten. Wir müssen sie als das sehen, was sie ist: die ultimative Plattform für den Rollen- und Kulturwandel hin zu einer geschäftsorientierten, zukunftsweisenden Organisation.

Edge AI und Cloud: Eine Symbiose für die Zukunft der KI!

Die Entwicklung von Edge AI hat zu einer Verschiebung der Paradigmen in der KI-Landschaft geführt. Während Cloud-basierte Lösungen lange Zeit dominierten, bietet Edge AI neue Möglichkeiten für die dezentrale Verarbeitung von Daten.

Die Vorteile von Edge AI liegen auf der Hand: Geringere Latenzzeiten, erhöhte Datenschutz und eine größere Robustheit gegenüber Ausfällen. Insbesondere in Bereichen mit hohen Sicherheitsanforderungen oder begrenkter Netzwerkbandbreite ist Edge AI eine attraktive Alternative.

Treiber dieser Entwicklung sind Fortschritte in der Hardware und Software. Frameworks wie TensorFlow Lite und PyTorch Mobile ermöglichen es, komplexe KI-Modelle auf ressourcenbeschränkten Geräten auszuführen, während leistungsfähige Mikrocontroller und spezialisierte KI-Chips die nötige Rechenleistung bereitstellen.

Trotz dieser Fortschritte bleiben einige Herausforderungen zu bewältigen. Die begrenzte Rechenleistung von Edge-Geräten, der hohe Energieverbrauch und die Notwendigkeit für eine kontinuierliche Wartung und Aktualisierung der Modelle stellen erhebliche Hürden dar. Zudem fehlt es noch an einer umfassenden Standardisierung von Edge-Computing-Plattformen, was die Entwicklung und den Einsatz von Edge AI-Anwendungen erschwert.

Die Entwicklung geeigneter Tools für die Entwicklung und den Einsatz von Edge AI-Anwendungen ist ein hierbei ein wichtiger Aspekt. Derzeit gibt es zwar eine Vielzahl von Frameworks und Bibliotheken, jedoch ist die Landschaft noch fragmentiert und es besteht Bedarf an einer Konsolidierung.

Zukünftig wird sich die Nutzung von Edge AI und Cloud Computing weiterentwickeln. Es ist davon auszugehen, dass hybride Architekturen, die die Vorteile beider Technologien kombinieren, eine immer größere Rolle spielen werden. Die optimale Wahl der Technologie hängt von den spezifischen Anforderungen der Anwendung ab und erfordert eine sorgfältige Abwägung der Vor- und Nachteile.

Die kontinuierliche Steigerung der Rechenleistung in Edge-Geräten, getrieben durch Fortschritte in der Halbleitertechnologie und spezialisierter Hardware, deutet darauf hin, dass Edge Computing eine immer größere Rolle spielen wird. Während die Cloud weiterhin für zentrale Aufgaben und große Datenmengen von Bedeutung bleibt, werden immer mehr Anwendungen direkt am Edge verarbeitet. Die Kombination von Edge Computing und 5G-Netzwerken wird dabei eine entscheidende Rolle spielen und neue Anwendungsbereiche erschließen.

Digitaler Binnenmarkt – Chance für Europa!

Europa sollte diese strikte Haltung zur Netzneutralität beibehalten! Die die US-amerikanische Federal Communications Commission hat diesen Dezember neue Regeln verabschiedet, die es Internetanbietern erlauben, ihre Dienste je nach Anwendung oder Website zu unterscheiden.

Dies bedeutet nichts anderes, als dass Anbieter von Inhalten wie YouTube oder Facebook entscheiden können, Provider für deren Leistung zu bezahlen. z.B. für höhere Geschwindigkeit als als die Konkurrenz zu erreichen. Es kann aber genauso bewirken, dass auf der Kundenseite zukünftig die Option Videotelefonie oder Internettelefonie kostenpflichtig wird. Facetime & Skype kosten dann zukünftig extra.

Somit ist ist Europa heute ein leuchtendes Beispiel für offenes Internet für alle! Seit 2016 gilt eine EU-Verordnung, die verbietet Internetdienstanbietern die Blockierung, Drosselung oder Diskriminierung von Online-Inhalten, -Anwendungen und -Diensten.

Die Netzneutralität in Europa schafft Wettbewerb und Chancengleichheit. Gleiche Bedingungen für alle Unternehmen und somit die gleichen Möglichkeiten! Die Entscheidung der USA wird es für innovative Unternehmen wie Startups und Neueinsteiger schwieriger machen auf dem heimischen Markt erfolgreich zu sein.

Im Gegensatz zu den USA bietet Europa allen Anbietern von Inhalten und Diensten im Internet grundsätzlich die gleiche Behandlung.Europa und sein digitaler Binnenmarkt hat große Chancen, der attraktivste Ort für Innovationen, Investitionen und Talente zu werden!

Von Warengruppencodes und Bildern

Der Bundesdeutsche Datenschützer für das WWW durchlebt in diesem Sommer eine erstaunliche Metamorphose.

Waren es bis dato überwiegend Menschen – welche in den Augen ihrer Umwelt das eine Leben sehr virtuell verbracht haben. So kommt der Datenschutz im WWW diesen Sommer in der Mitte der Gesellschaft – in den Etagen der Bausparer und Häuslebauer – an.

Google hat geschafft, was viele Datenschützer seit Jahren nicht zu wünschen wagten.

Seit langem war das Thema nicht mehr in dieser Breite in der Gesellschaft angekommen. Leider Fehlt es bis weilen noch an Tiefe in der Berichterstattung. Weil in diesem Land jeder Google ermahnt, aber mit seine PAYBACK Karte mehr Persönlichkeit und privates in die Welt posaunt, als das ablichten seines Wohnhauses erahnen lassen könnte!

Solange die Medien in diesem Kontext nicht aufgreifen, dass seit nunmehr 10 Jahren persönlichste Daten nicht nur abgespeichert, sondern im Rahmen eines „Kundenbindungsprogramms“ systematisch erfasst und ausgewertet werden, ist diese Debatte zu einseitig!

Bei einem Ausflug in Street View wird man ein Auto und das Haus sehen können. Was ist das gegen die Flut von Daten, die bei jedem Einkauf mit einer kleinen Karte erhoben wird?

Es treten an, Kundennummer, Datum, Filiale, Umsatz, Warengruppencodes sowie die eingekauften Produkte. Gegen ein Bild.

Netzneutralität Monopole und Moral

In jüngster Zeit häufen sich die Versuche großer Technologieträger (Google, Apple, Yahoo, Verizon & Co), das Netz unter ihre Kontrolle zu bekommen.

Die Telekoms dieser Welt suchen seit langem nach zusätzlichen Einnahmequellen. Sie argumentieren zu recht, dass der Ausbau der Infrastruktur nur durch zusätzliche Einnahmequellen finanziert werden könne.

Bisher ist es so, dass alle Inhalte gleich, also neutral, behandelt werden. Inhalte von YouTube werden genauso schnell (oder langsam) zugestellt wie von kleineren Anbietern wie etwa MyVideo. Wenn sich YouTube eine schnellere Zustellung erkauft, dann haben alle anderen und natürlich die Startups einen unüberwindbaren Nachteil.

Genau diese Neutralität gegenüber den Inhalten hat aber die Innovationskraft und Konsumentenfreundlichkeit des Internet bisher ausgemacht. Es zahlen die Konsumenten die gesamten Kosten für das Internet über Ihre Zugangsgebühren – mehr für schnellere Anschlüsse und weniger für langsamere.

Eine weitere absolut negative Begleiterscheinung wäre, dass die Unternehmen an der gesamten Auslieferkette in die übertragenen Inhalte hineinschauen müssten, um eben die bezahlten Lieferungen priorisieren zu können. Das wird DPI – Deep Packet Inspection – genannt. Derzeit werden an allen Netzknoten, die Datenpakete ohne Ansehung des Inhaltes weiter geleitet.

Interesse an einer derartigen Umformung des Netzes haben natürlich auch die Lieferanten von Netzwerkkomponenten. Denn die Priorisierung kann nur erfolgreich funktionieren, wenn die DPI an der gesamten Kette erfolgt, bis hin zum so genannten CPE – Consumer Premise Equipment. Der Vision, die George Orwell in seinem Buch 1984 niedergeschrieben hat, wäre damit Tür und Tor geöffnet – Big Brother is watching you. Und dass es solche Tendenzen gibt, lässt sich am Beispiel von Saudi Arabien, China, Iran, Indien und vielen anderen Ländern jetzt schon beobachten, wenn sie die Inhalte von Mails an BlackBerrys lesen können wollen, oder die Inhalte von verfügbaren Websites staatlicher Kontrolle unterwerfen.

Der Anspruch der Telekoms, das die notwendigen zukünftigen Investitionen nicht allein durch sie geschultert werden können, ist berechtigt. Es kann aber nicht sein, dass dies auf Kosten der Netzneutralität erfolgt. Daran kann und sollte die breite Mehrheit der Telekoms kein Interesse haben. Immerhin kommen viele von Ihnen aus der Ecke der Startups. Der Fokus sollte also auch in diese Debatte ein Stück mehr moralischer Natur sein.
(Fr. 13. Aug, 2010)