Digitale Souveränität

Die Fragen, die wir uns jetzt stellen müssen.

Martin Welker


Digitale Souveränität

Die Fragen, die wir uns jetzt stellen müssen.


Martin Welker, Juli 2025

[email protected]        


Inhalt

1. Für welches Szenario bauen wir digitale Souveränität eigentlich auf?

Befinden wir uns in einem Konflikt mit unserem wichtigsten Verbündeten?

Wie weit wollen wir Eskalationsszenarien denken?

Digitale Souveränität: Wirtschaftliche Notwendigkeit oder politische Politisierung?

Realistische und pragmatische Alternativen zum Konfliktszenario

Die Konsequenzen einer zu starken Politisierung

Was wäre eine sinnvolle, realistische Position?

Fazit: Digitale Souveränität mit Augenmaß

2. Datenschutz, Private Clouds, Encryption und reale Bedrohungen

Welche spezifischen Bedrohungen adressieren wir mit Private Clouds?

Reichen technische Maßnahmen überhaupt aus?

Die unterschätzte Gefahr: Social Engineering

Metadaten – die unsichtbare Gefahr

Ganzheitliche Sicherheitsstrategien statt rein technischer Lösungen

Was können wir tun?

Fazit: Echte Sicherheit bedeutet realistische Bedrohungsszenarien ernst nehmen

3. Wollen wir technologische Isolation oder globale Wettbewerbsfähigkeit?

Protektionismus und die Falle der technologischen Abschottung

Warum wir uns der Realität stellen müssen: der Wunsch, selbst globale Hyperscaler hervorzubringen

Wollen wir Exportnation bleiben?

Gleiche Regeln für alle – warum wir Anreizsysteme richtig gestalten müssen

Globale Wettbewerbsfähigkeit durch echte, tragfähige Innovationen

Fazit: Digitale Souveränität bedeutet Anschlussfähigkeit, nicht Abschottung

4. Wer trifft Entscheidungen und wie entwickeln wir echte Kaufkompetenz?

Wer entscheidet über Technologien?

Wie entwickeln wir echte Kaufkompetenz?

Modularität und Anbieterwechsel – eine Grundvoraussetzung

Wechsel sind anstrengend, aber zwingend notwendig

Die Rolle der Führungskräfte: Digitale Kompetenz an der Spitze

Lehrgeld als langfristige Investition

Fazit – Kaufkompetenz als Schlüssel zur Souveränität

5. Ist Open Source wirklich die Lösung?

Software als dynamisches Produkt verstehen

Open Source als Schallplatte – aber wer macht die Musik?

Die Illusion einer „basisdemokratischen“ Softwareentwicklung

Vom Hersteller zum Dienstleister – das falsche Versprechen der Unabhängigkeit

Die Notwendigkeit eines funktionierenden Anreizsystems

Beispiele für erfolgreiche und gescheiterte Open-Source-Strategien

Fazit – Open Source als Werkzeug, nicht als magische Lösung

6. Das Ziel: Eine robuste technologische Infrastruktur

Die technologische Pyramide: Langfristigkeit statt kurzsichtiger Subventionen

Unternehmertum feiern: Mutige Gründer brauchen echte Chancen

Leistung feiern: Qualität und Konsequenz statt Bürokratie und Protektionismus

Konsequenter Wettbewerb statt bequemer Direktvergabe

Konsequenzen ziehen, auch wenn es wehtut

Digitale Souveränität erfordert Marktpraxis statt Alibi-Politik

7. Das Digitalministerium

Vom Reißbrett in die Realität – eine gefährliche Abkürzung

Ein Digitalministerium – die Blaupause für ein Desaster?

Organisch wachsen statt zentral verordnen

Fehler als Teil des Lernprozesses akzeptieren

Fazit: Keine Skalierung ohne kleine Erfolge

Schlusswort: Es lohnt sich – gemeinsam für eine souveräne digitale Zukunft

 

Vorwort

Es wird viel und leidenschaftlich über digitale Souveränität gesprochen. Doch was meinen wir überhaupt damit und wie weit wollen wir dabei gehen? Sprechen wir über Unabhängigkeit von bestimmten Anbietern, insbesondere aus den USA? Oder verschaffen wir uns eine bessere Ausgangslage bei zwischenstaatlichen Beziehungen? Oder meinen wir eine vollständige technologische Autarkie, die über den Status quo hinausgeht? Wollen wir nur einige Cloud-Dienste loswerden, oder bauen wir unser eigenes GPS, unser eigenes Internet, um Meta-Spionage zu verhindern?

Wo genau ziehen wir die Grenze zwischen realistischer Eigenständigkeit und isolierender Abschottung? Diese Fragen scheinen einfach, doch bei näherer Betrachtung eröffnen sie eine ganze Reihe weiterer grundlegender Überlegungen.

Digitale Souveränität klingt attraktiv, doch wir müssen ehrlich sein: Wir haben das Konzept nie wirklich konsequent durchdacht, es scheint eine Kurzschlussreaktion auf die aktuelle politische Entwicklung insbesondere in den USA zu sein. Das ist selten ein guter Anreiz. Viel zu oft verkürzen wir die Debatte auf einfache Schlagworte: „Open Source“, „On-Premise“, “Datenschutz” - ergänzt um ein klares Feindbild – die amerikanischen Hyperscaler wie Microsoft, Google oder Amazon, sowie den US-Regierungsapparat. Aber ist das eine wirkliche Strategie, oder eher ein einfaches Ablenkungsmanöver von tieferen strukturellen Fragen? Ich darf vorweg sagen, dass ich ein großer Befürworter echter Autonomie bin. Um so mehr wünsche ich mir, dass dabei echte belastbare Strukturen entstehen.


1. Für welches Szenario bauen wir digitale Souveränität eigentlich auf?

Wenn wir heute „digitale Souveränität“ fordern, dann steckt hinter dieser Forderung ein implizites Bedrohungsszenario. Wir wollen souverän werden, um unabhängig und handlungsfähig zu bleiben. Doch unabhängig wovon genau? Handlungsfähig in welchem Szenario? Wen betrachten wir konkret als Bedrohung oder Gefahr, vor der wir uns schützen wollen?

Diese Fragen erscheinen zunächst trivial, doch tatsächlich berührt die Klarheit dieser Fragen die Essenz dessen, was digitale Souveränität bedeuten soll. Nur wenn wir uns bewusst sind, welche konkreten Szenarien wir adressieren, können wir überhaupt wirksame und realistische Maßnahmen entwickeln. Umso wichtiger ist es, genau diese Frage ausführlich und ehrlich zu beantworten.

Befinden wir uns in einem Konflikt mit unserem wichtigsten Verbündeten?

Die aktuell geführten Debatten um digitale Souveränität richten sich häufig explizit oder implizit gegen amerikanische Unternehmen, insbesondere gegen die großen Technologiekonzerne, die sogenannten „Hyperscaler“: Microsoft, Google, Amazon und Apple. Doch hier entsteht automatisch ein weiterer Klärungsbedarf: Wollen wir mit der Forderung nach Souveränität eine Unabhängigkeit von den USA als Staat und als Verbündeter erreichen – oder ist unser Ziel nur eine Reduktion wirtschaftlicher und technologischer Abhängigkeiten von einzelnen Unternehmen?

Die USA sind, bei aller Kritik, unser wichtigster wirtschaftlicher, politischer und militärischer Verbündeter. Deutschland und Europa teilen mit den USA gemeinsame militärische Infrastrukturen, Verteidigungsstrategien und Werte. Amerikanische und europäische Militärbasen, zum Beispiel die Luftwaffenbasis Ramstein in Deutschland oder die amerikanischen Stützpunkte in Europa, sind integraler Bestandteil unserer gemeinsamen Verteidigungspolitik. Diese Allianz reicht weit über technologische Fragen hinaus – sie betrifft fundamentale Fragen unserer gemeinsamen Sicherheit.

Die Frage ist also: Wie realistisch ist es, von einem Bedrohungsszenario auszugehen, in dem die USA uns absichtlich oder strategisch-technologisch schaden wollen oder werden? Befinden wir uns überhaupt in einer Art eskalierenden Situation mit den USA, die eine massive technologische Abkoppelung notwendig oder sinnvoll machen würde? Und falls ja: Was würde dies konkret für unsere militärische, politische und gesellschaftliche Zusammenarbeit bedeuten?

Wie weit wollen wir Eskalationsszenarien denken?

Es erscheint zunächst äußerst unwahrscheinlich, dass die USA, unser NATO-Partner, mit dem wir fundamentale sicherheitspolitische Interessen teilen, eine unmittelbare technologische Bedrohung darstellen. Dennoch findet sich in der aktuellen Debatte über digitale Souveränität immer wieder das implizite Szenario, dass wir vor einer strategischen Entscheidung stehen, uns gegen mögliche technologische und politische Einflussnahme der USA zu schützen.

Gesetze wie der CLOUD Act oder auch frühere Enthüllungen rund um die NSA haben zweifellos Zweifel an der Vertrauenswürdigkeit amerikanischer Anbieter aufgeworfen. Doch es ist wichtig, realistisch zu bleiben: Sprechen wir hier tatsächlich von einem Szenario, in dem uns aktiv durch amerikanische Behörden Schaden zugefügt werden könnte? Oder geht es eher um den Schutz gegen mögliche rechtliche Zugriffe auf Daten – also legale, wenngleich unerwünschte Zugriffe auf Grundlage amerikanischen Rechts?

Die Eskalation dieser Debatte hin zu einer echten Konfliktsituation ist nicht nur unrealistisch, sie würde zugleich wesentliche Fundamente unserer politischen und militärischen Bündnisse infrage stellen. Eine zu starke Politisierung der digitalen Souveränität könnte sogar unsere Sicherheit schwächen, indem wir uns von Partnern entfremden, auf deren Schutz und Zusammenarbeit wir angewiesen sind.

Digitale Souveränität: Wirtschaftliche Notwendigkeit oder politische Politisierung?

Es ist wichtig, klar zu definieren, ob wir digitale Souveränität primär wirtschaftlich oder politisch sehen. Wenn wir wirtschaftliche Unabhängigkeit von dominanten Technologiekonzernen anstreben, bedeutet das, die deutsche und europäische Softwareindustrie zu stärken, um den Wettbewerb zu erhöhen und die Innovationskraft der heimischen Wirtschaft anzukurbeln.

Wenn wir hingegen eine politische Politisierung verfolgen, die aus einer Skepsis gegenüber dem politischen Einfluss der USA heraus entsteht, sollten wir uns der Konsequenzen bewusst sein: Dies könnte eine deutlich größere politische Kluft zwischen Europa und den USA erzeugen. Gerade Deutschland, das traditionell auf gute Beziehungen zu allen NATO-Partnern setzt, könnte hier in Konflikt geraten. Wie weit wollen wir also den politischen Aspekt der digitalen Souveränität treiben? Wo ziehen wir die Grenze zwischen wirtschaftlicher Unabhängigkeit und politischer Polarisierung?

Realistische und pragmatische Alternativen zum Konfliktszenario

Wir sollten uns deshalb fragen, ob wir nicht realistischere und pragmatischere Bedrohungsszenarien betrachten sollten, statt maximale Konfliktszenarien heraufzubeschwören. Wenn wir etwa Datenschutzprobleme oder Zugriffsmöglichkeiten durch ausländische Behörden verhindern möchten, könnten bereits einfache technische und rechtliche Maßnahmen ausreichend sein – beispielsweise eine verschlüsselte, modular aufgebaute Infrastruktur mit klaren rechtlichen Rahmenbedingungen.

Ein pragmatischer Ansatz wäre, keine vollständige technologische Abkopplung zu verfolgen, sondern vielmehr unsere Verhandlungsmacht und Autonomie gegenüber ausländischen Anbietern zu erhöhen. Etwa durch klare Standards, Zertifizierungen, modulare Infrastrukturen und interoperable Systeme, die verhindern, dass wir uns in monopolartige Abhängigkeiten begeben. Dies ist weder politisch konfliktbeladen noch technisch unmöglich – und dennoch wären wir deutlich souveräner als heute.

Die Konsequenzen einer zu starken Politisierung

Wenn wir hingegen die politische Dimension der digitalen Souveränität weiter eskalieren, könnte dies gravierende Folgen für unsere transatlantischen Beziehungen haben. Was würde passieren, wenn die technologische Abgrenzung so weit ginge, dass gemeinsame militärische und politische Infrastrukturen gefährdet würden? Dies könnte letztlich unsere militärische Handlungsfähigkeit, den Informationsaustausch mit Verbündeten und unsere Sicherheit insgesamt erheblich beeinträchtigen.

In einem maximalen Eskalationsszenario könnte die digitale Souveränität sogar bedeuten, dass wir unsere gemeinsamen militärischen Infrastrukturen mit den USA aufgeben müssten – eine Situation, die kaum jemand ernsthaft in Betracht zieht. Doch genau diese extremen Szenarien müssen wir offen diskutieren, um sicherzugehen, dass wir unsere Ziele klar und realistisch formulieren.

Was wäre eine sinnvolle, realistische Position?

Eine realistische Position zur digitalen Souveränität wäre, die wirtschaftliche und technologische Handlungsfähigkeit Europas deutlich zu stärken – ohne jedoch die politische Beziehung zu unseren wichtigsten Verbündeten zu gefährden. Dies bedeutet, unabhängige digitale Kompetenzen zu entwickeln, eine starke heimische IT-Industrie aufzubauen und klare technische und rechtliche Schutzmaßnahmen zu etablieren. Gleichzeitig sollten wir die politische Dimension der Debatte nicht unnötig eskalieren.

Ein Beispiel könnte sein, verstärkt europäische Cloud-Lösungen wie Gaia-X zu fördern, ohne zugleich amerikanische Anbieter grundsätzlich auszuschließen. Oder eine modulare Infrastruktur aufzubauen, die einen schnellen Wechsel ermöglicht, falls rechtliche Probleme auftreten – ohne jedoch jetzt schon von einer maximalen Eskalation auszugehen.

Fazit: Digitale Souveränität mit Augenmaß

Wenn wir über digitale Souveränität sprechen, müssen wir ehrlich sein und die Frage stellen: Gegen welches Szenario bauen wir diese eigentlich auf? Eine ehrliche Antwort lautet: Nicht gegen maximale Eskalationsszenarien mit unseren engsten Verbündeten. Vielmehr sollten wir realistische, pragmatische Risiken adressieren, die unsere technologische Handlungsfähigkeit stärken und Abhängigkeiten reduzieren.

Digitale Souveränität sollte also weder zu einer politischen Polarisierung noch zu einer gefährlichen Eskalation führen. Vielmehr sollte sie mit Augenmaß verfolgt werden – als Stärkung unserer Verhandlungsposition, als Aufbau unserer eigenen technologischen Kompetenzen und als Schritt hin zu einer stärkeren, nachhaltigeren und handlungsfähigeren europäischen digitalen Infrastruktur.

2. Datenschutz, Private Clouds, Encryption und reale Bedrohungen

Das Thema Datenschutz zählt zu den zentralen Aspekten jeder Debatte über digitale Souveränität. Persönliche und sensible Daten verdienen zweifelsohne bestmöglichen Schutz. Niemand möchte, dass unbefugte Dritte, ob staatliche oder private Organisationen, unerlaubten Zugang zu Daten erlangen, die vertraulich, wirtschaftlich sensibel oder politisch kritisch sind. Auf dieser grundlegenden Ebene herrscht breiter Konsens. Doch sobald wir genauer hinschauen und die Diskussion darüber führen, welche konkreten Bedrohungen wir mit Datenschutzmaßnahmen, Private Clouds oder Verschlüsselung tatsächlich adressieren, stellen wir fest, wie komplex und vielschichtig die Thematik wirklich ist.

Welche spezifischen Bedrohungen adressieren wir mit Private Clouds?

Zunächst müssen wir uns fragen: Was genau wollen wir mit Maßnahmen wie Private Clouds und eigenen Infrastrukturen schützen? Handelt es sich wirklich um Szenarien, in denen massenhaft und systematisch Daten durch ausländische Regierungen unautorisiert abgezogen werden? Oder befürchten wir stattdessen, dass Datenzugriffe über reguläre, juristisch geordnete Verfahren stattfinden – etwa durch Rechtshilfeersuchen oder durch klare, gesetzlich definierte Verpflichtungen gegenüber internationalen Behörden wie beispielsweise dem US-amerikanischen CLOUD Act?

Ein häufig herangezogenes Szenario ist, dass US-amerikanische Behörden theoretisch Zugriff auf europäische Daten bei amerikanischen Anbietern erhalten könnten. Doch hierbei wird oft vergessen, dass dieser Zugriff nicht in Form illegaler oder geheimdienstlich motivierter Angriffe erfolgt, sondern auf juristisch geregeltem Wege. Amerikanische Unternehmen sind unter bestimmten Umständen verpflichtet, nach US-Recht gespeicherte Daten offenzulegen – etwa auf Grundlage gerichtlicher Beschlüsse oder strafrechtlicher Ermittlungen. Diese Zugriffe erfolgen dabei transparent und nach klar definierten Verfahren – und nicht, wie oft suggeriert wird, unkontrolliert und willkürlich.

Hier wird ein zentraler Punkt sichtbar: Selbst wenn wir sämtliche Daten in einer rein europäischen Infrastruktur speichern, könnten ähnliche rechtliche Verpflichtungen entstehen, wenn europäische Behörden auf Grundlage entsprechender Gesetze Zugriff verlangen. Rein technische Maßnahmen wie Private Clouds schützen uns daher nicht automatisch vor juristisch legitimierten Zugriffen, sondern höchstens vor ungeregelten, illegalen oder massenhaften Angriffen.

Reichen technische Maßnahmen überhaupt aus?

Wenn wir von technischer Sicherheit sprechen, greifen wir oft zu einfachen Schlagworten wie „Private Cloud“ oder „End-to-End-Verschlüsselung“ (E2EE). Doch auch hier müssen wir genauer hinschauen: Gegen welche konkreten Szenarien schützen diese Maßnahmen tatsächlich? Private Clouds bieten eine gewisse Kontrolle über die physische Speicherung von Daten und können bestimmte Risiken minimieren, beispielsweise den Zugriff durch ausländische Nachrichtendienste auf Rechenzentren im Ausland. Aber diese Lösung schützt nicht zwingend vor Angriffen innerhalb der Organisation, vor Sicherheitslücken in Softwarelösungen oder vor Social-Engineering-Attacken, die weit häufiger vorkommen und oft verheerendere Folgen haben.

Ähnlich verhält es sich mit End-to-End-Encryption. Auf den ersten Blick wirkt E2EE als absolut zuverlässige Sicherheitsmaßnahme. Doch wir sollten kritisch hinterfragen: Welche Bedrohungsszenarien werden damit tatsächlich abgewehrt? E2EE schützt die Inhalte von Kommunikation effektiv vor Zugriffen von außen, beispielsweise bei Übertragung über öffentliche Netze. Aber schützt sie auch vor Angriffen durch kompromittierte Endgeräte, manipulierte Software oder Insider-Bedrohungen? Eben nicht.

Ein konkretes Beispiel ist hier WhatsApp: Trotz End-to-End-Verschlüsselung bleibt das zentrale Risiko, dass Metadaten – also wer wann mit wem kommuniziert – weiterhin sichtbar bleiben. Und genau diese Metadaten sind für Angreifer, Geheimdienste oder kriminelle Akteure oft viel entscheidender als der eigentliche Inhalt der Kommunikation. Eine Metadatenanalyse kann Bewegungsprofile erstellen, persönliche Netzwerke offenlegen, oder sogar potenziell vertrauliche Treffen vorhersagen. Gegen diese Art der Bedrohung schützt E2EE alleine nicht.

Die unterschätzte Gefahr: Social Engineering

Die derzeitige Debatte um Datenschutz und digitale Souveränität fokussiert oft auf technische Maßnahmen, vernachlässigt dabei jedoch systematisch einen der größten realen Angriffsvektoren: Social Engineering. Angriffe, bei denen Menschen manipuliert werden, um sensible Informationen preiszugeben, sind heute weitaus gefährlicher und verbreiteter als technische Angriffe auf Clouds oder Kommunikationssysteme. Sie nutzen menschliche Schwächen – Vertrauen, mangelnde digitale Kompetenz, fehlendes Bewusstsein – und hebeln technische Sicherheitsmaßnahmen gezielt aus.

Ein konkretes Beispiel dafür sind Phishing-Angriffe, bei denen Mitarbeiterinnen und Mitarbeiter öffentlicher Einrichtungen dazu verleitet werden, sensible Zugangsdaten weiterzugeben. Ein erfolgreicher Social-Engineering-Angriff kann auch das beste technische Sicherheitskonzept umgehen. Damit wird deutlich, dass eine echte Strategie zur digitalen Souveränität nicht nur auf technische Maßnahmen setzen darf. Wir brauchen gleichermaßen umfassende Schulungen, Sensibilisierung und kontinuierliche Sicherheitsüberprüfungen.

Ein realer Vorfall, der das illustriert, ist der Angriff auf die ukrainische Stromversorgung im Jahr 2015, bei dem Hacker durch gezielte Social-Engineering-Techniken Zugang zu kritischen Infrastrukturen erhielten. Nicht technische Lücken in Verschlüsselungssystemen, sondern menschliche Fehler und mangelndes Bewusstsein ermöglichten den Angriff.

Metadaten – die unsichtbare Gefahr

Ebenso gefährlich wie Social Engineering ist der Bereich der Metadatenanalyse. Obwohl End-to-End-Verschlüsselung Inhalte schützen kann, verhindert sie nicht, dass Metadaten erfasst und ausgewertet werden können. Diese Metadaten – Informationen darüber, wer mit wem, wann und wie oft kommuniziert – ermöglichen detaillierte Analysen, die weitreichende Rückschlüsse auf persönliche, wirtschaftliche oder politische Zusammenhänge zulassen.

In der Praxis bedeutet das: Ein Angreifer braucht nicht die Inhalte von Gesprächen, wenn er bereits weiß, wer miteinander kommuniziert. Wenn beispielsweise ein Mitarbeiter eines deutschen Ministeriums regelmäßig mit Vertretern eines Unternehmens spricht, das gerade an einer sensiblen Ausschreibung teilnimmt, entsteht daraus bereits ein brisantes Bild – auch ganz ohne Kenntnis der Gesprächsinhalte.

Ganzheitliche Sicherheitsstrategien statt rein technischer Lösungen

Aus all diesen Punkten folgt eine entscheidende Konsequenz: Wir dürfen Datenschutz und Sicherheit nicht ausschließlich technisch betrachten. Private Clouds und Verschlüsselungen sind wertvolle Bausteine einer umfassenden Sicherheitsstrategie, doch alleine sind sie völlig unzureichend. Was wir brauchen, ist eine ganzheitliche Betrachtung der realistischen Bedrohungslage:

Was können wir tun?

Wenn wir digitale Souveränität ernst nehmen, müssen wir also ehrlicher darüber sprechen, gegen welche realistischen Szenarien wir uns tatsächlich schützen wollen. Statt maximaler Eskalationsszenarien („Die USA lesen alle Daten aus“) sollten wir pragmatische, wahrscheinliche und nachweislich auftretende Risiken priorisieren:

Fazit: Echte Sicherheit bedeutet realistische Bedrohungsszenarien ernst nehmen

Digitale Souveränität erfordert eine ehrliche Diskussion darüber, was wir konkret schützen wollen. Technische Maßnahmen wie Private Clouds und End-to-End-Verschlüsselung sind nur ein Teil der Antwort – wichtiger sind umfassende Sicherheitsstrategien, die reale und wahrscheinliche Angriffe wie Social Engineering und Metadatenanalyse adressieren. Nur wenn wir diese realistischen Szenarien klar benennen und effektiv bekämpfen, erreichen wir wirkliche Sicherheit und damit echte digitale Souveränität.

3. Wollen wir technologische Isolation oder globale Wettbewerbsfähigkeit?

Eine der zentralsten, aber gleichzeitig auch kontroversesten Fragen zur digitalen Souveränität lautet: Möchten wir uns technologisch und wirtschaftlich vollständig isolieren bzw. wie weit wollen wir dabei gehen? Können wir sozusagen “im Lauf” zu einem späteren Zeitpunkt noch entscheiden oder gegensteuern? Wollen wir eine Situation herbeiführen, in der wir sämtliche kritischen technologischen Infrastrukturen, digitale Dienstleistungen und innovative Technologien ausschließlich national oder bestenfalls europäisch entwickeln, betreiben und kontrollieren? Mit anderen Worten: Streben wir eine Art digitalen „Arbeiter- und Bauernstaat“ an, abgeschottet von globalen Entwicklungen, internationalen Standards und weltweiten Innovationen?

Oder ist unser eigentliches Ziel vielmehr, die technologische und wirtschaftliche Wettbewerbsfähigkeit unserer eigenen Unternehmen und Institutionen so weit zu stärken, dass wir auf Augenhöhe und selbstbewusst mit den global führenden Unternehmen aus den USA, Asien und anderen Regionen konkurrieren können?

Die Differenz zwischen diesen beiden Wegen könnte kaum größer sein. Sie betrifft nicht nur technologische Fragen, sondern berührt auch grundlegende wirtschaftliche, politische und gesellschaftliche Werte.

Protektionismus und die Falle der technologischen Abschottung

Die Idee eines klaren Protektionismus, der nur auf der Nationalität eines Unternehmens basiert, mag zunächst naheliegend erscheinen. Politisch lässt sich leicht argumentieren, dass wir die heimische Wirtschaft stärken, Arbeitsplätze sichern und unsere Technologien vor Zugriffen von außen schützen wollen. Doch wir sollten uns der weitreichenden Konsequenzen bewusst sein, die eine solche Entscheidung mit sich bringt.

Protektionismus bedeutet zwangsläufig, dass wir uns vom Wettbewerb abschneiden. Wo es keinen internationalen Wettbewerb gibt, sinkt langfristig die Innovationskraft. Unternehmen, die wissen, dass ihre nationalen Märkte ohnehin garantiert sind, verlieren jeglichen Anreiz, sich permanent weiterzuentwickeln und innovativ zu sein. Zudem entsteht die Gefahr, dass wir technisch isolierte Lösungen entwickeln, die mit internationalen Standards und Entwicklungen nicht kompatibel sind. Wir würden uns also bewusst in eine technologische Sackgasse manövrieren.

Dazu kommt die ethische Frage: Ist es überhaupt vertretbar, Anbieter ausschließlich nach Herkunft oder Nationalität auszuwählen? Darf Herkunft ein legitimer Grund sein, um Unternehmen von Wettbewerbschancen auszuschließen? Oder sollten wir stattdessen nach Qualität, Innovationskraft und langfristiger Sicherheit entscheiden?

Warum wir uns der Realität stellen müssen: der Wunsch, selbst globale Hyperscaler hervorzubringen

Wir beklagen uns heute regelmäßig über die Dominanz amerikanischer Unternehmen wie Microsoft, Google oder Amazon. Diese sogenannten Hyperscaler dominieren Cloud-Dienste, Datenverarbeitung, KI-Technologien und viele weitere strategische Bereiche. Oft entsteht dabei die unterschwellige moralische Botschaft, dass es sich hierbei um etwas Verwerfliches handelt, dass amerikanische Firmen diese globale Macht besitzen.

Doch wir sollten ehrlich sein: Wie gerne hätten wir selbst solche weltweit erfolgreichen Unternehmen aufgebaut? Wie sehr hätten wir es uns gewünscht, dass deutsche oder europäische Unternehmen heute in der Position von Google, Microsoft oder Amazon stehen? Wir täuschen uns, wenn wir suggerieren, die heutige Situation sei Folge einer bewussten moralischen Entscheidung unsererseits, uns bewusst gegen eine globale Expansion entschieden zu haben. Vielmehr haben wir es schlichtweg nicht geschafft, vergleichbare globale Player aufzubauen – ob aus mangelndem Mut, fehlenden Rahmenbedingungen oder unzureichender Innovationskraft.

Wenn deutsche Unternehmen heute die Möglichkeit hätten, zu globalen Hyperscalern aufzusteigen, würden sie es nicht genauso tun wie ihre amerikanischen Konkurrenten? Würden sie nicht dieselben Mechanismen anwenden, dieselben globalen Netzwerke aufbauen und dieselben wirtschaftlichen und strategischen Interessen verfolgen? Genau das sollten wir offen anerkennen, bevor wir pauschal eine moralische Überlegenheit für uns beanspruchen.

Wollen wir Exportnation bleiben?

Deutschland war und ist seit Jahrzehnten eine klassische Exportnation – weltweit bekannt für Maschinenbau, Automobilindustrie, Chemie und Hochtechnologieprodukte. Diese starke Stellung war immer eine unserer größten wirtschaftlichen Stärken und hat entscheidend zu unserem Wohlstand beigetragen. Doch wir stehen heute an einem Wendepunkt: Digitale Technologien sind zur zentralen Triebfeder globaler wirtschaftlicher Entwicklung geworden. Wer diese Technologien beherrscht, dominiert künftig auch die Wertschöpfungsketten der Weltwirtschaft.

Wir müssen uns fragen, ob wir weiterhin Exportnation bleiben wollen – und zwar nicht nur mit industriellen Produkten, sondern auch mit digitalen Lösungen, Software und technologischen Innovationen. Wenn die Antwort „Ja“ lautet, dann bedeutet das automatisch, dass wir uns nicht isolieren können. Denn Export erfordert zwangsläufig Integration in internationale Märkte, technische Standards, offene Schnittstellen und Wettbewerbsfähigkeit auf globalem Niveau.

Wer digitale Souveränität fordert, darf daher nicht im selben Atemzug eine wirtschaftliche oder technologische Isolation fordern. Vielmehr müssen wir die strukturellen Voraussetzungen schaffen, damit unsere Unternehmen im globalen Wettbewerb bestehen können. Das bedeutet offene Märkte, klare Qualitätsstandards, effiziente Rahmenbedingungen und konsequente Innovationsförderung.

Gleiche Regeln für alle – warum wir Anreizsysteme richtig gestalten müssen

Wenn wir von digitalen Souveränität sprechen, entsteht leicht der Eindruck, wir wollten andere Regeln für unsere Unternehmen schaffen als für die amerikanischen oder asiatischen Wettbewerber. Doch ist das wirklich vertretbar? Würden wir von europäischen oder deutschen Unternehmen wirklich verlangen wollen, anders zu handeln, als es heute amerikanische oder asiatische Tech-Konzerne tun?

In Wahrheit sollten wir nicht darüber nachdenken, andere Regeln für unsere Unternehmen einzuführen, sondern dieselben Mechanismen, die global erfolgreich sind, auch für uns zu nutzen – und gleichzeitig klare Grenzen für Machtmissbrauch und Monopolbildung zu setzen. Ziel ist nicht, europäischen Unternehmen Vorteile aufgrund ihrer Nationalität zu verschaffen, sondern Rahmenbedingungen zu schaffen, die es ihnen ermöglichen, fair und erfolgreich zu konkurrieren.

Denn wenn wir ehrlich sind: Hätten europäische Unternehmen global dominierende Marktmacht, würden sie sich wohl kaum grundlegend anders verhalten als ihre amerikanischen Konkurrenten. Macht- und Marktmechaniken wirken universell, nicht national. Deshalb sollten wir aufhören, uns moralisch über diese Mechaniken zu empören, sondern stattdessen pragmatisch überlegen, wie wir faire Wettbewerbsbedingungen schaffen, Innovation fördern und unsere digitale Industrie international konkurrenzfähig machen.

Globale Wettbewerbsfähigkeit durch echte, tragfähige Innovationen

Langfristig erfolgreich kann unsere digitale Souveränität nur sein, wenn wir global wettbewerbsfähig bleiben. Dafür benötigen wir keine Abschottung, sondern einen innovationsfreundlichen Markt mit Unternehmen, die international erfolgreich agieren. Statt rein nationalen Protektionismus sollten wir daher:

Wenn wir dies richtig angehen, entsteht keine technologische Abschottung, sondern eine starke, souveräne Industrie, die international wettbewerbsfähig ist und gleichzeitig Kontrolle über ihre eigene technologische Basis bewahrt.

Fazit: Digitale Souveränität bedeutet Anschlussfähigkeit, nicht Abschottung

Wenn wir über digitale Souveränität nachdenken, dürfen wir nicht in die Falle technischer oder wirtschaftlicher Isolation tappen. Unser Ziel muss sein, weltweit konkurrenzfähig zu bleiben, die nächste Generation global erfolgreicher Unternehmen aufzubauen und uns dabei klare ethische und wirtschaftliche Standards zu setzen.

Nur wenn wir globale Wettbewerbsfähigkeit anstreben und dabei echte Innovationsfähigkeit stärken, kann digitale Souveränität gelingen. Alles andere – insbesondere eine technologische Abschottung oder einseitiger Protektionismus – führt uns langfristig in eine Sackgasse, aus der es keine wirtschaftlich sinnvolle Rückkehr gibt. Digitale Souveränität heißt globale Wettbewerbsfähigkeit – wenn, dann richtig.

4. Wer trifft Entscheidungen und wie entwickeln wir echte Kaufkompetenz?

Ein Kernproblem auf dem Weg zur digitalen Souveränität, das wir zu oft unterschätzen, betrifft nicht nur Technologien oder Strategien, sondern Menschen und ihre Fähigkeit, tragfähige, nachhaltige und innovative Entscheidungen zu treffen. Gerade im öffentlichen Sektor – sei es in Behörden, öffentlichen Unternehmen oder Bildungseinrichtungen – fehlt es oft an klarer Entscheidungskompetenz und tiefgehendem Verständnis für Software- und Technologiekäufe. Das mag zunächst trivial klingen, doch tatsächlich handelt es sich hierbei um eines der größten strukturellen Hindernisse auf dem Weg zu echter digitaler Souveränität.

Wer entscheidet über Technologien?

Die erste Frage, die wir uns stellen müssen, lautet: Wer entscheidet eigentlich heute in unseren öffentlichen Einrichtungen, welche Technologien und Softwarelösungen zum Einsatz kommen? In der Praxis zeigt sich häufig ein problematisches Bild:

Wir brauchen also zunächst ein klares Bewusstsein dafür, dass Technologiekäufe eine zentrale Kompetenz der Führungsebene sein müssen – und dass die Entscheidungskompetenz genau dort gestärkt werden muss.

Wie entwickeln wir echte Kaufkompetenz?

Softwarekauf und Technologiewahl sind keine Fähigkeiten, die man einfach voraussetzen oder in einem Wochenendseminar erwerben kann. Echte Kaufkompetenz muss kontinuierlich geübt, gelehrt und praktiziert werden – vergleichbar mit einer handwerklichen Fähigkeit, die erst durch jahrelange Praxis perfektioniert wird.

Hierbei müssen wir jedoch anerkennen, dass Fehler passieren werden. Technologieentscheidungen können nicht immer perfekt sein, gerade wenn neue und innovative Lösungen ausprobiert werden. Die Angst vor Fehlentscheidungen darf uns jedoch nicht daran hindern, überhaupt Entscheidungen zu treffen. Vielmehr sollten wir Fehler als notwendiges Lehrgeld betrachten – eine langfristige Investition in unsere zukünftige digitale Kompetenz.

Ein Beispiel aus der Praxis: Wenn eine Kommune heute eine neue Softwareplattform einführt, sei es für Bürgerkommunikation, Verwaltungsprozesse oder die Infrastruktur in Schulen, kann niemand garantieren, dass diese Entscheidung perfekt sein wird. Aber die Entscheidung muss getroffen und konsequent begleitet werden. Falls sich nach ein bis zwei Jahren herausstellt, dass die Software die Erwartungen nicht erfüllt, darf der Status quo nicht aus Bequemlichkeit beibehalten werden. Vielmehr muss dann ein aufwendiger, aber wichtiger Anbieterwechsel möglich sein.

Modularität und Anbieterwechsel – eine Grundvoraussetzung

Damit diese Fehler und daraus resultierende Lernprozesse überhaupt möglich und bezahlbar bleiben, ist eine wesentliche Voraussetzung, dass technologische Systeme modular aufgebaut sind. Nur dann ist ein Anbieterwechsel in einzelnen Komponenten oder Modulen überhaupt praktikabel. Ein Beispiel: Wenn eine Behörde eine umfassende Plattform einführt, etwa zur digitalen Aktenführung, sollte die Infrastruktur so modular sein, dass einzelne Komponenten, wie etwa das Frontend, Workflow-Engines oder Datenbanken, jederzeit ausgetauscht werden können, ohne dass das Gesamtsystem in sich zusammenfällt.

Warum ist das so entscheidend? Weil technologische Wechsel machbar sein müssen – und auch tatsächlich durchgeführt werden sollten. Es darf nicht passieren, dass Behörden oder öffentliche Einrichtungen in einer technologischen Sackgasse landen, aus der sie aus Kosten- oder Aufwandsgründen nicht mehr herauskommen. Heute passiert genau dies jedoch viel zu oft. Große Projekte laufen über Jahre, teilweise Jahrzehnte mit demselben Anbieter weiter – nicht, weil die Software perfekt wäre, sondern weil der Aufwand eines Wechsels als zu groß und schmerzhaft empfunden wird.

Wechsel sind anstrengend, aber zwingend notwendig

Wir müssen ehrlich sein: Der Wechsel eines Technologielieferanten ist extrem aufwendig. Er bedeutet enorme Energieleistungen auf allen Seiten – beim Kunden, beim bisherigen Anbieter, beim neuen Anbieter. Daten müssen migriert, Schnittstellen angepasst, neue Systeme trainiert werden, Nutzer geschult, Prozesse angepasst werden. Kurz: Es ist enorm anstrengend.

Doch diese Anstrengung darf kein Argument gegen den Wechsel sein. Vielmehr ist sie die zwingende Voraussetzung für langfristige, belastbare technologische Souveränität. Erst wenn Anbieter wissen, dass öffentliche Auftraggeber tatsächlich den Mut haben, sie bei Nichtlieferung zu ersetzen, entsteht echter Wettbewerb. Und nur aus echtem Wettbewerb entstehen letztlich qualitativ hochwertige, innovative und bezahlbare Lösungen.

Ein reales Beispiel dafür könnte die Einführung eines neuen Systems für die Steuerverwaltung sein: Wenn ein Anbieter trotz mehrerer Chancen über einen längeren Zeitraum keine zufriedenstellende Qualität liefert, dann darf es kein Tabu sein, nach Ablauf einer klar definierten Probezeit den Wechsel durchzuführen. Die Behörde mag kurzfristig darunter leiden – aber langfristig stärkt dieser Mut zur Entscheidung die eigene Kompetenz, schützt vor Fehlentscheidungen und hebt das Qualitätsniveau der gesamten Anbieterlandschaft.

Die Rolle der Führungskräfte: Digitale Kompetenz an der Spitze

Technologieentscheidungen dürfen nicht mehr allein in IT-Abteilungen oder durch externe Berater getroffen werden. Sie müssen stattdessen Teil der Kernkompetenzen in der Führungsebene werden. Digitale Kompetenz muss zwingend auch auf den Ebenen der Abteilungsleiter, Referatsleiter, Bürgermeister, Landräte und Geschäftsführer entwickelt werden.

Diese Führungskräfte müssen verstehen, was die Qualitätskriterien bei Softwareentscheidungen sind: Sicherheit, Skalierbarkeit, Modularität, Nutzerfreundlichkeit und langfristige Wartbarkeit. Sie müssen in der Lage sein, zu beurteilen, wann ein Anbieter gut oder schlecht liefert – und wann ein Wechsel trotz hoher Aufwände angezeigt ist.

Hier braucht es spezielle Aus- und Weiterbildungsprogramme, die Führungskräfte befähigen, auch technisch anspruchsvolle Entscheidungen zu treffen. Digitale Souveränität bedeutet eben nicht nur technische oder infrastrukturelle Maßnahmen, sondern auch, ganz zentral, dass Entscheider souverän mit digitalen Themen umgehen können.

Lehrgeld als langfristige Investition

Der Begriff „Lehrgeld“ mag negativ klingen, aber in Wahrheit beschreibt er den realistischen Lernprozess, den wir zwingend durchlaufen müssen. Wer langfristig digitale Kompetenz entwickeln will, kommt nicht umhin, Fehlentscheidungen zuzulassen und daraus zu lernen. Diese Fehler müssen jedoch in einem strukturierten Prozess aufgefangen werden, der es erlaubt, aus ihnen Wissen zu generieren und dieses Wissen zu verbreiten.

Ein positives Beispiel könnte ein öffentlich gefördertes Pilotprojekt sein, bei dem mehrere Anbieter gleichzeitig beauftragt werden, in einem klar definierten Zeitraum eine Lösung zu entwickeln. Nach einem Jahr wird evaluiert, welcher Anbieter die beste Lösung geliefert hat. Die anderen Anbieter werden honoriert, das Projekt endet aber dort für sie. Auf diese Weise entsteht für die öffentliche Hand ein nachhaltiger Lerneffekt, und für die Anbieter entsteht ein klarer, wettbewerbsorientierter Markt, der Qualität fördert.

Fazit – Kaufkompetenz als Schlüssel zur Souveränität

Digitale Souveränität ist nicht allein eine Frage der Infrastruktur oder Technologie. Mindestens genauso entscheidend ist die Fähigkeit unserer Organisationen, tragfähige Entscheidungen zu treffen. Echte Kaufkompetenz ist dabei der zentrale Schlüssel: die Fähigkeit, Qualität von Hype zu unterscheiden, Fehler zu akzeptieren und daraus zu lernen, sowie der Mut, konsequente Entscheidungen wie Anbieterwechsel tatsächlich umzusetzen.

Ohne diese Entscheidungskompetenz bleiben alle infrastrukturellen und technischen Maßnahmen leere Versprechen. Wenn wir digitale Souveränität wirklich wollen, müssen wir bereit sein, tief in die Fähigkeit unserer Führungskräfte zu investieren – und nicht zuletzt auch, gelegentlich echtes Lehrgeld zu zahlen. Nur dann werden wir langfristig unabhängig und kompetent agieren können. Nur dann sind wir wirklich souverän – wenn, dann richtig.

5. Ist Open Source wirklich die Lösung?

Open Source gilt heute vielen als ultimative Lösung, wenn es um digitale Souveränität geht. Doch diese Vorstellung ist – bei aller Sympathie für den offenen Zugang zu Quellcode – naiv und kurzsichtig. Ja, es stimmt, Open Source ermöglicht es grundsätzlich, den Code einer Software einzusehen, zu analysieren und zu verändern. Dies wird oft als der entscheidende Schritt in Richtung Unabhängigkeit dargestellt: „Wir besitzen den Code, niemand kann uns etwas vorschreiben.“

Doch diese Sichtweise greift zu kurz. Der Zugang zum Code ist lediglich ein kleiner, technischer Schritt. Die eigentliche Herausforderung liegt nicht darin, heute ein Stück Software zu besitzen, sondern darin, sie langfristig weiterzuentwickeln und lebensfähig zu halten. Genau hier liegt die zentrale Herausforderung, die in den Debatten über digitale Souveränität oft vernachlässigt wird:

Software als dynamisches Produkt verstehen

Software ist keine statische Ware, die man einmal erstellt und dann unverändert über Jahrzehnte hinweg nutzen kann. Software verändert sich kontinuierlich, und zwar grundlegend. Technologische Trends, Sicherheitsanforderungen, neue Standards, geänderte Nutzungsgewohnheiten und disruptive Innovationen sorgen dafür, dass eine Software schon nach wenigen Jahren nicht mehr dieselbe ist wie am Anfang. Und das gilt besonders für Software, die im Arbeitsalltag und in kritischen Bereichen der öffentlichen Verwaltung eingesetzt wird.

Nehmen wir ein konkretes Beispiel: Ein Open-Source-Produkt, das vor fünf Jahren entwickelt wurde, basiert auf Technologien und Paradigmen, die zum damaligen Zeitpunkt aktuell waren. Doch was ist heute? Was passiert, wenn völlig neue Arbeitsweisen entstehen, etwa Videokonferenzen während der Pandemie oder generative KI wie ChatGPT heute? Wer sorgt dafür, dass diese Open-Source-Software auf diese Herausforderungen reagiert?

Open Source als Schallplatte – aber wer macht die Musik?

Die häufig verwendete Metapher vom Film ohne Studio trifft hier den Kern sehr gut: Open Source allein ist vergleichbar mit einem Kinofilm, der auf einer Schallplatte gespeichert ist. Man besitzt zwar die Aufnahme – das Endprodukt –, aber man besitzt weder die Musiker, noch die Band, noch das Studio, die diesen Film ursprünglich produziert haben. Das bedeutet: Wenn man eine Fortsetzung drehen möchte, also die Software weiterentwickeln will, benötigt man zwingend das gesamte Produktionssystem dahinter. Dazu zählen Entwickler, Designer, Architekten, Produktmanager und visionäre Köpfe, die das Produkt strategisch und kontinuierlich weiterentwickeln.

Ohne diese kontinuierliche Weiterentwicklung bleibt Open Source ein bloßer Schnappschuss, ein statisches Produkt, das zwar heute gut genug sein mag, aber morgen schon obsolet sein wird. Was passiert, wenn neue Sicherheitslücken auftauchen? Wenn neue Standards eingeführt werden oder gesetzliche Vorgaben sich ändern? All das erfordert einen stetigen Strom neuer Ideen, eine fortlaufende Anpassung und Erweiterung des bestehenden Systems.

Die Illusion einer „basisdemokratischen“ Softwareentwicklung

Häufig herrscht die Vorstellung, dass Open Source quasi automatisch weiterentwickelt wird, weil viele Menschen theoretisch Zugang dazu haben. Doch auch das ist nur eine oberflächliche Wahrheit. Große und erfolgreiche Open-Source-Projekte wie Linux, Kubernetes, VS Code oder PostgreSQL existieren nicht nur, weil eine diffuse Gemeinschaft altruistischer Entwickler gelegentlich etwas beiträgt. Vielmehr stehen hinter diesen Projekten klare Strukturen, Prozesse, Verantwortlichkeiten – und vor allem ein robustes finanzielles Fundament.

Viele große Open-Source-Projekte werden heute von Unternehmen getragen, die finanziell massiv investieren und dadurch wiederum unternehmerische Interessen verfolgen. Ein Beispiel: Microsoft und das Produkt Visual Studio Code (VS Code). Dieses Projekt wurde schnell populär, weil Microsoft dauerhaft ein Team aus erfahrenen, gut bezahlten Entwicklern beschäftigt, die kontinuierlich neue Funktionen liefern und Anpassungen vornehmen. Open Source ist hier erfolgreich, weil unternehmerische Interessen dahinter stehen – und eben nicht, weil eine unorganisierte Community allein altruistisch Code schreibt.

Vom Hersteller zum Dienstleister – das falsche Versprechen der Unabhängigkeit

Es gibt eine romantische Vorstellung, dass Open Source uns vom Hersteller befreit. Doch in Wirklichkeit verlagern wir oft nur die Abhängigkeit von einem Softwarehersteller auf eine andere Partei: die Dienstleister. Denn wenn kein Hersteller für die Weiterentwicklung sorgt, müssen externe Beratungs- und Serviceunternehmen einspringen. Dies verschiebt lediglich die finanziellen Aufwände und Entscheidungen – vom Hersteller weg zu externen Dienstleistern, oft sogar mit steigenden Gesamtkosten und nachlassender Innovationskraft.

Ein realitätsnahes Szenario: Eine Behörde entscheidet sich für Open Source, stellt aber bald fest, dass eigene Ressourcen fehlen, um diese Software weiterzuentwickeln. Schnell sind externe Dienstleister unverzichtbar, und die Kosten für Wartung, Weiterentwicklung und Anpassung steigen rasch. Letztendlich steht die Behörde wieder in einer Abhängigkeit – diesmal nicht vom Hersteller, sondern von externen Dienstleistern, die wirtschaftlich kaum Interesse an tiefgreifenden technologischen Innovationen haben.

Die Notwendigkeit eines funktionierenden Anreizsystems

Langfristig erfolgreiche Softwareentwicklung – und zwar insbesondere Open Source – setzt unternehmerische Anreize voraus. Ohne klare wirtschaftliche, strategische und persönliche Motivationen wird langfristig kein Open-Source-Projekt nachhaltig bestehen. Jede Softwareentwicklung braucht eine treibende Kraft, eine schöpferische und gestalterische Instanz, die dauerhaft Interesse daran hat, das Produkt voranzutreiben.

Open Source allein schafft noch keine digitale Souveränität. Was wir benötigen, sind unternehmerische Strukturen, die ein robustes und dynamisches Ökosystem aus Anbietern, Nutzern und Dienstleistern schaffen – inklusive finanzieller Anreize, persönlicher Karrierechancen und wirtschaftlicher Perspektiven für Entwickler, Unternehmer und Entscheider.

Beispiele für erfolgreiche und gescheiterte Open-Source-Strategien

Erfolgreich wird Open Source dann, wenn dahinter klare unternehmerische Strukturen stehen. Linux etwa funktioniert hervorragend, weil Unternehmen wie IBM, Red Hat, SUSE und Canonical mit großem Einsatz und finanziellen Ressourcen langfristig investieren.

Auf der anderen Seite zeigen gescheiterte Open-Source-Projekte, dass eine rein idealistische Community kaum in der Lage ist, komplexe Systeme langfristig weiterzuentwickeln. Beispiele aus dem deutschen Behördenumfeld zeigen regelmäßig, dass der einfache Besitz von Quellcode nicht ausreicht. Die Kommune München, die über viele Jahre Linux einsetzte („LiMux“), kehrte am Ende zurück zu proprietären Lösungen, da es an der kontinuierlichen strategischen Weiterentwicklung und Integration fehlte.

Fazit – Open Source als Werkzeug, nicht als magische Lösung

Open Source ist langfristig nur tragfähig, wenn sie in ein umfassendes, unternehmerisches Ökosystem eingebunden ist. Es reicht nicht aus, den Quellcode zu besitzen – langfristige digitale Souveränität bedeutet, klare, funktionierende wirtschaftliche und technologische Strukturen zu schaffen. Ohne diese Strukturen bleibt Open Source ein statisches Versprechen, das langfristig nicht eingelöst werden kann.

Digitale Souveränität – wenn, dann richtig. Nicht nur durch den Besitz von Quellcode, sondern durch strategische, unternehmerische und innovationsorientierte Weiterentwicklung. Nur so schaffen wir langfristig stabile, innovative und souveräne digitale Infrastrukturen.

6. Das Ziel: Eine robuste technologische Infrastruktur

Um langfristig echte digitale Souveränität für Deutschland und Europa zu gewährleisten, müssen wir grundlegend neu denken. Wir brauchen nicht mehr Subventionen, sondern klare Marktpraxis, Transparenz und Konsequenz im Umgang mit Technologien und Anbietern. Wir brauchen keine Alibi-Förderprogramme, sondern echte unternehmerische Anreize, echte Risiken und echten Wettbewerb. Kurz gesagt: Wir brauchen ein digitales Ökosystem, das von unten nach oben konsequent und belastbar aufgebaut wird – eine technologische Pyramide, die stabil, innovativ und global wettbewerbsfähig ist.

Die technologische Pyramide: Langfristigkeit statt kurzsichtiger Subventionen

Aktuell sind viele Ansätze zur Förderung digitaler Technologien und Innovationen zu kurz gedacht. Subventionen, Förderprogramme und symbolische Investitionen erzeugen bestenfalls kurzfristige Erfolge, führen aber langfristig nicht zu einer stabilen technologischen Basis. Wenn die Fördertöpfe leer sind, verschwinden oft auch die geförderten Initiativen wieder. Dadurch entsteht keine nachhaltige technologische Infrastruktur, sondern eine Reihe isolierter Projekte, die langfristig keine tragfähige Basis für unsere digitale Zukunft bilden.

Was wir stattdessen benötigen, ist eine systematisch aufgebaute technologische Pyramide:

Nur wenn wir diese Pyramide systematisch aufbauen, schaffen wir eine wirklich tragfähige technologische Basis für digitale Souveränität. Das bedeutet aber, dass wir bereit sein müssen, langfristig zu denken, echte Investitionen zu tätigen und die unternehmerische Innovationskraft auf jeder Ebene konsequent zu fördern.

Unternehmertum feiern: Mutige Gründer brauchen echte Chancen

Im Zentrum dieser technologischen Pyramide steht das Unternehmertum. Wir müssen den Mut, die Innovationskraft und die Risikobereitschaft von Gründerinnen und Gründern nicht nur anerkennen, sondern gezielt fördern und feiern. Unternehmertum sollte als gesellschaftlicher Wert wieder stärker in den Mittelpunkt rücken – nicht nur in Sonntagsreden, sondern auch praktisch und konkret.

Was bedeutet das im Alltag? Es bedeutet, jungen Unternehmen echte Chancen zu geben, in öffentlichen Ausschreibungen berücksichtigt zu werden. Es bedeutet, dass wir Start-ups und KMUs aktiv ermutigen, innovative Lösungen in der Praxis einzusetzen – und sie nicht schon im Vorfeld auszuschließen, nur weil sie noch keine zehnjährige Historie vorweisen können.

Es bedeutet auch, dass wir Scheitern als Teil eines normalen unternehmerischen Prozesses akzeptieren und daraus lernen. Unternehmerischer Erfolg entsteht oft erst nach mehreren Anläufen. Unternehmen, die zunächst scheitern, sammeln Erfahrungen, aus denen später echte Innovationen entstehen können. Diese Kultur des „erlaubten Scheiterns“ ist entscheidend, um langfristig echte digitale Innovation zu fördern.

Leistung feiern: Qualität und Konsequenz statt Bürokratie und Protektionismus

Digitale Souveränität verlangt nach klaren Leistungsprinzipien. Statt Bürokratie, Formalismus und nationalem Protektionismus müssen wir Qualität, Innovationskraft und Leistungsfähigkeit in den Mittelpunkt stellen. Wer Leistung bringt, wer innovative Lösungen entwickelt, wer qualitativ hochwertige Produkte anbietet, sollte unabhängig von der Größe des Unternehmens konsequent gefördert und belohnt werden.

Dies bedeutet auch, dass wir konsequent genug sein müssen, um Anbieter auszutauschen, wenn diese Qualität nicht geliefert wird. Wenn ein Anbieter die Erwartungen nicht erfüllt, dann muss er ersetzt werden – auch wenn dies aufwendig, teuer und schmerzhaft sein kann. Denn nur wenn wir konsequent und transparent agieren, wird ein Markt entstehen, der auf Qualität und Leistung basiert.

Heute sehen wir auf vielen Veranstaltungen, Messen und Kongressen leider genau das Gegenteil: kaum Bereitschaft, sich auf echte Risiken einzulassen oder neue, innovative Anbieter konsequent auszuprobieren. Stattdessen werden etablierte Großunternehmen bevorzugt, da sie scheinbar „sicher“ sind. Das führt langfristig aber nicht zu besserer Qualität, sondern zu einem trägen Markt, in dem echte Innovationen keinen Platz finden.

Konsequenter Wettbewerb statt bequemer Direktvergabe

Eines der größten Hindernisse für echte digitale Souveränität ist die Praxis der Direktvergabe und der unkritischen Vergabe an etablierte Großunternehmen. Wenn wir digitale Souveränität ernst nehmen, müssen wir den Mut haben, konsequenten Wettbewerb zu fördern – auch wenn das unbequem ist und Aufwand bedeutet.

Es darf nicht sein, dass öffentliche Auftraggeber regelmäßig etablierte Anbieter direkt beauftragen, nur weil diese bereits eine Marktposition haben. Stattdessen müssen wir gezielt Wettbewerbschancen schaffen, insbesondere für innovative, kleine und mittelständische Anbieter. Der Aufwand für Ausschreibungen, Vergleiche und Tests mag groß sein, aber er ist alternativlos, wenn wir ernsthaft Qualität und Innovation wollen.

Ein positives Beispiel könnte sein, dass eine öffentliche Institution explizit mehrere Anbieter parallel beauftragt, innovative Lösungen in einem begrenzten Zeitraum zu entwickeln und zu testen. Nach klar definierten Leistungs- und Qualitätskriterien wird dann der beste Anbieter dauerhaft ausgewählt. Solche wettbewerbsorientierten Verfahren stärken den Markt und fördern echte Innovationen.

Konsequenzen ziehen, auch wenn es wehtut

Wenn ein Anbieter nicht liefert, nicht rechtzeitig liefert oder qualitativ unzureichend liefert, muss es klare Konsequenzen geben. Nur so entsteht eine Marktkultur, die Qualität fördert und langfristig verlässliche technologische Lösungen garantiert.

Ja, Anbieterwechsel sind schmerzhaft, kostenintensiv und organisatorisch herausfordernd. Doch es führt langfristig kein Weg daran vorbei, wenn wir echte technologische Souveränität wollen. Anbieter müssen wissen, dass sie konsequent ersetzt werden können – nur dann liefern sie dauerhaft Qualität.

Dies gilt nicht nur auf unterer Ebene, sondern vor allem auch auf der Ebene größerer, kritischer Infrastrukturprojekte. Wenn große Anbieter in kritischen Bereichen wie öffentliche Verwaltung, Gesundheitswesen oder Bildung nicht liefern, muss ein Wechsel zwingend erfolgen – auch auf die Gefahr hin, dass Projekte dadurch kurzfristig belastet werden.

Digitale Souveränität erfordert Marktpraxis statt Alibi-Politik

Der zentrale Grundsatz, den wir anerkennen müssen, ist, dass digitale Souveränität nicht durch kurzfristige Alibi-Politik oder symbolische Subventionen entsteht. Sie entsteht durch konsequente Marktpraxis, echten Wettbewerb, klare Qualitätserwartungen und langfristige unternehmerische Förderung.

Die technologische Pyramide, die wir dafür bauen, muss langfristig, modular und belastbar sein. Sie muss Unternehmertum und Leistung feiern, Fehler zulassen, daraus lernen und immer wieder neue Chancen eröffnen. Sie darf nicht auf kurzfristigen politischen Entscheidungen beruhen, sondern muss langfristig orientiert, marktwirtschaftlich solide und innovationsfreundlich sein.

Wenn wir das erreichen, schaffen wir eine robuste technologische Infrastruktur, die nicht nur souverän, sondern auch global wettbewerbsfähig und nachhaltig innovativ ist. Das ist der einzige Weg zu echter digitaler Souveränität – wenn, dann richtig.

7. Das Digitalministerium - die Rettung?

Die Gründung eines Digitalministeriums erscheint zunächst als logischer und konsequenter Schritt, um endlich eine einheitliche technologische Basis für Deutschland zu schaffen. Die Intention dahinter ist zweifellos positiv: Wir wollen möglichst schnell klare Verantwortlichkeiten schaffen, Standards setzen und sicherstellen, dass die öffentliche Verwaltung nicht länger hinterherhinkt. Ein Digitalministerium könnte die lang ersehnte zentrale Instanz sein, die strategische Entscheidungen trifft, Synergien schafft und dafür sorgt, dass alle Behörden nach einem gemeinsamen Plan vorgehen.

Doch trotz dieser guten Absichten stellt sich eine ganz entscheidende Frage: Sind wir überhaupt schon bereit dafür? Haben wir die notwendige Reife, die notwendigen Erfahrungswerte und die belastbare Kompetenz, um jetzt bereits verbindliche zentrale Entscheidungen zu treffen? Oder laufen wir Gefahr, genau das Gegenteil zu erreichen – nämlich ein teures und folgenschweres Fiasko?

Vom Reißbrett in die Realität – eine gefährliche Abkürzung

Der grundlegende Fehler in der aktuellen Debatte um ein Digitalministerium könnte sein, dass wir glauben, eine komplexe technologische Infrastruktur von oben herab, quasi vom Reißbrett, verordnen zu können. Doch technologische Innovation und digitale Transformation sind organische Prozesse, die aus der Praxis heraus wachsen. Sie sind nicht allein das Ergebnis von strategischen Konzepten, Positionspapieren oder ministerialen Dekreten.

Erfolgreiche Digitalisierung entsteht nicht am grünen Tisch, sondern in der konkreten Realität der täglichen Praxis. Sie entsteht, wenn Behörden, Kommunen und öffentliche Einrichtungen verschiedene Lösungen, Produkte und Ansätze ausprobieren, bewerten, verbessern und im direkten Austausch miteinander vergleichen können.

Bevor wir also zentrale Strukturen aufbauen, müssen wir zunächst Erfahrung sammeln. Behörden und öffentliche Organisationen sollten systematisch drei bis vier unterschiedliche Lösungen ausprobieren, deren Einsatz in der Praxis testen und dabei unmittelbar feststellen, was funktioniert und was nicht. Erst wenn wir diese Praxiserfahrung gesammelt haben, wenn wir wissen, welche Lösungen tatsächlich effizient, sicher und zukunftsfähig sind, können wir sinnvoll von oben strategisch eingreifen und einheitliche Entscheidungen treffen.

Ein Digitalministerium – die Blaupause für ein Desaster?

Ohne diese Erfahrung laufen wir Gefahr, genau die falschen Entscheidungen zu treffen – nämlich Entscheidungen für Lösungen, die sich zwar auf dem Papier gut lesen, aber in der Realität scheitern. Das Ergebnis könnte ein technologisches und organisatorisches Desaster sein, bei dem zentrale Infrastrukturen nach wenigen Jahren schon wieder überarbeitet oder ausgetauscht werden müssen – mit enormen Kosten für die Steuerzahler und erheblicher Frustration bei Mitarbeitern und Bürgern.

Ein konkretes Beispiel: Wenn ein Digitalministerium jetzt entscheiden würde, eine einzige Softwarelösung flächendeckend einzuführen – etwa ein zentrales System für Bürgerkommunikation oder Dokumentenverwaltung –, ohne dass die Behörden ausreichend Erfahrung gesammelt haben, könnte sich diese zentrale Entscheidung in wenigen Jahren als falsch herausstellen. Der Schaden wäre immens, sowohl finanziell als auch organisatorisch.

Wer wäre dann verantwortlich? In der Praxis vermutlich niemand. Denn Verantwortlichkeiten für Fehlentscheidungen werden oft verschleiert. Die Steuerzahlerinnen und Steuerzahler wären dann wieder die Leidtragenden, ohne dass sich an der eigentlichen digitalen Realität etwas verbessert hätte.

Organisch wachsen statt zentral verordnen

Die bessere Alternative wäre, organisch zu denken und zu handeln: Wir sollten zunächst viele verschiedene Lösungen erproben und in echten Situationen testen. Behörden und Kommunen könnten sich zusammenschließen, Erfahrungen austauschen und so schrittweise ermitteln, welche Systeme tatsächlich zuverlässig und effizient funktionieren.

Wenn diese Lösungen sich in der Praxis bewährt haben, verbreiten sie sich ohnehin automatisch. Behörden werden freiwillig darauf setzen, weil sie klare Vorteile bringen. Der Gewinner setzt sich organisch durch – und dann, erst dann, ist der richtige Zeitpunkt gekommen, zentralisiert zu handeln und flächendeckende Entscheidungen zu treffen.

Fehler als Teil des Lernprozesses akzeptieren

Dieser organische Ansatz bedeutet auch, Fehler ausdrücklich zuzulassen und aus ihnen zu lernen. Wenn wir unterschiedliche Technologien ausprobieren, werden einige scheitern – das ist unvermeidlich. Doch jeder Misserfolg ist eine wichtige Lektion. Wir lernen, was nicht funktioniert, welche Anbieter überfordert sind, welche Lösungen technisch anfällig oder organisatorisch ungeeignet sind.

Aus diesen Erfahrungen entsteht langfristig belastbare Kompetenz. Fehler werden zu wertvollen Bausteinen für die nächsten, besseren Lösungen. Erst wenn wir diese Erfahrungen breit gesammelt haben, sind wir tatsächlich bereit für ein digitales Ministerium oder eine vergleichbare zentrale Institution.

Fazit: Keine Skalierung ohne kleine Erfolge

Die entscheidende Frage, die wir uns also stellen müssen, lautet: Sind wir wirklich schon bereit für ein Digitalministerium, das zentralisiert Entscheidungen trifft, ohne vorher ausreichend praktische Erfahrungen gesammelt zu haben? Sind wir bereit, das Risiko einzugehen, dass diese Entscheidungen auf falschen Annahmen beruhen und am Ende zu einem kostspieligen und enttäuschenden Ergebnis führen?

Die Alternative ist, zuerst einmal den schwierigen, aber notwendigen Weg zu gehen: echte Markterfahrung zu sammeln, echte Systeme auszuprobieren, organisch funktionierende Lösungen zu etablieren. Erst wenn wir auf diesem Weg Klarheit gewonnen haben, ist der richtige Moment gekommen, strategisch zu entscheiden.

Ein Digitalministerium mag langfristig sinnvoll sein – aber erst dann, wenn wir genau wissen, was funktioniert. Jetzt schon zentrale Entscheidungen zu treffen, ohne die notwendige Praxiserfahrung, könnte sich dagegen als die Blaupause für ein technologisches und finanzielles Desaster herausstellen. In der Startup-Welt nennt man das vorschnelle Skalierung. Startups scheitern, aber wir als Staat dürfen und können das nicht. Aber anders als im Startup, wo die Gründer und Investoren das Nachsehen haben, geht es hier um uns alle.

Digitale Souveränität erfordert Geduld, organisches Wachstum und echte Erfahrung. Nur wenn wir das verstanden haben, können wir tatsächlich nachhaltig digital souverän werden – wenn, dann richtig.


Schlusswort: Es lohnt sich – gemeinsam für eine souveräne digitale Zukunft

Die Debatte um digitale Souveränität ist eine der wichtigsten Diskussionen unserer Zeit. Sie betrifft uns alle, denn Digitalisierung bestimmt zunehmend, wie wir arbeiten, leben und miteinander kommunizieren. Gerade weil so viel auf dem Spiel steht, dürfen wir diese Herausforderung weder unterschätzen noch falsch angehen. Doch bei aller Kritik, bei allen Fragen und Bedenken, bei aller Vorsicht: Es gibt keinen Grund, mutlos zu sein.

Im Gegenteil – wir haben allen Grund, optimistisch nach vorn zu blicken. Deutschland und Europa verfügen über herausragende Talente, starke mittelständische Unternehmen, innovative Start-ups und eine beeindruckende wissenschaftliche Infrastruktur. Wir haben engagierte und fähige Menschen, die bereit sind, Risiken einzugehen, Neues auszuprobieren und echte Verantwortung zu übernehmen.

All diese Menschen verdienen Anerkennung, Ermutigung und echte Chancen, ihre Ideen in der Praxis umzusetzen. Es lohnt sich, diese Menschen in den Mittelpunkt zu stellen. Es lohnt sich, Unternehmertum zu fördern, Leistung anzuerkennen und echte Innovationskraft zu feiern. Jede einzelne Behörde, jedes Unternehmen, jede Gründerin und jeder Gründer, jede Mitarbeiterin und jeder Mitarbeiter, der heute mutig und engagiert an digitalen Lösungen arbeitet, trägt dazu bei, dass wir gemeinsam souveräner, handlungsfähiger und erfolgreicher werden.

Ja, der Weg zur digitalen Souveränität ist anspruchsvoll. Er wird von uns verlangen, ehrliche Fragen zu stellen, unbequeme Antworten auszuhalten, Fehler zu akzeptieren und daraus zu lernen. Aber dieser Weg ist jede Anstrengung wert, denn am Ende steht eine starke, belastbare und innovative digitale Infrastruktur, die unser Land und Europa insgesamt langfristig erfolgreicher, unabhängiger und lebenswerter macht.

Lasst uns also nicht zögern, diese Herausforderungen gemeinsam anzunehmen – mit Mut, Realismus und Zuversicht. Denn am Ende zählt nicht allein, was wir heute entscheiden, sondern was wir langfristig damit erreichen. Und wenn wir es richtig machen, entsteht eine souveräne, innovative und global wettbewerbsfähige digitale Zukunft, von der wir alle profitieren.

Digitale Souveränität ist möglich. Sie lohnt sich. Und sie beginnt mit jedem einzelnen von uns – jeden Tag aufs Neue. Packen wir es an.


Hinweise zur E-Book Version

Die in diesem Buch enthaltenen Informationen, Empfehlungen und Methoden wurden sorgfältig recherchiert und aufbereitet. Sie dienen ausschließlich allgemeinen Informations- und Bildungszwecken und stellen keine professionelle medizinische, rechtliche oder finanzielle Beratung dar.

Jegliche Anwendung der in diesem Buch beschriebenen Inhalte erfolgt auf eigene Gefahr. Der Autor und der Verlag haften nicht für direkte oder indirekte Schäden. Personen- Sach- und Vermögensschäden sind von der Haftung ausgeschlossen.

Alle Ratschläge in diesem Buch sollten sorgfältig abgewogen und individuell geprüft werden.

Sollte diese Publikation Links auf Webseiten Dritter enthalten, so übernehmen wir für deren Inhalte keine Haftung, da wir uns diese nicht zu eigen machen, sondern lediglich auf deren Stand zum Zeitpunkt der Erstveröffentlichung verweisen.

Alle Inhalte dieses Buches, einschließlich Texte, Grafiken und Abbildungen, sind urheberrechtlich geschützt. Jede Form der Vervielfältigung, Bearbeitung, Verbreitung oder sonstigen Verwertung außerhalb der Grenzen des Urheberrechts bedarf der vorherigen schriftlichen Zustimmung des Autors oder Verlags.

1. Auflage

Version 1.05

Deutsche Erstausgabe Juni 2025

Copyright © Martin Welker

© Martin Welker – Alle Rechte vorbehalten Buch kaufen ↗