KI im öffentlichen Sektor neu denken: 5 Veränderungen, die Missionsergebnisse vorantreiben

Der öffentliche Sektor erlebt einen tektonischen betrieblichen Wandel. In der Vergangenheit diente die künstliche Intelligenz (KI) in erster Linie als Werkzeug für die individuelle Produktivität. Analysten verwendeten generative Modelle, um Dokumente zusammenzufassen, Richtlinienentwürfe zu erstellen und Workflows zu planen.
Diese punktuellen Effizienzsteigerungen waren notwendig, um die Lage zu sondieren. Heute hat sich die Diskussion gewandelt. Organisationen des öffentlichen Sektors gehen über die Unterstützung bei einzelnen Aufgaben hinaus und koordinieren nun durchgängige organisatorische Prozesse. Agentische KI wird nun in komplexen, mehrstufigen Workflows eingesetzt, um reale Probleme zu lösen – von der Verbesserung der Bürgerdienste bis hin zur Betrugs- und Risikoerkennung.
Dieser Übergang erfordert mehr als nur neue Algorithmen und andere Modelle. Es erfordert ein grundlegendes Umdenken der Datenarchitektur, der Governance-Frameworks und der Beziehung zwischen menschlicher Expertise und maschineller Automatisierung. IT-Führungskräfte müssen sich jetzt darauf konzentrieren, wie sie verteilte Daten sicher mit KI-Agenten verbinden können, um messbare, skalierbare Auswirkungen in ihren Behörden zu erzielen.
1. Investitionen in KI mit messbarem Nutzen
Öffentliche Einrichtungen setzen erhebliche Teile ihrer operativen Budgets ein, um sicherzustellen, dass diese Fähigkeiten zu greifbaren Ergebnissen führen.
Laut Massimiliano Claps, Forschungsdirektor bei IDC, stellen die Behörden beträchtliche Mittel für Innovationen in Richtung KI zur Verfügung. „Wir haben Umfragedaten von mehr als 600 öffentlichen Einrichtungen in den USA gesammelt, von denen 152 aus der Bundesregierung stammten. Sie sagten uns, dass 65 % der von uns befragten Behörden planen, 11 % oder mehr ihres IT-Budgets im Jahr 2026 und in Zukunft für KI bereitzustellen,“ sagt Claps.1 Daher müssen Behörden ihre Technologieinvestitionen direkt mit einer verbesserten Servicebereitstellung und Betriebskontinuität verknüpfen.
Darüber hinaus erwarten etwa 80 % dieser Agenturen einen messbaren Wert innerhalb von 12 Monaten, und sie gehen von einer Verdoppelung der Rendite innerhalb von zwei Jahren aus.1 Diese anspruchsvollen Zeitpläne lassen keinen Raum für isolierte Datensilos. IT-Führungskräfte benötigen eine einheitliche Plattform, die sofortige Transparenz über ihren gesamten operativen Fußabdruck hinweg bietet.
2. Architektur neu denken – für skalierbare Wirkung
KI lässt sich leicht testen, indem man manuell ein paar PDF-Dateien in eine Chat-Schnittstelle einfügt. Aber wie können Sie das auf die historischen Daten eines ganzen Unternehmens skalieren?
Um fragmentierte Daten in eine KI-fähige Grundlage umzuwandeln, bedarf es einer offenen, flexiblen Architektur, die Informationen über verschiedene Umgebungen hinweg miteinander verknüpft. Dave Erickson, Distinguished Architect für den öffentlichen Sektor bei Elastic, merkt dazu an: „Viele Organisationen machen sich Gedanken darüber, wie sie eine offene Architektur gewährleisten können, damit sie kein neues Datensilo schaffen, das auf eine einzelne Cloud oder einen einzelnen Anbieter ausgerichtet ist.“ Er fährt fort: „Man muss darüber nachdenken und das System modular und offen halten. OpenTelemetry ist wichtig, weil es ein gewisses Maß an Plattformunabhängigkeit bietet.“
Dieses Bedürfnis nach Offenheit geht über die Architektur hinaus und betrifft auch, wie Daten gespeichert und abgerufen werden. „Man kann Daten nicht einfach in statischen Speicher-Buckets ablegen und erwarten, dass die KI auf magische Weise Einblicke daraus gewinnt“, fügt James Garside, Senior Customer Enterprise Specialist bei Elastic, hinzu.
Dieser architektonische Wandel erfordert Zeit und Disziplin. Mit Blick auf den Weg des Vereinigten Königreichs fügt Garside hinzu: „Wir haben uns definitiv etwas mehr Zeit für die Umsetzung genommen … um sicherzugehen, dass wir es richtig machen.“
Um das meiste aus diesen Daten herauszuholen, müssen die Teams sofort und präzise in Petabytes von Informationen suchen. Ein solches Leistungsniveau erfordert eine Architektur, die speziell für die schnelle Suche und den Abruf großer Datenmengen ausgelegt ist.
3. Die Neudefinition von Steuerung: vom „Human in the Loop“ zum „Human in the Lead“
„In unserer jüngsten US-Umfrage unter 152 Führungskräften aus den Bereichen IT und operatives Geschäft auf Bundesebene gaben 0 % an, dass sie keine menschliche Aufsicht wünschen“, betont Claps.1 „Das spricht Bände.“
Da die Automatisierung immer komplexere Prozesse übernimmt, entwickelt sich die Rolle des menschlichen Bedieners weiter. Das „Human-in-the-Loop“-Modell, bei dem ein Analyst lediglich auf eine Schaltfläche zum Genehmigen klickt, weicht zunehmend einem „Human-in-the-Lead“-Ansatz. In diesem Modell agiert KI als dedizierter Assistent, verarbeitet Daten im großen Maßstab, während der Mensch die Strategie festlegt und die endgültige Entscheidung trifft.
Erickson stimmt zu. „Es gibt viel Kontext und institutionelles Wissen, das von Menschen stammt.“ „Die Rolle der KI besteht darin, etwas zu automatisieren, von dem wir bereits wissen, wie man es richtig macht“, bemerkt er. Auf diese Weise behalten die Mitarbeiter die Kontrolle und können die Ergebnisse steuern und verfeinern, während gleichzeitig sichergestellt wird, dass das wichtige institutionelle Wissen die treibende Kraft hinter jeder Entscheidung bleibt.
Möchten Sie wissen, was wir bei der KI falsch gemacht haben? Sehen Sie sich das On-Demand-Webinar an, um weitere Einblicke von IDC- und Elastic-Experten zu erhalten.
4. Umgang mit Governance und Vertrauen in Umgebungen, in denen viel auf dem Spiel steht
Vertrauen kann ein Hindernis für die breite Einführung von KI in stark regulierten Umgebungen sein. Wenn eine Maschine einen Fehler macht, den eine Person nicht bemerkt, kann dies zu kostspieliger Nacharbeit führen und möglicherweise das öffentliche Vertrauen schädigen.
Der Aufbau von Vertrauen erfordert einen disziplinierten Governance-Ansatz. Das bedeutet, End-to-End-Prozesse aufzuschlüsseln und je nach Risiko jedes Schritts unterschiedliche Automatisierungsstufen anzuwenden. So könnte etwa eine Zusammenfassung nur minimale Aufsicht erfordern, während die Prüfung der Förderberechtigung für einen Bundeszuschuss eine strenge Validierung verlangt.
„Man muss in der Lage sein, bei der Suche in so vielen Datensätzen in einer föderierten Umgebung die richtigen Governance-Maßnahmen anzuwenden“, sagt Claps. „Man benötigt sowohl auf der Modellebene als auch auf der Datenebene Nachvollziehbarkeit.“
Die Transparenz auf der Datenebene ist es, die letztlich dieses Vertrauen schafft. Wenn Analysten die Eingänge verstehen und die Logik der Ausgänge nachvollziehen können, ist es viel wahrscheinlicher, dass sie KI als Kraftmultiplikator annehmen, anstatt sie als Blackbox-Risiko zu betrachten.
„Ich verwende immer das Wort ‚Bildung‘, aber vieles dreht sich darum, dass Menschen Maschinen vertrauen“, sagt Garside. „Wir müssen ein gewisses Maß an Vertrauen aufbauen, bevor die Menschen bereit sind, andere Menschen aus dem Prozess zu entfernen.“
5. Strategische Autonomie und der Imperativ für eigene KI
Da Daten zum entscheidenden Treibstoff für agentengesteuerte Workflows werden, ist die Kontrolle darüber, wo diese Daten gespeichert sind und wer Zugriff darauf hat, von größter Bedeutung. Souveräne KI hat sich als globale Priorität für Organisationen herausgestellt, die sensible oder klassifizierte Informationen verarbeiten.
Laut IDC nutzen 46 % der befragten Bundesbehörden derzeit irgendeine Form von souveräner KI, und weitere 38 % planen, dies innerhalb der nächsten 12 Monate zu tun.1 Dies spiegelt die wachsende Erkenntnis wider, dass souveräne KI etwas ganz anderes ist als Autarkie. Es geht nicht um Isolation, sondern um die Kontrolle darüber, wo sich die Daten befinden, wie sie ausgetauscht werden und wer mit welchen Rechten Zugriff hat. Um die Unabhängigkeit ihrer technischen Architektur zu pflegen, müssen IT-Führungskräfte sicherstellen, dass sie ihren technischen Stack kontrollieren, angefangen bei der grundlegenden Datenschicht.
Prioritäten für Ihre nächsten Schritte zur KI-Integration setzen
Der Übergang von der individuellen Produktivität zur Missionswirkung ist bereits im Gange. Um Schritt zu halten, müssen Organisationen über isolierte Experimente hinausgehen und sich auf die architektonischen Grundlagen konzentrieren, die KI im großen Maßstab unterstützen.
Führen Sie zunächst ein Audit Ihrer aktuellen Datenlandschaft durch, um Silos zu identifizieren, die den Echtzeitzugriff behindern. Schaffen Sie Governance-Frameworks, die ein Betriebsmodell mit menschlicher Führung priorisieren, damit Ihre Teams die endgültige Kontrolle über kritische Entscheidungen behalten. Investieren Sie schließlich in eine flexible Platform, die Transparenz ermöglicht und die strategische Autonomie über Ihre sensibelsten Informationen pflegt.
Die Verbindung Ihrer verteilten Daten mit den Experten, die sich täglich darauf verlassen, ist der Schlüssel zur Entfaltung des wahren Potenzials von KI. Erfahren Sie in unserem Webinar, wie Sie diese Grundlage für den Erfolg Ihrer Mission schaffen können.
1. IDC, „US Government and Education Buyer Intelligence Survey“ (Umfrageergebnisse, Februar 2026), N=152.
Die Entscheidung über die Veröffentlichung der in diesem Blogeintrag beschriebenen Leistungsmerkmale und Features sowie deren Zeitpunkt liegt allein bei Elastic. Es ist möglich, dass noch nicht verfügbare Leistungsmerkmale oder Features nicht rechtzeitig oder überhaupt nicht veröffentlicht werden.