Verantwortungsvolle Transformation: agentische KI für den öffentlichen Sektor

levi-meir-clancy-VX1qnjEc9fw-unsplash.jpg

Die Welt verändert sich, und künstliche Intelligenz, insbesondere agentische KI, wird zunehmend im privaten und öffentlichen Sektor verankert. 

Für Regierungsbehörden, Strafverfolgungsbehörden und einsatzkritische Organisationen ist die Anpassung an diese neue Realität eine besondere Herausforderung. Einerseits verspricht agentische KI messbare Verbesserungen: modernisierte IT-Workflows, schnellere Analysen, verbesserte Bürgerdienste und betriebliche Effizienz. Aber regulatorische Einschränkungen, Compliance-Anforderungen und Bedenken hinsichtlich der Datensicherheit führen oft zu Zurückhaltung bei der Einführung von KI.

Agentische KI kann Organisationen des öffentlichen Sektors nun dabei helfen, missionskritische Entscheidungen zu beschleunigen, ohne eine schrittweise Anleitung seitens der Mitarbeitenden zu benötigen. KI-Agenten verbessern die Sichtbarkeit und Transparenz, um eine konsistente KI-Governance zu ermöglichen.

In diesem Artikel fassen wir die wichtigsten Punkte aus dem Webinar Putting the responsible back into RAG and agentic AI zusammen.

Erwartung und Zögern

Die Frage lautet: Können KI-Agenten sicher im öffentlichen Sektor eingesetzt werden? Die kurze Antwort lautet: Ja – aber nur, wenn Verantwortung und Governance bewusst in ihre Funktionsweise integriert sind.

Daten sind die Grundlage von KI. Im öffentlichen Sektor sind Daten jedoch äußerst sensibel, und ein Datenleck kann Auswirkungen auf die nationale Sicherheit haben. Das macht die Datensicherheit zum größten Hindernis für die Einführung. Diese Bedenken rufen verständlicherweise Zurückhaltung hervor, doch gleichzeitig wächst die Vorfreude darauf, was KI alles ermöglichen kann.

Bei verantwortungsvollem Einsatz kann agentische KI traditionelle IT-Workflows modernisieren, interne Prozesse optimieren und Organisationen dabei helfen, effizienter zu arbeiten. KI-Agenten arbeiten autonom und benötigen nur minimale menschliche Interaktion.

Im öffentlichen Sektor kann agentische KI die Bürgerdienste verbessern, die Transparenz stärken und dazu beitragen, die Vertrauenslücke zwischen Institutionen und der Öffentlichkeit zu schließen. Gleichzeitig verbessert sie die tägliche Erfahrung der Beamten, die diese Dienste erbringen.

Eine niederländische Verteidigungsorganisation – die DATA-Abteilung des Materiel and IT Command (COMMIT) – bietet ein überzeugendes Beispiel. Sie entwickelte ein internes Air-Gapped-LLM (Large Language Model), das vollständig in einem geschlossenen Netzwerk funktioniert. Durch die Isolierung des Systems vom Internet wurde sichergestellt, dass vertrauliche Informationen sicher blieben. 

Die Erkenntnis: Ein sicheres Deployment von agentischer KI im öffentlichen Sektor ist möglich. Es erfordert jedoch gründliche Recherche, eine robuste Sicherheitsarchitektur, klar definierte Erfolgskennzahlen und einen überzeugenden Business Case, um die Implementierung zu steuern.

Intelligent integrieren: Gründe für eine Investition in KI

Für viele Unternehmen kann die Einführung von KI unerreichbar komplex und ressourcenintensiv erscheinen, besonders wenn keine klaren Erwartungen auf der anderen Seite bestehen. Druck von außen, FOMO und „weil die Experten es gesagt haben“ sind keine Gründe, in KI zu investieren. Eine nachhaltige Einführung beginnt mit einem klaren Ziel. 

Die richtigen Gründe, in agentische KI zu investieren, sind konkret: 

  • Lösung eines spezifischen operativen Problems 

  • Verbesserung der Bürgerdienste 

  • Verbesserung der Arbeitsbedingungen für Beschäftigte im öffentlichen Dienst

Zum Beispiel kann die Integration einer KI-gestützten Suche in öffentlich zugängliche Websites die Zugänglichkeit erheblich verbessern, sodass Bürger Informationen in klarer Sprache finden können, anstatt sich durch komplexe institutionelle Strukturen zu navigieren. Dies verbessert nicht nur das Nutzererlebnis, sondern reduziert auch den Druck auf die Mitarbeitenden im Kundenservice, da weniger Anrufe eingehen und sich wiederholende Anfragen reduziert werden.

Intern können KI-Agenten zeitaufwändige Verwaltungsaufgaben automatisieren, sodass sich die Mitarbeitenden auf wichtigere Aufgaben konzentrieren können. In einem Sektor, der seit jeher mit Personalmangel kämpft, wirkt sich die Verbesserung der Bedingungen am Arbeitsplatz direkt auf die Rekrutierung und Bindung von Mitarbeitenden aus.

Volle Freiheit vs. vollständiger Ausschluss: der Umgang mit KI-Tools

Vor KI gibt es kein Entkommen. Generative KI-Tools (GenAI) sind für Privatpersonen weithin zugänglich, und die Mitarbeitenden experimentieren bereits in ihrem Alltag mit ihnen. Daher können sich Organisationen des öffentlichen Sektors nicht einfach davon abwenden.

Uneingeschränkter Zugriff auf öffentliche KI-Tools kann äußerst sensible Bürgerdaten gefährden. Ohne angemessene Aufsicht setzen sich Unternehmen Datenschutzverletzungen, Compliance-Verstößen und Datenlecks aus.

Vollständiger Ausschluss führt oft zu Schatten-KI-Agenten. Mitarbeitende greifen unautorisiert auf nicht genehmigte Tools zurück – was das Risiko von Datenlecks erhöht, diesmal jedoch ohne jegliche Transparenz oder Governance.

Die Lösung besteht darin, eine bewusste, strategische Entscheidung darüber zu treffen, wo sich Ihre Organisation im Spektrum des KI-Zugriffs positionieren sollte, basierend auf ihrem spezifischen Risikoprofil und ihrer Risikotoleranz.

Eine sicherheitsorientiert gestaltete Infrastruktur ist entscheidend:

  • Air-Gapped- oder lokal gehostete LLMs, falls erforderlich

  • Kontrollierte Deployment-Pipelines

  • Klare Governance, die festlegt, wer welche Werkzeuge nutzen darf und wie

Die Nutzung offener Standards stärkt zusätzlich die langfristige Resilienz, verhindert Anbieterbindung und macht Ihre Lösung zukunftssicher.

Denken Sie daran: Zukunftssicherheit ist sowohl technisch als auch organisatorisch. Technologie, die nicht intern verstanden, verwaltet oder verbessert werden kann, erzeugt Abhängigkeit von externen Anbietern.

Der Aufbau eines internen Hubs für KI-Wissen und -expertise stellt sicher, dass Ihre Organisation die Fähigkeit entwickelt, Werkzeuge kritisch zu bewerten, sie verantwortungsvoll einzusetzen und ihre Nutzung kontinuierlich zu optimieren. Durch Investitionen in die Schulung der Nutzer und in internes Fachwissen verringern Sie die Abhängigkeit von externen Anbietern und schaffen langfristige Resilienz.

Vorteile einer RAG-Lösung

Die Implementierung von KI-Agenten im öffentlichen Sektor hängt von wichtigen Herausforderungen ab: Datensicherheit, kontrollierter Zugriff auf Informationen und ein missionskritisches Bedürfnis nach Relevanz und Genauigkeit. Hier kommt Retrieval Augmented Generation (RAG) ins Spiel. 

Eine typische Interaktion mit einem GenAI-Modell birgt das Risiko, dass sensible Daten offengelegt werden und kann häufig Halluzinationen hervorrufen, da das Modell auf veraltete Internetdaten zurückgreift. Durch die Trennung Ihres Modells von externen Daten und die Einbindung Ihrer Wissensbasis in den Prozess können Sie kontrollieren, welche Daten das Modell zur Erzeugung von Ausgängen verwendet, den Zugriff konsolidieren und die Nachvollziehbarkeit von KI-Ausgängen ermöglichen.

Mit anderen Worten: RAG stützt die Reaktionen der agentischen KI auf die eigene, verifizierte Wissensdatenbank einer Organisation, sodass Modelle Antworten ausschließlich auf der Grundlage genehmigter interner Daten generieren können. 

Die Implementierung von RAG bringt jedoch eine neue Herausforderung mit sich: Für ein effektives RAG-Deployment ist der Zugriff auf Daten erforderlich, und in den meisten Organisationen des öffentlichen Sektors sind diese Daten stark fragmentiert. Strukturierte Datenbanken, NoSQL-Systeme und riesige Mengen unstrukturierter Dokumente sind im gesamten Ökosystem verstreut. 

Ein Data-Mesh-Ansatz kann helfen, diese verstreuten Datensätze zu verbinden und sie so als einheitliche Wissensschicht für KI-Anwendungen nutzbar zu machen. Das Ergebnis ist eine sichere, intelligente Such- und Assistenzfunktion, die fortschrittliche Anwendungsfälle wie KI-gestützte Suchlösungen oder sogar die Erkennung von Angriffen in einer kontrollierten RAG-Umgebung ermöglicht, ohne die Datensouveränität zu beeinträchtigen.

Best Practices für agentische KI

Der Einsatz agentischer KI in Regierungsbehörden ist möglich, muss jedoch wohlüberlegt und zielgerichtet erfolgen. Um agentische KI im öffentlichen Sektor zu ermöglichen, müssen Sie ein Tool-Ökosystem aufbauen. Anschließend entscheidet das LLM, welche Tools für welche Antworten verwendet werden. Das kann ziemlich kompliziert werden.

Für eine effektive Integration müssen Sie:

  • Lösungen finden, die sich in Ihre aktuellen Systeme integrieren lassen. Eigenständige Systeme, die nicht integriert werden können, verursachen mehr Probleme.

  • Berücksichtigen Sie die KI-Reife bei der Untersuchung von Produkten. Lassen Sie sich nicht vom Hype einfangen. 

  • schrittweise integrieren. Kleine, spezifische Deployments mit regelmäßigen Überprüfungen anhand Ihrer Erfolgskriterien stellen sicher, dass Sie die Kontrolle behalten.

  • menschliche Faktoren stets im Blick behalten. Dies ist eine Frage der Beobachtbarkeit, Rückverfolgbarkeit und Verantwortlichkeit. 

Melden Sie sich an, um das Webinar Putting the responsible back into RAG and agentic AI auf Abruf anzusehen und sich tiefer mit Strategien zur Einführung von KI, Best Practices und Anwendungsfälle zu befassen. Oder kontaktieren Sie uns.

Die Entscheidung über die Veröffentlichung der in diesem Blogeintrag beschriebenen Leistungsmerkmale und Features sowie deren Zeitpunkt liegt allein bei Elastic. Es ist möglich, dass noch nicht verfügbare Leistungsmerkmale oder Features nicht rechtzeitig oder überhaupt nicht veröffentlicht werden.

In diesem Blogpost haben wir möglicherweise generative KI-Tools von Drittanbietern verwendet oder darauf Bezug genommen, die von ihren jeweiligen Eigentümern betrieben werden. Elastic hat keine Kontrolle über die Drittanbieter-Tools und übernimmt keine Verantwortung oder Haftung für ihre Inhalte, ihren Betrieb oder ihre Anwendung sowie für etwaige Verluste oder Schäden, die sich aus Ihrer Anwendung solcher Tools ergeben. Gehen Sie vorsichtig vor, wenn Sie KI-Tools mit personenbezogenen, sensiblen oder vertraulichen Daten verwenden. Alle von Ihnen eingegebenen Daten können für das Training von KI oder andere Zwecke verwendet werden. Es gibt keine Garantie dafür, dass von Ihnen bereitgestellte Informationen sicher oder vertraulich behandelt werden. Setzen Sie sich vor Gebrauch mit den Datenschutzpraktiken und den Nutzungsbedingungen generativer KI-Tools auseinander. 

Elastic, Elasticsearch und zugehörige Marken sind Marken, Logos oder eingetragene Marken von Elasticsearch B.V. in den Vereinigten Staaten und anderen Ländern. Alle anderen Unternehmens- und Produktnamen sind Marken, Logos oder eingetragene Marken ihrer jeweiligen Eigentümer.