neXsolut Blog – Strategien für KI, Digitalisierung & Automatisierung

Kann eine KI einen Ministerposten bekleiden?

Geschrieben von Maximilian Roeder | 16.09.2025 09:30:00

Wenn Algorithmen in die Politik einziehen
"100 Prozent unbestechlich" – mit diesem Versprechen, das nach Science-Fiction klingt, aber
tatsächlich Realität ist, präsentierte Albaniens Premier Edi Rama am 12. September 2025 seine neueste Waffe gegen die Korruption: eine KI namens "Diella", die er kurzerhand zur virtuellen Ministerin für das öffentliche Beschaffungswesen ernannte. Das Ziel? Korruption ausmerzen, Transparenz maximieren und den EU-Beitritt beschleunigen. Rama sprach sogar von der "ersten virtuell geschaffenen Ministerin" weltweit. Doch hier beginnt das juristische Abenteuer: Nicht Rechenleistung erzeugt Rechtsverbindlichkeit, sondern menschliche Verantwortung.

Das albanische Experiment: Diella kurz vorgestellt
Was genau soll Diella eigentlich tun? Nach den Ankündigungen von Premier Rama soll sie öffentliche  Ausschreibungen prüfen und damit der Korruption den Garaus machen. Die staatliche IT-Agentur AKSHI werkelt an der Umsetzung auf Microsoft-Infrastruktur, wobei öffentlich verifizierbare Details bislang so rar sind wie ehrliche Politiker in Wahlkampfzeiten.
Hier wird es spannend: Albaniens Verfassung kennt Minister als menschliche Amtsträger mit
parlamentarischer Verantwortlichkeit. Eine KI kann diese Anforderungen schlichtweg nicht erfüllen – sie kann weder einen Amtseid leisten noch per Misstrauensvotum aus dem Amt gejagt werden. Die Opposition bezeichnet das Projekt folgerichtig als verfassungswidrig. Und dann bleiben da noch die praktischen Fragen: Wer zeichnet eigentlich rechtsverbindlich? Wer steht vor Gericht, wenn etwas schiefgeht? Nach welchen Kriterien entscheidet die KI, und wer kontrolliert sie?

Die vier großen Herausforderungen
Verantwortung und Haftung: Der menschliche Faktor bleibt unverzichtbar
Die zentrale These lautet: Rechtsverbindlichkeit entsteht durch menschliche Verantwortung, nicht durch algorithmische Präzision. Der EU-AI-Act, dieser juristische Mammut der KI-Regulierung, stuft Verwaltungs- und Beschaffungs-KI typischerweise als Hochrisiko ein und verlangt zwingend eine wirksame menschliche Aufsicht. Für Diella bedeutet das: Selbst wenn sie die perfekte Zuschlagsempfehlung berechnet, muss am Ende ein Mensch aus Fleisch und Blut die Entscheidung treffen, unterschreiben und notfalls vor Gericht den Kopf hinhalten.
Ethik, Bias und Transparenz: Unbestechlich heißt nicht unvoreingenommen "Unbestechlich" klingt toll, bedeutet aber noch lange nicht "unvoreingenommen". Wenn eine KI mit Datensätzen aus korruptionsanfälligen Vergabeverfahren gefüttert wird, kann sie deren Verzerrungen munter fortschreiben. Verschiedene Staaten reagieren darauf mit Transparenzstandards wie dem britischen Algorithmic Transparency Recording Standard (ATRS), der seit 2024 für Zentralbehörden verpflichtend ist. Die Praxis zeigt allerdings erhebliche Umsetzungslücken. Für die EU-Beschaffung gilt weiterhin: Begründungspflichten und Debriefings bleiben zentral – auch wenn Algorithmen die Vorarbeit leisten.

Rechtliche und verfassungsrechtliche Hürden
Die Europarats-KI-Konvention, seit September 2024 zur Unterzeichnung offen, betont
Menschenrechte, Demokratie und Rechtsstaat. Der EU-AI-Act schafft verbindliche Anforderungen für Risikomanagement, Datenqualität und Aufsicht. Ohne Spezialgesetz oder Verfassungsänderung bleibt der Titel "Ministerin" für eine KI jedoch eine politische Metapher – ein bisschen wie wenn man seinen Staubsaugerroboter zum Hausmeister ernennt. Rechtswirksame Amtsträgereigenschaft? Fehlanzeige.

Gesellschaftliche Akzeptanz versus Fachkompetenz
Hier liegt der Hund begraben: Die Fragen von Verantwortung, Ethik, Recht und Akzeptanz wiegen schwerer als reine Daten- und Analysekompetenz. Internationale Beispiele zeigen, dass fehlende Legitimation und Transparenz Projekte zum Scheitern bringen können – man denke nur an den niederländischen Fall SyRI vom Februar 2020, wo ein Gericht die Reißleine zog. Erfolgreich sind hingegen Assistenz-Modelle wie Estlands "Bürokratt", die unterstützen statt ersetzen.

Wie könnte es funktionieren? Governance-Modelle für die Praxis
Die Lösung liegt nicht darin, die KI zur Ministerin zu krönen, sondern sie sinnvoll in bestehende
Strukturen einzubetten. Ein bewährtes Modell ist die Entscheidungsunterstützung mit "Human-in-theLoop by default": Die KI liefert Ranglisten und Begründungsentwürfe, während Menschen die finale Entscheidung treffen, zeichnen und begründen – natürlich mit Vier-Augen-Prinzip. Der EU-AI-Act schreibt dies ohnehin vor, inklusive Override-Möglichkeit und Stop-Button.  Für Routinefälle könnte man über teil-autonome Entscheidungen nachdenken, etwa bei Standardvergaben unterhalb bestimmter Schwellenwerte. Aber auch hier braucht es Audit-Logs,
präventive Datenschutz-Folgenabschätzungen und nachträgliche Reviews. Ein interdisziplinäres
Oversight-Board aus Vertretern von Recht, Ethik, Technik, Beschaffung und Zivilgesellschaft könnte Modelländerungen freigeben und jährliche Berichte ans Parlament liefern.

Die Haftungskaskade muss klar geregelt sein: Politisch verantwortlich bleibt der Minister oder
Amtschef, operativ die Vergabestelle, technisch der IT-Betrieb, und der Anbieter haftet vertraglich für sein Produkt. Transparenz ist dabei nicht optional: Ohne öffentliche Kriterien, Modellkarten und Register kippt die gesellschaftliche Akzeptanz schneller als eine Regierung in Krisenzeiten.

Die üblichen Einwände – und warum sie nicht stechen
"KI ist unbestechlich, also gerechter!" – Schön wär's. Unbestechlichkeit ist nicht gleich
Unvoreingenommenheit. Ohne saubere Daten, Gegenprüfungen und Rechtsmittel bleiben
systematische Fehlentscheidungen möglich. "Automatisierung spart Kosten!" – Mag sein, aber ohne rechtssichere Prozesse drohen Mehrkosten durch Anfechtungen und Projektstopps. Begründbarkeit ist vergaberechtlich nun mal zwingend. "Andere Länder machen's doch auch!" – Ja, aber als Assistenz wie Estlands "Bürokratt" oder als virtuelle Sprecherin wie Ukraines "Victoria Shi", nicht als rechtsverbindlicher Amtsträger. "Elektronische Signatur reicht doch!" – Leider nein. Die eIDAS-Verordnung kennt die Signatur des Signatars als natürliche Person. KI kann nicht Unterzeichner sein. Juristische Personen nutzen  elektronische Siegel – aber eine KI ist auch keine juristische Person.

Ein Blick in die Zukunft: Was bleibt?
Die klaren Thesen lauten: Eine KI kann keine Ministerin sein – das Amt erfordert menschliche
Legitimation, Rechenschaft und Haftung. KI kann Vergaben durchaus verbessern, wenn sie unterstützt statt ersetzt, mit Human-in-the-Loop, Begründungspflichten und ordentlichen Logs. Transparenz ist dabei nicht optional, und am Ende schlägt Rechtsstaat immer Rechenleistung: Fachkompetenz ohne Verantwortung bleibt politisch wertlos.

Als kleines Gedankenexperiment zum Schluss: Bei Langstreckenmissionen ins Weltall, die länger dauern als ein Menschenleben, könnte man über KI-gestützte teil-autonome Entscheidungen nachdenken. Aber selbst dort bleibt "Führung" im politischen Sinn an Legitimation und Verantwortlichkeit geknüpft. Übertragbar auf Ministerien: KI kann Prozesse steuern, aber nicht politisch führen – denn Führen erfordert Rechenschaft. Und die kann man nicht debuggen.


Autor: Philipp Diekmann (mit einer kleinen Fußnote in eigener Sache)
Dieser Text wurde – Überraschung – mit KI-Unterstützung erstellt. Und jetzt das juristische
Schmankerl: Nach deutschem Urheberrecht (§ 2 Abs. 2 UrhG) brauchen Werke eine persönliche
geistige Schöpfung eines Menschen. Reine KI-Outputs haben demnach – so die herrschende Lehre – keinen Urheber. Wenn aber eine KI schon (angeblich) Ministerin werden darf, dürfte ich dann wenigstens als Urheber gelten, weil ich die KI mit meinem Prompt (aka mein Geistesblitz) dirigiert habe?

Sagen wir so: Solange die KI nicht den Amtseid spricht, unterschreibe ich gern – als natürlicher
Mensch – für Inhalt, Auswahl und Verantwortung. Die KI war nur mein eifriger Referent. (Und
Referenten werden bekanntlich selten auf das Deckblatt gedruckt.)