Hier finden Sie die Leitfragen zu dem Datenraum „Verwaltung und Kommunen“. Weitere Details zu den Datenräumen finden Sie im Eckpunkte-Papier (PDF).
- Was sind die Use Cases? Welche Teildatenräume braucht es dafür?
- Welche Daten sollten priorisiert werden? In welcher Qualität und insbesondere Aktualität müssen diese vorgehalten sein?
- Welche Standards sollten gewahrt sein?
- Wer sind die Bereitstellenden und die Nutzenden?
Kommentare : zur Verwaltung und Kommunen
Sie konnten den Themenbereich bis zum 8. Mai 2025 kommentieren. Vielen Dank für Ihre Kommentare!
Datenraum Verwaltung und Kommunen
Das Landesarchiv bildet und aggregiert historische Verwaltungsdaten der Behörden, Gerichte und sonstigen Stellen des Landes von bleibendem Wert und macht diese bereits auf unterschiedlichen Kanälen zugänglich. Bei der Transparenz und Nachvollziehbarkeit von Verwaltungsprozessen kommt dem Archiv eine Schlüsselrolle zu. Neben dem eigenen
Das Landesarchiv bildet und aggregiert historische Verwaltungsdaten der Behörden, Gerichte und sonstigen Stellen des Landes von bleibendem Wert und macht diese bereits auf unterschiedlichen Kanälen zugänglich. Bei der Transparenz und Nachvollziehbarkeit von Verwaltungsprozessen kommt dem Archiv eine Schlüsselrolle zu. Neben dem eigenen Archiv-Onlineinformationssystem betreibt das Landesarchiv auch das Regionalportal LEO-BW, das 4 Mio. Datensätze von über 50 kooperierenden Einrichtungen des Landes und der Kommunen über einen zentralen Zugang gebündelt anbietet.
Ein Schwerpunkt der Aufgaben des Landesarchivs liegt inzwischen auf der Entwicklung von Verfahren zur Datenaufbereitung, um die in der Verwaltung generierten heterogenen Daten in Standardformate zu konvertieren und ggf. mit weiteren maschinenlesbaren Informationen (v.a. Normdaten) anzureichern. Die im Archiv aggregierten Daten sollen wiederum für digitale Prozesse und Anwendungen in adäquater Form (z.B. über APIs) bereitgestellt werden. Dafür müssen die zentralen Fachverfahren zur Erschließung, also Metadatenverwaltung, und Bereitstellung konsequent weiterentwickelt werden, damit einerseits KI basierte Workflows und Technologien zur Datengenerierung implementiert und unterstützt werden sowie andererseits nach außen die Anschlussfähigkeit über standardisierte Schnittstellen und Metadatenformate zu übergreifenden Infrastruktur-Ökosystemen wie Datenräumen gewährleistet ist. Insbesondere die Umstellung bzw. Kompatibilität von einrichtungs- oder domänenspezifischen Metadatenschemata auf semantische Datenmodelle und die Bereitstellung von Exportformaten wie RDF ist von größter Bedeutung, um Silos aufbrechen und Daten unterschiedlichster Provenienzen miteinander vernetzen und nachnutzen zu können.
Die forcierte Auseinandersetzung mit KI-Methoden und deren Implementierung erfordert nicht nur leistungsfähige technische Rahmenbedingungen (Hardware und Software), sondern auch entsprechend abgesicherte Systeme oder „Datenräume“, um sensible Daten verarbeiten und z.B. erforderliche LLM-Modelle trainieren zu können. Für die Bereitstellung von rechtebewehrten Daten für die Nutzung werden wiederum spezielle Zugangssysteme mit idealerweise landesweit gültigen Authentifizierungsmechanismen benötigt.
Mit Blick auf weitere relevante Use Cases des Datenraums ist aus Sicht des Landesarchivs neben der Generierung und Bereitstellung von (Meta-)Daten auch die Analyse und Bewertung von Daten nach unterschiedlichen Kriterien in den Blick zu nehmen. Denn ein wichtiges Handlungsfeld nicht nur für den Archivbereich besteht darin, auch die mit dem Digitalen verbundenen Risiken von Manipulationen mit geeigneten Instrumenten anzugehen. Um die Authentizität von Daten und Fakten gewährleisten zu können, gibt es bereits verschiedene Ansätze (z.B. kryptografische Prüfsummen, Blockchain-Technologien, KI-basierte Mustererkennung für gefälschte Dokumente oder Bilder), die für die öffentlichen Einrichtungen nutzbar gemacht werden könnten.
Priorisierung von Daten
Welche Daten sollten priorisiert werden? In welcher Qualität und insbesondere Aktualität müssen diese vorgehalten sein?
Nach Möglichkeit sollte immer in Datenströmen gedacht werden, die möglichst aktuelle Daten liefern. Daraus lassen sich kurzfristige Prognosen ableiten und sie passen besser zum situativen Agieren der (sozialen) Medien.
Bereitsteller und die Nutzer
Wer sind die Bereitstellenden und die Nutzenden? Verwaltung und Kommunen sollten sich bemühen, Daten, bei denen sie sowohl Bereitsteller als auch Nutzer sind, im Sinne eines „open loop“ öffentlich zur Verfügung zu stellen, statt sie nur intern zu verarbeiten. Dies hat den Vorteil, dass Orientierungswerte für Fragen wie Qualität und Häufigkeit
Wer sind die Bereitstellenden und die Nutzenden?
Verwaltung und Kommunen sollten sich bemühen, Daten, bei denen sie sowohl Bereitsteller als auch Nutzer sind, im Sinne eines „open loop“ öffentlich zur Verfügung zu stellen, statt sie nur intern zu verarbeiten. Dies hat den Vorteil, dass Orientierungswerte für Fragen wie Qualität und Häufigkeit der Bereitstellung direkt aus der eigenen Nutzung abgeleitet werden können. Das typische „Henne-Ei-Problem“, bei dem ohne Daten keine Anwendungen gefunden werden und ohne Anwendungen unklar ist, welche Daten benötigt werden, entfällt. Zudem ist der Mehraufwand für die öffentliche Bereitstellung in der Regel gering.
Anmerkungen des LfDI BW zum Datenraum Verwaltung und Kommunen
Ein Kompetenzzentrum KI für die Landesverwaltung begrüßen wir sehr. Wichtig ist hierbei, von Anfang an den Datenschutz mitzudenken. Zahlreiche Beispiele aus der Vergangenheit haben gezeigt, dass es Voraussetzung für das gute Gelingen und die Umsetzbarkeit eines Vorhabens ist, dass von Anfang an sämtliche Akteure mit einbezogen werden. Das
Ein Kompetenzzentrum KI für die Landesverwaltung begrüßen wir sehr. Wichtig ist hierbei, von Anfang an den Datenschutz mitzudenken. Zahlreiche Beispiele aus der Vergangenheit haben gezeigt, dass es Voraussetzung für das gute Gelingen und die Umsetzbarkeit eines Vorhabens ist, dass von Anfang an sämtliche Akteure mit einbezogen werden. Das frühzeitige Bedenken des Datenschutzes und das frühzeitige Einbinden der entsprechenden Akteure (behördliche Datenschutzbeauftragte, Aufsichtsbehörde etc.) spart Zeit, Ressourcen und kann die öffentlichen Stellen entlasten. Daneben könnten auch erhebliche Ressourcen eingespart werden, wenn neue Anwendungen und Themen zentralisiert für alle Akteure auf Datenschutzkonformität geprüft würden.
Nach unserer Erfahrung bei der Vermittlung von LIFG-Anträgen interessieren sich viele Bürgerinnen und Bürger häufig für Verträge der öffentlichen Hand mit Anwaltskanzleien oder Beratungsunternehmen und Grundstückskaufverträge. Diese Daten und Informationen werden in den Haushaltssatzungen nur summarisch und oft versteckt abgebildet. Veröffentlichungen für ausgewählte Haushaltstitel können ein gutes Fundament für eine faktenbasierte Informationsbereitstellung bilden. Beispiele wären hierfür: Kinderbetreuungskosten pro Kind, Einnahmen durch Grundstücksverkäufe, Förderungen für Vereine oder Ausgaben für Anwälte bzw. Beraterverträge (unter Wahrung von Betriebs- und Geschäftsgeheimnissen). Als zusätzlich gewinnbringender Effekt könnten LIFG-Anträge zu diesen Themen vermieden werden.
Sowohl die Öffentlichkeit als auch die Verwaltung können Daten und Informationen im Rahmen spezifischer Projekte zusammentragen. Die Aufbereitung und Bereitstellung muss durch die öffentliche Verwaltung erfolgen. Nutzende sind neben Bürgerinnen und Bürgern, der Forschung und den Unternehmen auch die Verwaltung selbst, was durch die wissenschaftlichen Evaluierungen der Transparenzgesetze einiger Länder bestätigt wird.
Fokus auf Linked Open Data, Basisinfrastrukturen und Offene Standards
Wie in der gesamten Strategie wird auch hier wiederholt von „KI“ gesprochen ohne genauer zu spezifizieren, welche Art von KI-Systemen gemeint ist. Aus dem Kontext scheint es, dass hier vorwiegend konnektionistische KI-Systeme und im Besonderen generative KI-Systeme gemeint sein sollen. Aufgrund der architekturbedingten heuristischen
Wie in der gesamten Strategie wird auch hier wiederholt von „KI“ gesprochen ohne genauer zu spezifizieren, welche Art von KI-Systemen gemeint ist. Aus dem Kontext scheint es, dass hier vorwiegend konnektionistische KI-Systeme und im Besonderen generative KI-Systeme gemeint sein sollen.
Aufgrund der architekturbedingten heuristischen Herangehensweise konnektionistischer Modelle sind generative KI-Systeme jedoch insbesondere fuer Bereiche, in denen deterministische und verlaessliche Ausgaben erforderlich sind, prinzipiell ungeeignet. Das schliesst insbesondere das regelbasierte Handeln der Verwaltung und die verlaessliche Auswertung von Datenbestaenden ein. Hier ist es geboten, umso staerker auf symbolische KI-Systeme mit regel- und logikbasierten Ansaetzen zu setzen, die verlaessliches, nachvollziehbares und transparentes Schlussfolgern ermoeglichen.
Um die Grundlagen fuer verlaessliche Auskuenfte mit regelbasierten Systemen zu schaffen, sollte jeglicher Datenumgang im Land auf das Ziel von Linked Data, also semantischer Wissensspeicherung ausgerichtet sein. Die z.B. von Dr. Plavec beschriebenen Probleme bei der journalistischen Auswertung staatlicher Informationen stellen sich gar nicht mehr in dieser Form, wenn die Daten semantisch interoperabel gespeichert werden. Groesster Profiteur dieser Herangehensweise waere dabei die Verwaltung selbst; die verbesserte Qualitaet und Menge wiederverwendbarer offener Daten ist dabei praktisch nur ein Abfallprodukt und Indikator fuer eine gelungene Verwaltungsmodernisierung.
Der Aufbau der hierfuer noetigen Basisinfrastrukturen sollte zentraler Fokus aller Aktivitaeten sein. Ich empfehle, von eher fassadenlastigen Projekten wie „urbanen Datenplattformen“ waehrend der Zeit dieses Aufbaus grusslos Abstand zu nehmen. Auch die Einrichtung von Datenraeumen ist strategisch eigentlich eine Aufgabe, die erst _nach_ der Schaffung der Grundlagen fuer semantische Datenhaltung ueberhaupt Sinn ergibt: Fuer die Anteile von Informationen, die ohnehin direkt veroeffentlicht werden duerfen, ergibt ein Datenraum keinen Mehrwert ueber eine klassische Linked-Data-Veroeffentlichung hinaus.
Zu den von Prof. von Lucke vorgeschlagenen Datenraeumen
Prof. von Lucke hat in seinem Kommentar eine ganze Reihe von Datenraeumen vorgeschlagen. Datenraeume sind im Sinne u.A. des DGA als Austauschplattformen zu verstehen, in denen _zugangsgeschuetzt_ gewisse Daten ausgetauscht werden koennen, die aufgrund von Einschraenkungen nicht ohnehin als Open Data veroeffentlicht werden koennen (oder dies
Prof. von Lucke hat in seinem Kommentar eine ganze Reihe von Datenraeumen vorgeschlagen. Datenraeume sind im Sinne u.A. des DGA als Austauschplattformen zu verstehen, in denen _zugangsgeschuetzt_ gewisse Daten ausgetauscht werden koennen, die aufgrund von Einschraenkungen nicht ohnehin als Open Data veroeffentlicht werden koennen (oder dies aufgrund einschlaegiger Bestimmungen sogar muessten, was ein Angebot lediglich in einem Datenraum ad absurdum fuehren wuerde).
Im Einzelnen zu den Vorschlaegen:
- „Parlamentarischer Datenraum“: Bei den Informationen handelt es sich um solche, die ohnehin veroeffentlicht werden, die als amtliche Informationen nicht dem Urheberrecht unterliegen, oder die auch formell als 5-Sterne-Open-Data veroeffentlicht werden sollten. Ein „Datenraum“ hierzu waere geradezu absurd. Richtig ist aber, dass der Zugang zu diesen Informationen nach Linked-Open-Data-Prinzipien sichergestellt werden sollte.
- „Ratsdatenräume“: Analog zum Parlamentarischen Datenraum. Hier besteht allerdings seit ueber 10 Jahren ein Handlungs- und Umsetzungsdefizit, die Informationen aus den Ratsinformationssystemen ueber die etablierten Standardschnittstellen als Open Data zu veroeffentlichen. Das Land koennte den Kommunen hier als Betreiber eines geeigneten Frontends zur Seite stehen, wie es aus dem Digitalen Ehrenamt (z.B. Politik-bei-uns) als Freie Software entwickelt wurde.
- „Justizdatenraum“: Analog zu oben, auch hier liegen keine geschuetzten Daten vor, ein Datenraum waere hier absurd. 100% Veroeffentlichung aller veroeffentlichungsfaehigen Daten aus der Justiz sollte dennoch ein Ziel einer modernen Datenstrategie sein.
Daten-Qualität vor Quantität
Auf Seite 1 wird betont, dass sowohl die Menge als auch die Qualität von Daten als Grundlage für den Einsatz von Künstlicher Intelligenz entscheidend seien. Aus meiner Sicht stellt die Datenqualität jedoch eine notwendige Bedingung dar, die erst durch Skalierung (Datenmenge) ihren vollen Nutzen entfalten kann. Daraus ergäbe sich eine logische
Auf Seite 1 wird betont, dass sowohl die Menge als auch die Qualität von Daten als Grundlage für den Einsatz von Künstlicher Intelligenz entscheidend seien. Aus meiner Sicht stellt die Datenqualität jedoch eine notwendige Bedingung dar, die erst durch Skalierung (Datenmenge) ihren vollen Nutzen entfalten kann. Daraus ergäbe sich eine logische Priorisierung: Zuerst müssen qualitätsgesicherte Daten vorliegen, dann kann deren Skalierung erfolgen.
Einbindung bestehender Dateninfrastrukturen für eine föderierte Governance
Obwohl das Dokument einen föderierten Ansatz in Datenhaltung und -analyse vorsieht, was sehr zu begrüßen ist, wäre es evtl. sinnvoll, bestehende Dateninfrastrukturen explizit zu benennen – insbesondere die Statistischen Landesämter und abgeschotteten kommunalen Statistikstellen. Diese könnten zentrale Rollen im Rahmen einer föderalen Data
Obwohl das Dokument einen föderierten Ansatz in Datenhaltung und -analyse vorsieht, was sehr zu begrüßen ist, wäre es evtl. sinnvoll, bestehende Dateninfrastrukturen explizit zu benennen – insbesondere die Statistischen Landesämter und abgeschotteten kommunalen Statistikstellen. Diese könnten zentrale Rollen im Rahmen einer föderalen Data Governance übernehmen, etwa als Datenkuratoren oder Data Governance Manager. In den jeweiligen Ressorts könnten dann Datenverantwortliche in einer Art Data Steward-Funktion etabliert werden.
Nutzung bestehender rechtlicher Möglichkeiten zur Schaffung vernetzter Datenräume
Angesichts der rechtlichen Rahmenbedingungen – insbesondere unter Berücksichtigung des Rück- und Weiterspielverbots (BVerfG, 19.09.2018, 2 BvF 1/15, Rn. 225 i.V.m. BVerfG, 15.12.1983, Az. 1 BvR 209/83 u.a.) – besteht bereits heute auf Grundlage von §9 LStatG BW die Möglichkeit, personenbezogene Daten über abgeschottete (kommunale) Statistikstellen
Angesichts der rechtlichen Rahmenbedingungen – insbesondere unter Berücksichtigung des Rück- und Weiterspielverbots (BVerfG, 19.09.2018, 2 BvF 1/15, Rn. 225 i.V.m. BVerfG, 15.12.1983, Az. 1 BvR 209/83 u.a.) – besteht bereits heute auf Grundlage von §9 LStatG BW die Möglichkeit, personenbezogene Daten über abgeschottete (kommunale) Statistikstellen weiterzuverarbeiten. Dies legt nahe, dass auf Basis bestehender Strukturen sofort ein vernetzter Datenraum realisiert werden könnte. Durch technische Maßnahmen wie eine einheitliche Anonymisierung (z.B. k-Anonymity oder Cell-Key-Verfahren) könnte zudem eine datenschutzkonforme und standardisierte Auswertung ermöglicht werden – evtl. ganz ohne zusätzlichen gesetzgeberischen Aufwand. Analog gilt dies für die Historisierung von Datenbeständen.
Förderung von Data Literacy insbesondere zu Datenvertriebswegen
Zur Verbesserung der übergreifenden Datenverfügbarkeit sollte dieser Aspekt innerhalb der Data Literacy gestärkt werden – insbesondere durch die Förderung und Unterstützung bestehender, funktionierender Datenvertriebswege. Damit kann ein effizienter und reibungsloser Datenaustausch über verschiedene Verwaltungsebenen (Gemeinde, Kreis, Land, Bund,
Zur Verbesserung der übergreifenden Datenverfügbarkeit sollte dieser Aspekt innerhalb der Data Literacy gestärkt werden – insbesondere durch die Förderung und Unterstützung bestehender, funktionierender Datenvertriebswege. Damit kann ein effizienter und reibungsloser Datenaustausch über verschiedene Verwaltungsebenen (Gemeinde, Kreis, Land, Bund, EU) hinweg gewährleistet werden.