Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Der Bundesrat hat mit seiner Entscheidung, die KI-Konvention des Europarats zu ratifizieren, den Gesetzgebungsprozess zur KI-Regulierung ausgelöst. Dennoch bleiben noch einige Fragen offen: Wie wird die Schweiz Transparenz beim staatlichen Einsatz von algorithmischen Systemen gewährleisten? Welche Anforderungen wird sie an die Begründung automatisierter Entscheide stellen? Welche Massnahmen wird sie gegen Diskriminierung und Manipulation durch KI ergreifen? Dieser Sammelband bündelt Beiträge aus dem Forschungsprojekt «Nachvollziehbare Algorithmen: Ein Rechtsrahmen für den Einsatz von Künstlicher Intelligenz». Die Aufsätze bieten einen Überblick über offene Fragen im öffentlichen Recht und beleuchten insbesondere die Verfügung im Kontext algorithmischer Entscheidungen.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 317
Veröffentlichungsjahr: 2025
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Schriften aus dem ITSL, herausgegebenvon Florent Thouvenin und Rolf H. Weber
Volume 12
Ein Rechtsrahmen für KI in der Schweiz: Perspektive öffentliches Recht Copyright © by Nadja Braun Binder und Florent Thouvenin is licensed under a Creative Commons Namensnennung-Nicht kommerziell-Keine Bearbeitung 4.0 International, except where otherwise noted.
© 2025 – CC BY-NC-ND
Verlag: EIZ Publishing (eizpublishing.ch), Hirschengraben 56, 8001 Zürich, [email protected]: Center for Information Technology Society and Law ITSL, Florent Thouvenin (Hrsg.)ISBN:978-3-03805-803-8 (Print – Softcover)978-3-03805-804-5 (PDF)978-3-03805-805-2 (ePub)DOI: https://doi.org/10.36862/eiz-itsl-12Version: 1.00 – 20250425
Dieses Werk ist als gedrucktes Buch sowie als E-Book (open access) in verschiedenen Formaten verfügbar. Weitere Informationen finden Sie unter der URL: https://eizpublishing.ch/publikationen/ein-rechtsrahmen-fuer-ki-in-der-schweiz-perspektive-oeffentliches-recht/.
1
Am 12. Februar 2025 hat der Bundesrat beschlossen, die KI-Konvention des Europarats zu ratifizieren. Mit diesem Entscheid hat er den Startschuss für die Gesetzgebungsarbeiten zur Regulierung von Künstlicher Intelligenz (KI) in der Schweiz gegeben. Bis 2026 soll eine Vernehmlassungsvorlage vorliegen, welche die notwendigen gesetzlichen Massnahmen zur Umsetzung der KI-Konvention des Europarats festlegt. Dazu gehören insbesondere die Bereiche Transparenz, Datenschutz, Nichtdiskriminierung und Aufsicht.
Bereits vor dieser Entscheidung haben wir uns im Rahmen des Forschungsprojekts «Nachvollziehbare Algorithmen: Ein Rechtsrahmen für den Einsatz von Künstlicher Intelligenz» (Juli 2021 – Juni 2024) diesen Themen gewidmet. Entstanden sind mehrere Beiträge, die sich aus öffentlich- und privatrechtlicher Sicht mit zentralen Herausforderungen befassen: fehlende Transparenz und Nachvollziehbarkeit der Entscheidungen von KI-Systemen, Risiken für den Schutz der Privatsphäre, Gefahr von Diskriminierung und Manipulation sowie Fragen des Urheberrechts.
Neben dem Beschluss zur Ratifikation der KI-Konvention des Europarats hat der Bundesrat am 12. Februar 2025 auch eine Auslegeordnung zu möglichen Regulierungsansätzen für KI publiziert. Dieser Auslegeordnung lagen drei Analysen zugrunde: eine rechtliche Basisanalyse, eine sektorielle Analyse und eine Länderanalyse. Wir freuen uns, dass Erkenntnisse aus unserem Forschungsprojekt in diese Analysen eingeflossen sind.
Der vorliegende Sammelband bündelt einen Teil der im Rahmen des Forschungsprojekts bislang veröffentlichten Beiträge. Diese befassen sich mit dem Einsatz von KI-Systemen in der öffentlichen Verwaltung. Die privatrechtlichen Erkenntnisse aus dem Forschungsprojekt werden in einem separaten Sammelband zusammengefasst. Da es sich um eine Wiedergabe bereits veröffentlichter Aufsätze handelt, werden Abkürzungen und Literaturangaben wie in der jeweiligen Originalpublikation verwendet. Dies kann zu Abweichungen in der Schreibweise zwischen den einzelnen Beiträgen führen. Zur besseren Übersicht wurde jeder Beitrag um ein einheitlich formatiertes Inhaltsverzeichnis ergänzt.
Die Entwicklungen auf Bundesebene haben gezeigt, dass weiterhin Forschungs- und Vermittlungsbedarf besteht. Das Forschungsprojekt wurde deshalb bis im März 2026 verlängert.
Das Forschungsprojekt wird in Kooperation zwischen der Forschungsstelle für Digitalisierung in Staat und Verwaltung (e-PIAF) der Universität Basel und dem Center for Information Technology, Society, and Law (ITSL) der Universität Zürich durchgeführt. Wir danken unseren Mitarbeitenden – Dr. Stephanie Volz (Uni Zürich), Soraya Weiner, MLaw, und Fabienne Graf, MLaw, LL.M (beide Uni Zürich), sowie Liliane Obrecht, MLaw, und Nina Laukenmann, MLaw, LL.M, (beide Uni Basel) – für ihre wertvolle Unterstützung und ihr Engagement. Ihr Fachwissen und Ihre Ideen haben massgeblich zur Weiterentwicklung unserer Forschung beigetragen. Ein besonderer Dank gilt auch der Stiftung Mercator Schweiz für die Unterstützung des Forschungsprojektes. Herrn Lars Ruflin, Hilfsassistent bei e-PIAF, danken wir für die tatkräftige Unterstützung bei der Vorbereitung dieses Sammelbandes.
Basel, April 2025
Prof. Dr. Nadja Braun Binder, Professorin für öffentliches Recht an der Universität Basel
Prof. Dr. Florent Thouvenin, Inhaber des Lehrstuhls für Informations- und Kommunikationsrecht an der Universität Zürich
2
Vorwort
Autorinnenverzeichnis
Künstliche Intelligenz in der Verwaltung – Möglichkeiten, rechtliche Rahmenbedingungen und GrenzenNadja Braun Binder / Liliane Obrecht
KI in der Verwaltung: Entwicklungen und HerausforderungenNadja Braun Binder / Nina Laukenmann / Liliane Obrecht
Whitepaper: Transparenz durch Begründung von VerfügungenNadja Braun Binder / Liliane Obrecht
Die Begründung von Verfügungen beim Einsatz algorithmischer SystemeNadja Braun Binder / Liliane Obrecht
Verfügung und automatisierte Einzelentscheidung – same same but different?Liliane Obrecht
White Paper: Transparenz durch öffentliches VerzeichnisNadja Braun Binder / Liliane Obrecht
Transparenz über den staatlichen Einsatz algorithmischer EntscheidungssystemeNadja Braun Binder / Liliane Obrecht
Maschinelle Gesichtserkennung im öffentlichen RaumNadja Braun Binder / Eliane Kunz / Liliane Obrecht
Algorithmisch überprüfte Steuererklärungen im ordentlichen gemischten VeranlagungsverfahrenNadja Braun Binder / Liliane Obrecht
Vertrauensschutz bei fehlerhaften Behördenauskünften durch ChatbotsNadja Braun Binder / Liliane Obrecht / Grace Wittmer
3
Prof. Dr. Nadja Braun Binder, MBA, Professorin für Öffentliches Recht an der Juristischen Fakultät der Universität Basel
Liliane Obrecht, MLaw, Doktorandin an der Juristischen Fakultät der Universität Basel
Nina Laukenmann, MLaw, LL.M., Doktorandin an der Juristischen Fakultät der Universität Basel
Eliane Kunz, MLaw, Kanzleimitarbeiterin am Zivilkreisgericht Basel-Landschaft West
Grace Wittmer, MLaw, Juristische Volontärin
Nadja Braun Binder und Liliane Obrecht
Erstabdruck in: SVVOR (Hrsg.), Jahrbuch 2021/2022, Bern 2023, S. 21–48
Aufgrund ihrer grossen Leistungsfähigkeit und der zunehmenden Verfügbarkeit von Daten sind Technologien, die etwas pauschal als Künstliche Intelligenz (KI) oder auch algorithmische Systeme bezeichnet werden, für öffentliche Verwaltungen zunehmend von Interesse. Auf Bundesebene, aber auch in den Kantonen, laufen derzeit verschiedene Projekte zum Einsatz von KI, während gleichzeitig die Entwicklung von Leitlinien und Rechtsnormen insbesondere auch im internationalen Kontext vorangetrieben werden. Der vorliegende Beitrag geht zuerst einem allgemeinen Begriffsverständnis nach (II) und beschreibt grundlegende Charakteristika eines KI-Einsatzes (III). Sodann werden die rechtlichen Rahmenbedingungen und dabei gleichzeitig die Grenzen desselben dargelegt (IV). Der Beitrag schliesst mit einem Blick in die Zukunft (V) und einem Fazit (VI).
Im Folgenden werden verschiedene Annäherungsversuche an eine Begriffsdefinition im nationalen und internationalen Kontext aufgeführt und ein für den vorliegenden Beitrag geltendes Verständnis dargelegt.
Der Begriff «Künstliche Intelligenz» (KI – «Artificial Intelligence – AI») erlebt seit einigen Jahren eine regelrechte Renaissance. Seine Ursprünge gehen in die 1950er Jahre zurück,[1] dennoch hat sich bisher keine allgemeingültige Definition etabliert. Den verschiedenen Definitionsversuchen liegt immerhin ein gemeinsamer Tenor zugrunde. Aus technischer Perspektive handelt es sich um einen etablierten Sammelbegriff, der gleich mehrere Technologien umfasst, die automatisierte Entscheidungen fällen, Empfehlungen abgeben, Schlussfolgerungen ziehen oder Vorhersagen treffen.[2] Dazu gehören wissensbasierte Systeme und statistische Methoden ebenso wie Ansätze des maschinellen Lernens (z. B. unter Einsatz neuronaler Netze).[3] Ein Computer wird mit anderen Worten so gebaut oder programmiert, dass er Dinge tun kann, die normalerweise dem Menschen und seinen biologischen Fähigkeiten vorbehalten sind. Dazu zählen bspw. visuelle Wahrnehmungen wie die Bilderkennung, aber auch etwa die Spracherkennung und ‑übersetzung.[4]
In der Bundesverwaltung kursieren aktuell verschiedene Begriffsdefinitionen.[5] Das Kompetenznetzwerk für Künstliche Intelligenz (CNAI[6]) versucht, die Terminologie zu vereinheitlichen. Nach dem im Rahmen des CNAI entwickelten Ansatzes ist ein KI-System «ein maschinenbasiertes System, welches für vom Menschen klar definierte Problemstellungen, Vorhersagen, Empfehlungen oder Entscheidungen machen kann, welche reale oder virtuelle Umgebungen beeinflussen. KI-Systeme können mit unterschiedlichem Ausmass an Autonomie ausgestattet werden.»[7] Es handelt sich dabei allerdings nicht um eine Legaldefinition.
Im Gegensatz zur Schweiz bahnt sich auf unionsrechtlicher Ebene mit dem Verordnungsvorschlag der EU-Kommission zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (EU-KI-VOV[8]) eine Legaldefinition an.[9] Gemäss Art. 3 Ziff. 1 EU-KI-VOV handelt es sich bei einem KI-System um «eine Software, die mit einer oder mehreren der in Anhang I aufgeführten Techniken und Konzepte entwickelt worden ist und im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, mit dem sie interagieren.» Techniken und Konzepte der Künstlichen Intelligenz sind sodann gemäss Anhang I EU-KI-VOV[10] «Konzepte des maschinellen Lernens, mit beaufsichtigtem, unbeaufsichtigtem und bestärkendem Lernen unter Verwendung einer breiten Palette von Methoden, einschliesslich des tiefen Lernen (Deep Learning); Logik- und wissensgestützte Konzepte, einschliesslich Wissensrepräsentation, induktiver (logischer) Programmierung, Wissensgrundlagen, Inferenz- und Deduktionsmaschinen, (symbolischer) Schlussfolgerungs- und Expertensysteme; Statistische Ansätze, Bayessche Schätz‑, Such- und Optimierungsmethoden.»
Rechtliche Herausforderungen entstehen nicht nur beim Einsatz spezifischer Systeme und Konzepte wie sie etwa der Anhang zur EU-KI-VOV auflistet, sondern können ganz allgemein beim Einsatz algorithmenbasierter Systeme auftreten. Wird im Folgenden von KI oder KI-Einsatz gesprochen, geht es somit nicht um bestimmte heutige oder künftige Technologien, sondern (auch) um den sozialen Kontext, in dem sie eingesetzt werden. Der Begriff «algorithmische Systeme» wäre passender.[11]
In verschiedenen Ländern wird KI bereits heute in den öffentlichen Verwaltungen eingesetzt.[12] Die Einsatzbereiche sind zahlreich und divers. Zusammenfassend lassen sich vier Charakteristika der aktuellen und künftigen KI-Einsatzbereiche identifizieren, auf die im Folgenden näher eingegangen wird.
Ein erstes Merkmal ist die Standardisierung von Prozessabläufen. Sich häufig wiederholende, strukturierte Tätigkeiten ohne Ermessensspielraum der Behörden lassen sich gut automatisieren. Dies zeigt sich am bereits hohen Automatisierungsgrad in Steuerverfahren und den verschiedenen dort geplanten Anwendungen.[13] Auch der Einsatz von Chatbots, d. h. technischen Dialogsystemen, mit denen sprach- oder textbasiert kommuniziert werden kann,[14] bestätigt diese Tendenz, da diese vor allem dort genutzt werden, wo häufig wiederkehrende ähnliche Informationsanfragen auszumachen sind.[15]
Bspw. setzt die Stadt St. Gallen seit drei Jahren den Chatbot «Gallus» ein, der Informationen zur Mobilität und Entsorgung, zu Parkplätzen und Veranstaltungen oder zum Umzug beantwortet. Künftig soll er auch Prozesse selbständig abwickeln können.[16]Die Stadt Zürich setzt einen Chatbot ein, der die Hauseigentümerinnen und Hauseigentümer in Sachen Heizungsersatz berät.[17]Im Kanton Basel-Stadt setzt insbesondere der Bereich Bevölkerungsdienste und Migration Chatbots ein – seit dem Frühjahr 2021 bspw. das Zivilstandsamt zur Bestellung von Urkunden.[18]
Ein zweites – mit dem Standardisierungspotenzial verbundenes – Merkmal ist die Massenverwaltung. Dazu gehören Verwaltungsbereiche, in denen eine Behörde in einem bestimmten Aufgabenbereich eine grosse Zahl an einzelnen Verfügungen erlässt.[19] Typische Beispiele der Massenverwaltung sind das steuerrechtliche und das sozialversicherungsrechtliche Verfahren, aber auch das Asylwesen kann bspw. dazu gezählt werden.[20] Der KI-Einsatz in der Massenverwaltung soll insbesondere die Effizienz der Verwaltungstätigkeit steigern und gleichzeitig die verfahrensrechtlichen Vorgaben wahren.[21]
Bereits heute werden in den meisten Kantonen die digital eingereichten Steuererklärungen durch automatische Veranlagungsprogramme zumindest teilweise automatisiert bearbeitet. In Zukunft soll KI die Steuerverwaltungen jedoch noch weiterführend unterstützen,[22] weshalb derzeit verschiedene Kantone einen solchen KI-Einsatz prüfen.[23]
Im Kanton Bern werden bspw. bereits fast 20 Prozent der steuerpflichtigen natürlichen Personen vollständig automatisiert veranlagt – das Ziel ist ein Automatisierungsgrad durch maschinelles Lernen von 40 Prozent.[24]
Im Sozialrecht stehen insbesondere die Automatisierung der Gewährung von Prämienverbilligungsansprüchen und die Betrugsbekämpfung im Zentrum, der Einsatz tatsächlicher KI-Systeme ist derzeit – soweit ersichtlich – jedoch sehr gering.[25]
Im Kanton Genf sollen KI-Systeme im Bereich der Sozialarbeit genutzt werden, um u. a. die ungerechtfertigte Auszahlung von Sozialleistungen zu verhindern.[26]
Neben den bereits genannten Bereichen sind zahlreiche weitere KI-Anwendungen in verschiedensten Gebieten der öffentlichen Verwaltung möglich.[27]
Eine Studie ist bspw. zum Ergebnis gekommen, dass eine KI-unterstützte, arbeitsmarktorientierte Kantonszuteilung von Asylsuchenden deren Beschäftigungsaussichten um rund 75 Prozent erhöhen könnte.[28]
Durch die Konfrontation mit immer grösser werdenden Datenmengen, deren Auswertung innert nützlicher Frist kaum mehr auf konventionellem Weg erfolgen kann, bietet sich für die intelligente Durchsuchung der Informationen ein KI-Einsatz an. Dies etwa bei der Polizeiarbeit im Bereich der Wirtschaftskriminalitätsbekämpfung, der allgemeinen organisierten Kriminalität oder der Cyberkriminalität.[29] Aber auch die intelligente Videoanalyse zählt dazu, da KI besonders gut bei der Bilderkennung funktioniert.[30]
In Luzern setzt etwa die Kantonspolizei eine Software ein, die Videoaufnahmen auswertet und dabei Menschen nach Alter und Geschlecht sowie Objekte und Farben unterscheiden kann.[31]
Schliesslich wird KI dort eingesetzt, wo es darum geht, Prognosen zu treffen. So dienen Anwendungen im Rahmen des Sanktionenvollzugs und im Bereich des Predictive Policing (vorausschauende Polizeiarbeit[32]) der statistikbasierten Vorhersage von Verhaltensweisen oder Ereignissen.[33]
In der Deutschschweiz wird im Strafvollzug bspw. anhand des Programms ROS (Risikoorientierter Sanktionenvollzug) die Möglichkeit der Vollzugslockerung geprüft, wodurch das Rückfallrisiko während und nach dem Vollzug gesenkt werden soll.[34]
In diesen Prognosebereich fällt auch die KI-Entwicklung im Bereich der Stadtentwicklung in Richtung Smart Cities und der damit einhergehenden Verknüpfung von Daten.[35]
Im Kanton Basel-Stadt laufen verschiedene Projekte zur nachhaltigen Stadtentwicklung, bspw. die intelligente Fussgängersteuerung im Strassenverkehr oder das Schaffen eines intelligenten Energienetzes.[36]
Die folgenden Abschnitte gehen den rechtlichen Rahmenbedingungen und Grenzen eines KI-Einsatzes in der öffentlichen Verwaltung nach. Dabei werden insbesondere das Legalitätsprinzip (2), die Verfahrensgarantien und Verfahrensgrundsätze (3), das Diskriminierungsverbot (4) sowie transparenzrechtliche Anforderungen (5) thematisiert.[37]
Es ist zu betonen, dass die rechtlichen Herausforderungen sich einerseits aus dem Einsatz von KI selbst, andererseits aber auch aus dem mithilfe von KI hergestellten Automatisierungsgrad ergeben können. Im Folgenden wird deshalb bei Bedarf zwischen teilautomatisierten Verfahren, in denen KI-Systeme unterstützend eingesetzt werden, und vollautomatisierten Verfahren, in denen KI-Systeme genutzt werden und keine menschliche Intervention mehr stattfindet, unterschieden.[38] Das hier zugrunde liegende Verständnis von vollautomatisierten Verfahren deckt sich mit dem Ausdruck «automatisierte Einzelentscheidung» nach dem revidierten Datenschutzgesetz.[39]
Zunächst ist aufgrund des Legalitätsprinzips gemäss Art. 5 Abs. 1 Bundesverfassung (BV[40]) erforderlich, dass für staatliches Handeln eine sowohl hinsichtlich der Normstufe als auch hinsichtlich der Normdichte ausreichende Rechtsgrundlage existiert.[41] Dies gilt es, hinsichtlich des Einsatzes von KI zu berücksichtigen.[42] Für den KI-Einsatz zur Entscheidungsfindung im Rahmen von Verwaltungsverfahren ist eine bereichsspezifische und explizite gesetzliche Grundlage zu fordern.[43] Ausserdem ist zu bedenken, dass nach den datenschutzrechtlichen Vorgaben für die Bearbeitung von besonders schützenswerten Personendaten oder in Fällen des Profilings eine formell-gesetzliche Grundlage notwendig ist (Art. 34 Abs. 2 lit. a und b revDSG[44]).
Insbesondere im Sozialversicherungsbereich ist davon auszugehen, dass KI-Anwendungen vorwiegend bei der Bearbeitung besonders schützenswerter Personendaten eingesetzt werden und dementsprechend eine formell-gesetzliche Grundlage erforderlich ist. Der Einsatz von Chatbots zu Informationszwecken dürfte hingegen von bestehenden Rechtsgrundlagen abgedeckt sein – sofern diese keine anderweitigen Aufgaben übernehmen und dabei besonders schützenswerte Personendaten bearbeitet werden.[45]
Verfahrensgarantien sind die in Art. 29–32 BV verankerten Mindeststandards, die von Behörden in allen Verfahren zu beachten sind.[46] Im Zusammenhang mit dem Verwaltungshandeln sind dabei insbesondere die sogenannten «allgemeinen Verfahrensgarantien» nach Art. 29 BV von Bedeutung,[47] in Zusammenhang mit dem Einsatz von KI etwa der Anspruch auf rechtliches Gehör (3.1).[48] Verfahrensgrundsätze stellen Leitlinien des Prozesses dar und sind positivrechtlich im Verfahrensrecht verankert.[49] Der Einsatz von KI stellt speziell den im Verwaltungsverfahren vorherrschenden Untersuchungsgrundsatz gemäss Art. 12 Verwaltungsverfahrensgesetz (VwVG) vor Herausforderungen (3.2).[50]
Der Anspruch auf rechtliches Gehör gemäss Art. 29 Abs. 2 BV dient einerseits der Sachverhaltsabklärung und stellt andererseits ein persönlichkeitsbezogenes Mitwirkungsrecht dar.[51] Aus dem rechtlichen Gehör leiten sich verschiedene Teilgehalte ab, wobei im Folgenden der Anspruch auf vorgängige Äusserung und Mitwirkung im Verfahren (a)) sowie das Recht auf Begründung (b)) betrachtet werden.[52]
Der Anspruch auf vorgängige Äusserung und Mitwirkung in Verwaltungsverfahren wird auf Bundesebene in Art. 30 Abs. 1 VwVG konkretisiert. Die Parteien müssen demnach vor dem Erlass einer Verfügung angehört werden bzw. Gelegenheit zur Stellungnahme erhalten.[53] Dies stellt mithin das wichtigste Mittel dar, um der Partei einen Einfluss auf die Ermittlung des rechtserheblichen Sachverhalts zu sichern.[54] Nur in den in Art. 30 Abs. 2 VwVG vorgesehenen Ausnahmesituationen müssen Parteien im Vorfeld nicht angehört werden. Damit eine Stellungnahme überhaupt möglich ist, müssen den Betroffenen zumindest die wesentlichen Elemente des voraussichtlichen Verfügungsinhaltes bekannt gegeben werden.[55] Auch wenn die Behörde den Äusserungen der Betroffenen nicht folgen muss, sie muss diese immerhin tatsächlich zur Kenntnis nehmen, überprüfen und sich mit den Einwänden bei der Entscheidungsfindung und ‑begründung sachgerecht auseinandersetzen.[56]
In weitgehend standardisierten und vollautomatisierten Verfahren kann der Anspruch auf vorgängige Äusserung beeinträchtigt sein. Wird ein Verfahren durch eine natürliche Person eingeleitet (etwa durch einen Antrag) und läuft dieses sodann ohne jegliche menschliche Intervention ab, kann sich diese nur bei der eigentlichen Antragsstellung äussern, nicht aber im weiteren Verlauf des vollautomatisierten Verfahrens.[57] Wie stark der Anspruch auf vorgängige Äusserung somit eingeschränkt wird, hängt schliesslich von den Äusserungsmöglichkeiten bei der Antragsstellung ab und inwiefern die getätigten Äusserung durch das System berücksichtigt werden kann.[58]
In der Literatur wird deshalb dafür plädiert, dass vollautomatisierte Entscheidungen nur zulässig sein sollen, wenn den Begehren der betroffenen Person vollumfänglich entsprochen wurde. Dagegen soll bei Entscheidungen, die zuungunsten der betroffenen Person ausfallen, das rechtliche Gehör durch die sachverständige Person gewährt werden.[59] Damit würde es sich in diesen Fällen allerdings nicht mehr um vollautomatisierte Entscheidungen handeln.
Art. 21 revDSG sieht verschiedene Mechanismen vor, die das rechtliche Gehör – zumindest in gewissen Ausprägungen – andressieren sollen. Bspw. besteht für automatisierte Einzelentscheidungen, die für die betroffene Person mit einer Rechtsfolge verbunden sind oder sie erheblich benachteiligen, eine Informationspflicht (Abs. 1).[60]Ausserdem erhält die betroffene Person die Möglichkeit, ihren Standpunkt darzulegen, wenn sie dies beantragt, und kann verlangen, dass die Entscheidung von einer natürlichen Person überprüft wird (Abs. 2).[61]Bundesorgane haben vollautomatisierte Verfügungen zu kennzeichnen (Abs. 4).[62]Die Möglichkeit der betroffenen Person, ihren Standpunkt darzulegen, entfällt, wenn nach Art. 30 Abs. 2 VwVG ohnehin kein vorgängiges Recht auf Äusserung besteht (Art. 21 Abs. 4 Satz 2 revDSG).[63]
Aus datenschutzrechtlicher Sicht sind diese Überlegungen durchaus sinnvoll und nachvollziehbar. Das Datenschutzrecht zielt auf den Persönlichkeits- und Grundrechtsschutz derjenigen Person, deren Personendaten bearbeitet werden (Art. 1 revDSG). Im Verwaltungsverfahren hingegen gehen diese Lösungsansätze nicht weit genug; der Anspruch auf vorgängige Äusserung steht nicht nur der von der Verfügung adressierten Person – und somit der Person, deren Personendaten bearbeitet werden – zu, sondern gemäss dem Wortlaut von Art. 30 Abs. 1 VwVG einem erweiterten Kreis an Parteien, deren Rechte durch die Verfügung betroffen sein können.
Bspw. können die Nachbarn eines Bauprojektes von der Baubewilligung betroffen sein, womit ihnen das vorgängige Äusserungsrecht zusteht.
Im Verwaltungsverfahren sollten deshalb andere Mechanismen greifen. Eine Anknüpfungsmöglichkeit wären die im entsprechenden Verfahrensrecht vorgesehenen Einsprachemöglichkeiten.[64] Die Einsprache ist ein Rechtsmittel ohne Devolutiveffekt, d. h., die betroffene Person kann sich vor der verfügenden Behörde und nicht erst vor der Rechtsmittelinstanz äussern.[65] Dadurch würde das Recht auf vorgängige Äusserung gewahrt.
Der Anspruch auf Begründung einer Verfügung wird in Art. 35 Abs. 1 VwVG konkretisiert. Dadurch wird Transparenz hinsichtlich der behördlichen Entscheidungsfindung im Einzelfall hergestellt.[66] Die Ausführlichkeit der Begründung ist an den konkreten Umständen auszurichten – ausschlaggebend ist die Möglichkeit einer sachgerechten Anfechtung eines Entscheids.[67] Beim Einsatz von KI ist es möglich, dass die Behörde ihrer Begründungspflicht nicht vollständig nachkommen kann. Denn Entscheidungen, die von einem KI-basierten System gefällt werden, können aufgrund der Komplexität nicht ohne Weiteres für die Sachbearbeiterin bzw. den Sachbearbeiter nachvollziehbar sein.[68]
Zu denken ist etwa an Systeme, die statistische Auswertungen basierend auf Kriterien vornehmen, die für die Sachbearbeiterin bzw. den Sachbearbeiter unklar sind.
Die verfassungs- und verwaltungsverfahrensrechtlichen Vorschriften verlangen Angemessenheit der Begründung im Einzelfall. Diese muss je nach Komplexität der Rechtslage ausführlicher oder weniger ausführlich sein.[69] Die gelieferte Begründung muss in jedem Fall für die betroffene Person verständlich sein.[70] Ungenügend wäre jedoch die allgemeine Erklärung der Funktionsweise des KI-Systems, da diese gerade keine einzelfallweise Begründung des ergangenen Entscheids darstellt.[71]
In der Informatik wird derzeit Grundlagenforschung zur Erklärbarkeit von KI-Systemen («Explainable AI») betrieben.[72]Diese kann aber keine Lösung zur Sicherstellung der Begründungspflicht im Einzelfall sein, solange sie lediglich darauf abzielt, in allgemeiner Weise zu erklären, wie ein KI-System zu Ergebnissen kommt.
Der Untersuchungsgrundsatz – auch Untersuchungsmaxime – ist auf Bundesebene in Art. 12 VwVG verankert. Demnach hat die Behörde den Sachverhalt grundsätzlich von Amtes wegen festzustellen, sie beschafft die Entscheidungsgrundlagen selbst.[73] Die Mitwirkungspflicht der Parteien gemäss Art. 13 VwVG relativiert den Untersuchungsgrundsatz sodann. Die Parteien sind verpflichtet, an der Abklärung des Sachverhalts mitzuwirken.[74]
Grundvoraussetzung für den KI-Einsatz ist das Vorhandensein von Daten.[75] Im Rahmen des Verwaltungsverfahrens handelt es sich dabei um Informationen einen Sachverhalt betreffend, den es in diesem Verfahren zu beurteilen gilt.[76] Da KI in der öffentlichen Verwaltung insbesondere zur Automatisierung von Prozessen eingesetzt wird,[77] stellt sich die Frage, wie die Sachverhaltsermittlung im Rahmen dieser Automatisierung umgesetzt werden kann. Dabei ist zu bedenken, dass das automatische Sammeln, Auswerten und Verifizieren von Sachverhaltsdaten gerade zu den Wesensmerkmalen automatisierter Verwaltungsverfahren zählt.[78] Im vollautomatisierten Verwaltungsverfahren kommt hinzu, dass die Mitarbeitenden der Behörde schon per definitionem keinerlei zusätzliche Abklärungen betreffend den Sachverhalt treffen.
Mit der Automatisierung der Sachverhaltsermittlung geht die Gefahr einher, dass nur standardisiert erhobene Daten genutzt und einzelfallspezifische Informationen nicht berücksichtigt werden.[79] Dies ist vor allem der Fall, wenn sich das Verfahren auf Daten stützt, die der Behörde bereits vorliegen, insbesondere Daten aus bestehenden Datenbanken und Registern. Der Untersuchungsgrundsatz verpflichtet die Behörde aber dafür Sorge zu tragen, dass die genutzten Daten alle rechtserheblichen Tatsachen abbilden. Von zentraler Bedeutung ist demnach, dass die vom KI-System genutzten Daten geeignet, vollständig, korrekt und verfügbar sind.[80]
Anders verhält es sich beim Verfahren auf Erlass einer mitwirkungsbedürftigen Verfügung, bei dem die Sachverhaltsdaten durch Eingabe der antragstellenden Person ermittelt werden.[81] Die antragstellende Person wird ihre Angaben dabei jeweils in standardisierter Form erfassen, damit das KI-System die Daten verarbeiten kann.[82] Dies kann jedoch dazu führen, dass die für das Verfahren notwendigen einzelfallspezifischen Informationen nicht berücksichtigt werden. Zugleich führt diese Vorgehensweise zu einer Verlagerung der Sachverhaltsabklärung von der Behörde auf die (lediglich zur Mitwirkung verpflichtete) antragstellende Person.[83]
Bspw. besteht im Falle eines vollautomatisierten Veranlagungsverfahrens im Steuerbereich zwar eine ausgeprägte Mitwirkungspflicht und das Selbstdeklarationsprinzip findet Anwendung.[84]Trotzdem muss die Behörde sicherstellen, dass dem Veranlagungsverfahren korrekte Sachverhaltsdaten zugrunde gelegt werden. Sicherstellen kann sie dies bspw. mittels Kontrollmechanismen wie einem Risikomanagementsystem.[85]
Das Diskriminierungsverbot gemäss Art. 8 Abs. 2 BV stellt einen qualifizierten Schutz vor Ungleichbehandlung dar.[86] Nach der bundesgerichtlichen Rechtsprechung liegt eine Diskriminierung vor, «wenn eine Person ungleich behandelt wird allein aufgrund ihrer Zugehörigkeit zu einer bestimmten Gruppe, welche historisch oder in der gegenwärtigen sozialen Wirklichkeit tendenziell ausgegrenzt oder als minderwertig angesehen wird.»[87] Das Verbot ist mithin die grundrechtliche Antwort auf historische Erfahrungen der Ausgrenzung, Herabwürdigung und Stigmatisierung von Menschen allein wegen eines sensiblen Persönlichkeitsmerkmals, das so wesentlich ist, dass es den Betreffenden nicht möglich oder nicht zumutbar ist, sich des Merkmals zu entledigen.[88]
Einige dieser sensiblen Merkmale werden in Art. 8 Abs. 2 BV ausdrücklich genannt, wobei die Aufzählung jedoch nicht abschliessend ist: Herkunft, Rasse, Geschlecht, Alter, Sprache, soziale Stellung, Lebensform, religiöse, weltanschauliche oder politische Überzeugung sowie körperliche, geistige oder psychische Behinderung.
Der Diskriminierungsbegriff kann als «Schlüsselvokabel»[89] der heutigen Zeit bezeichnet werden. Es wird zwischen direkter (unmittelbarer) und indirekter (mittelbarer) Diskriminierung unterschieden.[90] Eine direkte Diskriminierung liegt vor, wenn ein Rechtsakt ohne Rechtfertigung direkt an ein verpöntes Merkmal anknüpft.[91] Indirekt ergibt sich die Diskriminierung aus der praktischen Auswirkung einer gesetzlichen Regel, die formal neutral ist und keine offensichtliche Benachteiligung einer bestimmten Gruppe enthält.[92]
In automatisierten Verwaltungsverfahren kann eine Diskriminierung aus verschiedenen Gründen resultieren, es gibt also verschiedene Diskriminierungsquellen.
Ein besonders hervorzuhebendes Beispiel sind KI-Systeme, deren Entwicklung auf Trainingsdaten angewiesen ist. Diese Trainingsdaten prägen die spätere Funktionsweise des Systems.[93] Falsche Trainingsdaten können zu falschen Ergebnissen führen.[94] Aber auch «korrekte» Daten können Probleme evozieren, denn häufig perpetuieren sich in der Gesellschaft bestehende Vorurteile in den Daten.[95] Werden diese Daten sodann als Trainingsgrundlage verwendet, übertragen sich gesellschaftliche Vorurteile gewissermassen auf die Technologie.[96]
Werden bspw. in ein KI-System, das Bewerbungen für einen Stellenbeschrieb aussortiert, die Bewerbungsunterlagen der letzten zwanzig Jahre eingespeist, ist es möglich, dass Frauen systematisch schlechter bewertet und somit aussortiert werden, da in der Vergangenheit Männer häufiger eingestellt wurden als Frauen.
Das österreichische Bundesverwaltungsgericht hat im Dezember 2020 eine Entscheidung bezüglich des österreichischen «Arbeitsmarkt-Chancen-Assisystenzsystems» (AMAS) gefällt.[97]Dieses unterstützt den österreichischen Arbeitsmarktservice (AMS) durch statistische Analysen historischer Daten, welche die Berechnungsgrundlage für die Beurteilung der zukünftigen Chancen von Arbeitssuchenden am Arbeitsmarkt darstellen. Das System führte zu diskriminierenden Handlungsempfehlungen, da insbesondere Frauen und Menschen mit Behinderung systematisch schlechtere Chancen auf dem Arbeitsmarkt zugesprochen wurden.[98]In der rechtlichen Auseinandersetzung ging es allerdings nicht in erster Linie um das Diskriminierungsverbot, sondern um die Frage der Rechtsgrundlage für den Einsatz von AMAS.
Auch technische Fehleinstellungen können zu Diskriminierungen führen.[99] Diese Diskriminierungsform hängt eng mit dem Problem fehlender Daten zusammen, insbesondere, wenn eine Bevölkerungsgruppe in den Trainingsdaten untervertreten ist.[100]
Setzt der Staat bspw. Gesichtserkennungstechnologien ein, die auf der Basis unvollständiger Datensets trainiert wurden, werden die untervertretenen Gruppen – häufig Frauen, jüngere Menschen oder nicht kaukasische Personen – schlechter erkannt. Die Auswirkungen dieser falschen Identifizierungen zeigen sich umso stärker, wenn an ein Merkmal nach Art. 8 Abs. 2 BV angeknüpft wird.[101]
Von einem emergenten Bias wird dort gesprochen, wo sich die Diskriminierung erst aus der Nutzung des Systems selbst ergibt, z. B. indem Ausgaben des algorithmischen Systems falsch interpretiert werden.[102] Die Diskriminierung kann schliesslich auch aus Korrelationen resultieren, die an sog. Proxies anknüpfen. Bei Proxies handelt es sich um harmlos erscheinende Merkmale, die mit sensiblen Merkmalen jedoch stark korrelieren können.[103] Bei der Proxy-Diskriminierung («Stellvertreter Diskriminierung») werden somit scheinbar neutrale Merkmale als Grundlage für einen Datensatz beigezogen, wobei jedoch eine bestimmte geschützte Gruppe unverhältnismässig stark von einer Diskriminierung betroffen ist.[104] Aus rechtlicher Sicht ist die Proxy-Diskriminierung Teil der indirekten Diskriminierung.[105]
Bspw. kann ein Algorithmus am (vermeintlich neutralen) Merkmal «Wohnort» anknüpfen. Korreliert dieser überproportional oft mit dem sensiblen Merkmal «Rasse», weil in einem Stadtteil überwiegend Personen einer bestimmten Ethnie wohnen, kann eine Proxy-Diskriminierung resultieren.[106]
Als Massnahme zur Verhinderung von Diskriminierung ist beim KI-Einsatz deshalb darauf zu achten, dass korrekte Daten – unter Berücksichtigung des Datenschutzes[107] – und fehlerfreie Systeme genutzt werden.[108] Damit lässt sich aber nicht jede Diskriminierung verhindern.[109] Unter Umständen ist in sensiblen Bereichen auf vollautomatisierte Entscheidungen zu verzichten und durch geeignete Massnahmen sicherzustellen, dass Sachbearbeiterinnen und Sachbearbeiter über die notwendigen Kenntnisse und Kompetenzen verfügen, um im Einzelfall eine Entscheidung zu treffen, die vom allenfalls diskriminierenden Vorschlag abweicht.
Transparenz ist eine im Kontext von KI häufig geäusserte Forderung, um die Rechtmässigkeit des KI-Einsatzes sicherzustellen.[110] Die Herstellung von Transparenz beim staatlichen KI-Einsatz ist nicht nur unter dem Blickwinkel individueller Kontrollmöglichkeiten von Einzelentscheiden (5.1), sondern auch in Bezug auf eine allgemeine Kontrolle (5.2) – etwa durch die Zivilgesellschaft – zu diskutieren.[111]
Da KI-Systeme regelmässig auf grosse Datenmengen angewiesen sind, um sinnvoll eingesetzt werden zu können, und dabei häufig Personendaten bearbeitet werden, ergeben sich aus dem Recht auf informationelle Selbstbestimmung nach Art. 13 Abs. 2 BV bzw. den datenschutzrechtlichen Grundsätzen verschiedene Anforderungen. Gemäss Art. 6 Abs. 3 revDSG dürfen Personendaten nur zu einem bestimmten und für die betroffene Person erkennbaren Zweck bearbeitet werden. Die gesetzliche Regelung der Erkennbarkeit des Zwecks der Datenbearbeitung setzt dabei zwingend voraus, dass auch die Datenbearbeitung als solche erkennbar ist.[112] Weiter zeigen zentrale Bestimmungen des revidierten Datenschutzgesetzes, dass das Gesetz auf dem Grundsatz der Transparenz beruht, so namentlich die Regelung der Informationspflichten (Art. 19 ff. revDSG) und des Auskunftsrechts (Art. 25 ff. revDSG).[113] Zu nennen ist insbesondere die Informations- und Kennzeichnungspflicht beim Erlass einer automatisierten Einzelentscheidung durch ein Bundesorgan gemäss Art. 21 Abs. 4 revDSG.[114] Diese Kontrollmöglichkeiten bieten mit Blick auf einen KI-Einsatz zumindest eine partielle Überprüfungsmöglichkeit der (Personen‑)Datenbearbeitung durch KI und stellen somit zumindest partiell Transparenz her.
Um allgemeine, zivilgesellschaftliche Kontrolle – und somit Transparenz in einem weit verstandenen Sinn – rechtlich zu konkretisieren, sind verschiedene Ansatzpunkte vorstellbar. In der Literatur[115], der Politik[116] und der Zivilgesellschaft[117] findet sich verschiedentlich der Vorschlag bzw. die Forderung, ein öffentlich zugängliches Register zu schaffen. Aus diesem soll ersichtlich werden, in welchen Bereichen die öffentliche Verwaltung KI-Systeme einsetzt und das u. a. über die Art und Herkunft der bearbeiteten Sach- und Personendaten, die Rechtsgrundlage, den Zweck und die Mittel der Bearbeitung, das verantwortliche Organ, die KI-Anwendung und deren Logik sowie diejenigen Akteure, die an der Entwicklung des Systems mitgewirkt haben, Auskunft gibt.[118] Eine weitere Methode, Transparenz herzustellen, besteht darin, einen Transparenzbericht zu verfassen, der zeigt, dass die wichtigsten Fragen, z. B. zur Verhinderung von Diskriminierung, sowohl erkannt als auch reflektiert wurden und dass eine angemessene Rechenschaftspflicht für den Prozess sichergestellt wurde.[119] Zu diskutieren wäre, wie und wo ein Register bzw. die Erstellung eines Transparenzberichts rechtlich zu verankern und welche Punkte dabei zu berücksichtigen wären.
Auf Bundesebene (1), aber auch im internationalen Kontext (2), laufen verschiedene Projekte und Rechtsetzungsvorhaben, um den KI-Einsatz durch Staat und Private zu begleiten bzw. zu regulieren. Diese Entwicklungen sind bei der rechtlichen Befassung mit dem KI-Einsatz in der öffentlichen Verwaltung im Blick zu behalten. Nachfolgend findet sich deshalb ein kurzer Überblick über entsprechende Vorhaben und Entwicklungen.
Der Bund stellte im Jahr 2019 fest, der allgemeine Rechtsrahmen in der Schweiz reiche zum gegenwärtigen Zeitpunkt grundsätzlich aus, um mit Herausforderungen wie KI umzugehen.[120] Im Jahr darauf wurden sieben Leitlinien erlassen, die den Einsatz von KI in der Bundesverwaltung transparent, verantwortungsvoll und sicher gestalten sollen.[121] Gleichzeitig wurde das Kompetenznetzwerk für künstliche Intelligenz (CNAI) ins Leben gerufen, das Anfang des Jahres 2022 operativ tätig wurde.[122] Das CNAI soll die Vertrauenswürdigkeit in und von KI oder anderen Technologien innerhalb der Bundesverwaltung und auch darüber hinaus fördern und zur Information der Öffentlichkeit im jeweiligen Bereich beitragen.
Im April 2022 veröffentlichte das Eidgenössische Departement für auswärtige Angelegenheiten (EDA) einen Bericht, in dem es unterschiedliche KI-Regulierungsansätze im entstehenden internationalen Regelwerk beleuchtet.[123] Darin wird ausgeführt, dass die Schweiz zu einer massvollen internationalen Regulierung von KI beitragen werde, die Diskussionen in der Schweiz allerdings bis anhin von weniger umfassendem Regulierungsbedarf ausgehen.[124]
Neben dem Bund beschäftigen sich auch verschiedene Kantone mit einem möglichen KI-Einsatz.[125] Ausserdem engagieren sich zivilgesellschaftliche Organisationen[126] und die Wissenschaft[127] für das Schaffen eines rechtlichen Rahmens zum rechtskonformen und nachhaltigen KI-Einsatz. Der Ansatz soll jedoch ein anderer sein, als ihn bspw. die EU-Kommission verfolgt. Wo erforderlich, sollen sektorspezifische Regelungen geschaffen und bestehendes Recht angepasst werden – die Schaffung eines separaten KI-Gesetzes wird abgelehnt.[128]
Auf internationaler Ebene – in einem europäischen Kontext – sind insbesondere zwei geplante Regelwerke zu nennen. Im Jahr 2021 stellte die EU-Kommission einen Verordnungsvorschlag zur Regulierung von Künstlicher Intelligenz vor (EU-KI-VOV[129]) und entfachte damit eine breite Debatte über die rechtlichen Herausforderungen, die mit einem KI-Einsatz einhergehen.[130] Die EU-Kommission folgt dabei einem vierstufigen risikobasierten Ansatz, wobei die Klassifizierung entsprechend dem Grad der Risiken für Gesundheit, Sicherheit und Grundrechte erfolgt.[131]
Die vier Kategorien sind: unzulässiges Risiko, hohes Risiko, begrenztes Risiko, minimales Risiko. Ein unzulässiges Risiko liegt etwa bei der Verwendung von biometrischen Echtzeit-Identifizierungssystemen zu Strafverfolgungszwecken im öffentlichen Raum vor.
Weiter erarbeitet der Ausschuss für Künstliche Intelligenz (Committee on Artificial Intelligence, CAI)[132] des Europarats eine Konvention zur Regulierung von Künstlicher Intelligenz.
KI-Systeme werden mittelfristig in verschiedenen Verwaltungsbereichen zum Einsatz kommen. Im Moment existiert jedoch weder auf kantonaler noch auf Bundesebene eine Übersicht über die von den Behörden eingesetzten oder geplanten KI-Systeme. Dies erschwert die rechtliche Befassung mit den Entwicklungen. Aus einer allgemeinen Perspektive ist festzuhalten, dass der KI-Einsatz in der Verwaltung Regulierungsbedarf sowohl in Querschnittsgesetzen (insbesondere im RVOG und im VwVG) als auch in bereichsspezifischen Rechtsgrundlagen (z. B. im Steuer- oder Sozialversicherungsrecht) erfordert.
Auer Christoph, Binder Anja Martina, Kommentierung des Art. 12 VwVG, in: Auer Christoph/Müller Markus/Schindler Benjamin (Hrsg.), 2. Aufl., Zürich/St. Gallen 2019 (zit. VwVG Komm)
Baeriswyl Bruno, Kommentierung des Art. 4 DSG, in: Baeriswyl Bruno/Pärli Kurt (Hrsg.), Datenschutzgesetz, Bern 2015 (zit. SHK DSG)
Bansak Kirk/Ferwerda Jeremy/Hainmueller Jens/Dillon Andrea/Hangartner Dominik/Lawrence Duncan/Weinstein Jeremy, Improving refugee integration through data-driven algorithmic assignement, in: Science 2018, S. 325 ff.
Barkane Irena, Questioning the EU proposal for an Artificial Intelligence Act: The need for prohibitions and a stricter approach to biometric surveillance, in: Information Polity 27/2022, S. 147 ff.
Bieri Adrian/Powell Julian, Informationspflicht nach dem totalrevidierten Datenschutzgesetz, in: AJP 2020, S. 1533 ff.
Braun Binder Nadja, Künstliche Intelligenz und automatisierte Entscheidungen in der öffentlichen Verwaltung, in: SJZ 115/2019, S. 467 ff. (zit. KI Verwaltung)
Braun Binder Nadja, Automatisierte Einzelentscheidungen: Perspektive Datenschutzrecht und öffentliche Verwaltung, in: SZW 2020, S. 27 ff. (zit. Perspektive Datenschutzrecht)
Braun Binder Nadja, Als Verfügungen gelten Anordnungen der Maschinen im Einzelfall… – Dystopie oder künftiger Verwaltungsalltag?, in: ZSR 139/2020, S. 253 ff. (zit. Dystopie)
Braun Binder Nadja, Der Untersuchungsgrundsatz als Herausforderung vollautomatisierter Verfahren, in: zsis) 2/2020, S. 26 ff. (zit. Untersuchungsgrundsatz)
Braun Binder Nadja, Algorithmisch gesteuertes Risikomanagement im digitalisierten Besteuerungsverfahren, in: Unger Sebastian/von Ungern-Sternberg Antje (Hrsg.), Demokratie und künstliche Intelligenz, Tübingen 2019, S. 161 ff. (zit. Risikomanagement)
Braun Binder Nadja, Ausschliesslich automationsgestützt erlassene Steuerbescheide und Bekanntgabe durch Bereitstellung zum Datenabruf, in: DStZ 2016, S. 526 ff.
Braun Binder Nadja/Burri Thomas/Lohmann Melinda Florina/Simmler Monika/Thouvenin Florent/Vokinger Kerstin Noëlle, Künstliche Intelligenz: Handlungsbedarf im Schweizer Recht, in: Jusletter 28. Juni 2021 (zit. Braun Binder et al., Handlungsbedarf)
Braun Binder Nadja/Kunz Eliane/Obrecht Liliane, Maschinelle Gesichtserkennung im öffentlichen Raum, in: sui generis 2022, S. 35 ff.
Braun Binder Nadja/Spielkamp Matthias/Egli Catherine/Freiburghaus Laurent/Kunz Eliane/Laukenmann Nina/Loi Michele/Mätzener Anna/Obrecht Liliane/Wulf Jessica, Einsatz Künstlicher Intelligenz in der Verwaltung: rechtliche und ethische Fragen, Schlussbericht vom 28.02.2021 zum Vorprojekt IP6.4 zu Handen des Kantons Zürich (zit. Braun Binder et al., Studie KI 2021), abrufbar unter https://www.zh.ch/content/dam/zhweb/bilder-dokumente/themen/politik-staat/kanton/digitale-verwaltung-und-e-government/projekte_digitale_transformation/ki_einsatz_in_der_verwaltung_2021.pdf (zuletzt besucht am 10.10.2022).
Buchholtz Gabriele/Scheffel-Kain Martin, Algorithmen und Proxy Discrimination in der Verwaltung: Vorschläge zur Wahrung digitaler Gleichheit, in: NVwZ 9/2022, S. 612 ff.
Demaj Labinot/Sägesser Patrick, Chatbots für Organisationen: Anatomie, Potentiale und Anwendungsmöglichkeiten zur direkten Kommunikation mit Anspruchsgruppen, Diskussionspapier, abrufbar unter https://www.byerley.ch/assets/pdf/bylerley_2017_Chatbots_Diskussionspapier.pdf (zuletzt besucht am 10.10.2022)
Diggelmann Oliver/Emery Matthias/Enzler Livia/Rüfli Daniel/Stirnimann Martina/Tschudi Larissa, Der Diskriminierungsbegriff im öffentlichen und grundrechtlichen Diskurs, in: ZSR 2/2022, S. 211 ff.
Drüen Klaus-Dieter, Amtsermittlungsgrundsatz und Risikomanagement, in: DStJG 2019, S. 193 ff.
Ertel Wolfgang, Grundkurs Künstliche Intelligenz: Eine praxisorientierte Einführung, 4. Aufl., Wiesbaden 2016
Fischer Claudio/Daepp Annemarie, Digitalisierung am Beispiel der Steuerverwaltung des Kantons Bern, in: EF 4/2019, S. 327 ff.
Friedmann Batya/Nissenbaum Helen, Bias in Computer Systems, in: ACM Transactions of Information Systems, 3/1996, S. 330 ff.
Glaser Andreas, Einflüsse der Digitalisierung auf das schweizerische Verwaltungsrecht, in: SJZ 2018, S. 181 ff. (zit. Einflüsse)
Glaser Andreas, Automatisierte Verwaltungsverfahren in den Schweizer Kantonen, in: Braun Binder Nadja/Bussjäger Peter/Eller Matthias (Hrsg.), Auswirkungen der Digitalisierung auf die Erlassung und Zuordnung behördlicher Entscheidungen, Wien/Hamburg 2021, S. 159 ff. (zit. Automatisierte Verwaltungsverfahren)
Golda Thomas/Cormier Mickael/Beyerer Jürgen, Intelligente Bild- und Videoauswertung für die Sicherheit, in: Wehe Dieter (Hrsg.), Handbuch Polizeimanagement – Polizeipolitik – Polizeiwissenschaft – Polizeipraxis, Wiesbaden 2022, S. 1 ff.
Guckelberger Annette, Verwaltung im Zeitalter der Digitalisierung, Baden-Baden 2019
Hornung Gerrit, KI-Regulierung im Mehrebenensystem, in: Datenschutz und Datensicherheit 9/2022, S. 561 ff.
Kaplan Jerry, Artificial Intelligence. What everyone needs to know, New York 2016
Kiener Regina/Kälin Walter/Wyttenbach Judith, Grundrechte, 3. Aufl., Bern 2018
Kiener Regina/Rütsche Bernhard/Kuhn Mathias, Öffentliches Verfahrensrecht, 3. Aufl., Zürich/St. Gallen 2021
Kneubühler Lorenz/Pedretti Ramona, Kommentierung des Art. 35 VwVG, in: Auer Christoph/Müller Markus/Schindler Benjamin (Hrsg.), VwVG Kommentar, 2. Aufl., Zürich/St. Gallen 2019 (zit. VwVG Komm)
Kölz Alfred/Häner Isabelle/Bertschi Martin, Verwaltungsverfahren und Verwaltungsrechtspflege des Bundes, 3. Auflage, Zürich 2013
Lischka Konrad/Klingel Anita, Wenn Maschinen Menschen bewerten: Internationale Fallbeispiele für Prozesse algorithmischer Entscheidungsfindung, Arbeitspapier der Bertelsmann Stiftung 2017, abrufbar unter https://www.bertelsmann-stiftung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/ADM_Fallstudien.pdf (zuletzt besucht am 19.10.2022)
Meyer Christian, Die Mitwirkungsmaxime im Verwaltungsverfahren des Bundes: Ein Beitrag zur Sachverhaltsfeststellung als arbeitsteiligem Prozess, Diss. Zürich 2019
Müller Angela, Der Artificial Intelligence Act der EU: Ein risikobasierter Ansatz zur Regulierung von Künstlicher Intelligenz, in: EuZ 1/2022, S. A1 ff.
Müller Jörg Paul/Schefer Markus, Grundrechte in der Schweiz, 4. Aufl., Bern 2008
Nikitas Alexandros/Michalakopoulou Kalliopi/Tchouamou Njoya Eric/Karampatzakis Dimitris, Artificial Intelligence, Transport and the Smart City: Definitions and Dimensions of a New Mobility Era, in: Sustainability 7/2020, S. 1 ff.
Nufer Marianne, Künstliche Intelligenz in der Steuerveranlagung, in: ASA 88/2019/2020, S. 259 ff.
Obrecht Liliane, Verfügung und automatisierte Einzelentscheidung – same same but different?, in: ex/ante 2/2022, S. 38 ff.
Oettinger Michael, Data Science: Eine praxisorientierte Einführung im Umfeld von Machine Learning, künstlicher Intelligenz und Big Data, 2. Aufl., Hamburg 2020
Prince Anya E. R./Schwarcz Daniel, Proxy Discrimination in the Age of Artificial Intelligence and Big Data, in: Iowa Law Review 2020, S. 1257 ff.
Pullen Jennifer/Schefer Patricia, Predictive Policing – Grundlagen, Funktionsweisen und Wirkung, in: Simmler Monika (Hrsg.), Smart Criminal Justice, Basel 2021, S. 103 ff.
Rechsteiner David, Der Algorithmus verfügt, in: Jusletter 26. November 2018
Reiter Catherine, Künstliche Intelligenz im Verwaltungsverfahren, in: AJP 2022, S. 984 ff.
Rhinow René/Koller Heinrich/Kiss Christina/Thurnherr Daniela/Brühl-Moser Denise, Öffentliches Prozessrecht, 4. Aufl., Basel 2021
Roth-Isigkeit David, Die Begründung des vollständig automatisierten Verwaltungsakts, in: DÖV 2020, S. 1018 ff.
Schindler Benjamin, Kommentierung des Art. 5 Rz. 1–56 BV, in: Ehrenzeller Bernhard/Schindler Benjamin/Schweizer Rainer J./Vallender Klaus A. (Hrsg.), 3. Aufl., Zürich/Basel7genf 2014 (zit. SGK BV)
Simmler Monika/Brunner Simone, Smart Criminal Justice in der Schweiz – Die Kantone im Bann der Algorithmen?, in: Simmler Monika (Hrsg.), Smart Criminal Justice, Basel 2021, S. 10 ff.
Simmler Monika/Brunner Simone/Schedler Kuno, Smart Criminal Justice – Eine empirische Studie zum Einsatz von Algorithmen in der Schweizer Polizeiarbeit und Strafrechtspflege, St. Gallen 2020, S. 14 ff., 31 ff., abrufbar unter https://www.alexandria.unisg.ch/261666/1/Simmler et al._Smart Criminal Justice_Forschungsbericht vom 10.12.2020.pdf (zuletzt besucht am 10.10.2022)
Smuha Nathalie/Ahmed-Rengers Emma/Harkens Adam/Li Wenlong/McLaren James/Piselli Riccardo/Yeung Karen, How the EU can achieve Legaly Trustworthy AI: A Response to the European Commission’s Proposal for an Artificial Intelligence Act, Birmingham 2021 (zit. Smuha et al.), abrufbar unter https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3899991 (zuletzt besucht am 19.10.2022)
Stevens Jeremy, Datenqualität bei algorithmischen Entscheidungen, in: CR 2/2020, S. 73 ff.
Sutter Patrick, Kommentierung von Art. 30 VwVG, in: Auer Christoph/Müller Markus/Schindler Benjamin, VwVG – Bundesgesetz über das Verwaltungsverfahren Kommentar, 2. Aufl., Zürich 2019 (zit. VwVG Komm)
Thouvenin Florent/Braun Binder Nadja, Transparenz durch Datenschutzerklärungen, in: ZSR 1/2022, S. 5 ff.
Thouvenin, Florent/Christen Markus/Bernstein Abraham/Braun Binder Nadja/Burri Thomas/Donnay Karsten/Jäger Lena/Jaffé, Mariela/Krauthammer Michael/Lohmann Melinda/Mätzener Anna/ Mützel Sophie/Obrecht Liliane/Ritter Nicole/Spielkamp Matthias/Volz Stephanie, Positionspapier: Ein Rechtsrahmen für Künstliche Intelligenz, 2021, abrufbar unter https://dsi.uzh.ch/dam/jcr:3a0cb402-c3b3-4360-9332-f800895fdc58/dsi-strategy-lab-21-de.pdf (zuletzt besucht am 10.10.2022)
Thurnherr Daniela, Automatisierte Verwaltungsverfahren auf Bundesebene (Schweiz), in: Braun Binder Nadja/Bussjäger Peter/Eller Matthias (Hrsg.), Auswirkungen der Digitalisierung auf die Erlassung und Zuordnung behördlicher Entscheidungen, Wien/Hamburg 2021, S. 133 ff.
Tschannen Pierre/Müller Markus/Kern Markus, Allgemeines Verwaltungsrecht, 5. Aufl., Bern 2022
Voss Jakob, Datenqualität als Grundlage qualitativer Inhaltserschliessung, in: Franke-Maier Michael/Kasparzik Anna/Ledl Andreas/Schürmann Hans, Qualität in der Inhaltserschliessung, Berlin/Boston 2021, S. 167 ff.
Waldmann Bernhard, Kommentierung von Art. 8 BV, in: Waldmann Bernhard, Belser Eva Maria/Epiney Astrid (Hrsg.), Basler Kommentar Bundesverfassung, Basel 2015 (zit. BSK BV)
Waldmann Bernhard, Kommentierung von Art. 29 BV, in: Waldmann Bernhard, Belser Eva Maria/Epiney Astrid (Hrsg.), Basler Kommentar Bundesverfassung, Basel 2015 (zit. BSK BV)
Weber Rolf H., Automatisierte Entscheidungen: Perspektive Grundrechte, in: SZW 2020, S. 18 ff.
Weber Rolf H./Henseler Simon, Regulierung von Algorithmen in der EU und in der Schweiz, in: EuZ 2020, S. 28 ff.
Weder Regina, Verfahrensgrundrechtliche Anforderungen an automatisierte Verwaltungsverfahren, in: Simmler Monika (Hrsg.), Smart Criminal Justice: Der Einsatz von Algorithmen in der Polizeiarbeit und Strafrechtspflege, Basel 2021, S. 237 ff.
Wiederkehr René, Transparenz als Grundsatz rechtsstaatlichen Handelns (Art. 5 BV), in: ZBl 2007, S. 521 ff.
Wiederkehr René/Meyer Christian, Schranken, Ausnahmen und Relativierungen des rechtlichen Gehörs: Insbesondere mit Blick auf automatisierte Verwaltungsverfahren, in: AJP 2022, S. 1092 ff.
Wiederkehr René/Meyer Christian/Böhme Anna, Transparenz als Verfahrensgrundsatz: Gesetzliche Transparenztechniken und praktische Argumentationsfelder, in: recht 2022, S. 131 ff.
Williams Mary-Anne, Explainable artificial intelligence, in: Vogl Roland, Research Handbook on Big Data Law, Cheltenham/Northampton 2021, S. 318 ff.
Wolfangel Eva, Wo hat sie das nur gelernt?, in: Bischoff Manon (Hrsg.), Künstliche Intelligenz: Vom Schachspieler zur Superintelligenz?, Berlin 2022, S. 171 ff.
Zanella Andrea/Bui Nicola/Castellani Angelo/Vangelista Lorenzo/Zorzi Michele