- Gesellschaft, Künstliche Intelligenz
Künstliche Intelligenz
Aufbruch in die neu verschuldete Unmündigkeit?
Mit der atemberaubenden Entwicklung künstlicher Intelligenz (KI) verbindet sich für Politik und Wirtschaft ein Narrativ des Fortschritts. Der „KI-Act“ der Europäischen Union verfolgt einen Risikoansatz, der den Nutzen von KI in den Vordergrund stellt und Risiken nur abgestuft regulieren will. Das Grundproblem bleibt: Es fehlt an einem moralischen Kompass, der auf kritische Urteilskraft setzt.
Eine schöne neue Welt?
In Las Vegas fand Mitte Januar 2024 eine Party statt. Gefeiert wurde die künstliche Intelligenz. Eine der Neuentdeckungen der Messe: die Integration künstlicher Intelligenz in die Tastatur unseres Personal Computers. Ein virtueller Co-Pilot soll künftig unser Leben erleichtern. Per Klick und mit Hilfe von Open AI können wir Assistenzprogramme aufrufen. Sie übernehmen unsere Aufgaben und beantworten an uns gerichtete Fragen. Sie ersetzen das autonome Schreiben eines Textes durch maschinell determinierte Produktion von Sprechschablonen. Ein Klick genügt und Algorithmen entern unsere Welt, befreien uns von täglicher Mühsal. Für viele ist das ein Zeichen der Hoffnung. Mit dem Vordringen künstlicher Intelligenz in unsere Lebenswelt ist für Politik, Wirtschaft und Gesellschaft ein neues Narrativ des Fortschritts verbunden. So eine Art letzter Hoffnung in dunklen Zeiten. Alle wollen dabei sein. In der industriellen Anwendung steckt das ersehnte Potential für wirtschaftliches Wachstum und Produktivitätsfortschritt. In der Medizin – und das mag wirklich gut sein – eröffnen sich neue Methoden der Forschung, die Entwicklung neuer Medikamente, Diagnose- und Heilverfahren. „Pepper“, der niedliche Pflegeroboter, unterstreicht das humane Antlitz und den teilweise unbestreitbaren sozialen Nutzen künstlicher Intelligenz. Und Unternehmen sollen dank KI effizienter, billiger und serviceorientierter werden.
Das Leben kann so einfach sein
All das bleibt nicht nur abstrakt, sondern ist längst gelebter Alltag auch in Luxemburg, bei den Akteuren des Finanzmarktes, in Rechts- und Beratungskanzleien, nicht zuletzt in der universitären Ausbildung junger Menschen. Der Verfasser dieser Zeilen hatte sein Damaskuserlebnis in der Begegnung mit ChatGPT angesichts eines schriftlichen Online-Examens mit Studierenden des ersten Masterjahres. Gefragt war eine kritische Analyse des Zustands der Rechtsstaatlichkeit im europäischen Raum der Freiheit, der Sicherheit und des Rechts. Die Antworten: technokratisch gestanzte Leerformeln, hochgradig verdichtetes Gerede – nicht falsch, aber leblos, ohne sichtbaren griffigen Gedanken. Warum verfällt man der Idee, sich statt des eigenen Verstandes auf das Äußerste datentrainierter Algorithmen zu bedienen? Erklärungen fanden sich in persönlicher Überforderung mit dem Studienstoff, im Bedürfnis nach Zeitersparnis oder in der Faszination für die scheinbar wundersame Vereinfachung einer allzu komplex gewordenen Welt.
„Smart Orders“
Diskutiert man mit Vertretern professioneller Eliten, erfährt man Ähnliches, freilich differenzierter: Künstliche Intelligenz führt zu smarten Ordnungen („smart orders“). Schon der Begriff klingt nach Cappuccino mit Milchschaum und Schokostreusel. Gemeint damit ist die Verheißung, potenzielle Probleme oder gar Abweichungen von der Norm schon zu identifizieren, bevor sie entstehen. Algorithmen unterstützen die Idee antizipatorischen Regierens – eine schöne neue Welt technologischer Reinheit, ermöglicht durch auf Hochleistung getrimmte Vorhersagedaten. Optimierte und selbst lernende Techniken der Gesichts- und Spracherkennung, die Analyse von Meta-Daten bei der Smartphone-Nutzung lassen mögliche betrügerische Aktivitäten auf dem Kapitalmarkt ebenso vorzeitig erkennen wie Sicherheitslücken im Innern und bei der Verteidigung. Das deutsche Bundeskriminalamt verwendet das KI-gestützte Programm RADAR-ite. Das Ziel: potentielle Risiken terroristischer Straftaten nicht nur präventiv abzuwenden, sondern prädiktiv präzise bestimmen zu können. Sammlung von persönlichen Verhaltensdaten, wie individuelle Gewalterfahrungen, feste oder fragile Partnerschaften, sicherer oder gefährdeter Arbeitsplatz, nicht zuletzt die geographische Komponente von Orten, denen ein erhöhtes Gefahrenrisiko zugeschrieben wird, sind die Mittel des Versprechens, Abweichungen von der Norm schon in ihrem Keim ersticken zu können. In der Geschäftswelt vollzieht sich die Transformation des Vertragsrechts in ein System von „Smart Contracts“ – smart wie ein Slim Fit Anzug von Dior: Verträge erweisen sich nicht länger als das Resultat eines Aushandlungsprozesses zwischen Parteien. Information und Transaktion werden durch Blockchain-Technologie sekundenschnell verknüpft. Künstliche Intelligenz optimiert die Durchführung des Vertrages. Bei Zahlungsverzug zum Beispiel kann der auf Raten gekaufte elektrische PKW durch ein aktiviertes Modul gleich stillgelegt werden.
Warum verfällt man der Idee, sich statt des eigenen Verstandes auf das Äußerste datentrainierter Algorithmen zu bedienen?
Egal ob wissenschaftliche Assistenz oder smarte KI-Regulierung: die Treiber beider Entwicklungen sind zum einen die großen Akteure der Digitalisierung (Google, Microsoft etc.), aber zum anderen auch Beratungsgesellschaften und digitale Start-ups, die die Technologie für antizipatorisches Regieren und prädiktive Problembearbeitung bereitstellen. Auf dem Markt der Rechtsberatung entstehen neue Unternehmen, die das Recht nicht als normative Ordnung von begründbaren legitimen Ansprüchen interpretieren, sondern als technisches Produkt. Online entsteht ein breites Angebot von Rechte-Dienstleistern, die den Markt der Rechtsberufe revolutionieren. Aus der Sicht der Akteure ist das kein Problem – im Gegenteil: Die KI verspricht Zeit- und Geldgewinn. Wir sehen, wie die Mechanismen eines digitalen Kapitalismus wirken. Perfektionierte Daten-Analyse braucht „Big Data“. Die Verfügungsmacht über Daten ist das Kapital des 21. Jahrhunderts. Smarte Ordnungen gründen auf einem Geflecht privater, institutioneller und öffentlicher Akteure, die teils durch ökonomische Verwertungs-, teils durch staatliche Kontrollinteressen motiviert sind. Das alles verspricht Entlastung – Entlastung von komplizierten Verfahren, Entlastung von komplexen Entscheidungen, Entlastung vom kritischen Nachdenken.
Nur ein paar, wie es scheint, ewig gestrige, als Feinde des Fortschritts diskreditierte Bedenkenträger scheinen sich als Partyschreck betätigen zu wollen und heben den Zeigefinger. Sie warnen vor den Risiken einer Überwachungsgesellschaft, vor Gefahren für Demokratie und Rechtsstaatlichkeit und nicht zuletzt vor dem Verlust persönlicher Souveränität, die vor allem auf des Menschen eigener Urteilskraft beruht. Der „KI-Act“ der Europäischen Union, gerade auf dem Weg durch die Ausschüsse des Europäischen Parlaments, soll diese Risiken regulieren und die Grundlage bilden für eine „vertrauenswürdige“ künstliche Intelligenz. Freilich macht schon der erste Absatz zur Begründung des Rechtsakts die Richtung klar. Vorrang haben der Nutzen für Wirtschaft und Gesellschaft. Europa soll technologieoffen sein. Nicht zuletzt: die Regulierung von KI ist Ausdruck des Strebens nach Europas Souveränität, verstanden als politische Fähigkeit die Digitalisierung zu gestalten – zum wirtschaftlichen Vorteil der Akteure der Plattformökonomie. Daraus erwächst eine Regulierung, die den Kompromiss zwischen Risiko und ökonomischem Interesse sucht. Je höher das Risiko zu veranschlagen ist, desto strenger sind auch die Erfordernisse an Zulassung und Praxis künstlicher Intelligenz.
Die Prädiktionsgesellschaft – zarteste Versuchung sozialer Kontrolle
Allerdings mündet diese Abwägung nur in wenigen Fällen in ein Verbot der Anwendung künstlicher Intelligenz. Umfassende Sozialkontrolle durch die Bewertung und Klassifizierung von Alltagsverhalten und der sich daran anschließenden Privilegierung normkonformer Personen oder deren Exklusion im Falle abweichenden Verhaltens, soll anders als in China in der Europäischen Union geächtet sein. Weit reicht diese politische Beschränkung der Macht der Algorithmen nicht, denn die Exekutive will diese für sich nutzen. Zum Zwecke der Strafverfolgung oder der Gefahrenabwehr soll die durch KI gestützte biometrische Gesichtserkennung grundsätzlich erlaubt sein. Die Einwände des Europäischen Parlaments prallten an den Interessen der Exekutive im Rat der Europäischen Union ab. Konkret bedeutet dies aber, dass jeder Bürger und jede Bürgerin, bewegt er oder sie sich im öffentlichen Raum, Objekt der Erfassung, Durchrasterung und Kontrolle werden kann. Die KI verstärkt und vervielfältigt den staatlichen Zugriff. Das smarte Versprechen, Sicherheitsrisiken durch Prädiktion von vornherein ausschließen zu können, hat einen hohen Preis. Der Eingriff in das Recht darauf, über uns und unsere Daten selbst zu bestimmen, bleibt unbemerkt. Und trotzdem: das Gefühl, irgendwie und überall und andauernd beobachtet werden zu können, führt genau zu dieser gewollten Beunruhigung und des mit ihr verbundenen Verzichts auf die Ausübung unserer Grundfreiheiten: Darin liegt das Fundament von Überwachungsgesellschaften. Richtervorbehalte und das Prinzip der Verhältnismäßigkeit als Voraussetzungen KI-gestützter Gesichtserkennung bilden gegenüber der Macht der Algorithmen nur schwache Hindernisse.
Der Eingriff in das Recht darauf, über uns und unsere Daten selbst zu bestimmen, bleibt unbemerkt.
Weitreichend auch die Möglichkeiten künstlicher Intelligenz in der Arbeitswelt. Auswahl und Einstellung von Bewerberinnen und Bewerbern können mit Hilfe künstlicher Intelligenz erfolgen. Universitäten könnten sich künftig solcher Tools bedienen, um Bewerbungen von Studierenden zu evaluieren. Das Problem: künstliche Intelligenz entscheidet nur aufgrund existierender Daten, einschließlich bestehender normativer Fehlentwicklungen. Wir riskieren, dass Stereotypen und Diskriminierung aufgrund der Herkunft oder des Geschlechts sich verstetigen. Der „KI-Act“ bietet als Antwort darauf die Zulassung Künstlicher Intelligenz nach den Kriterien eines Zertifizierungsverfahrens und setzt darüber hinaus auf ethische Selbstverpflichtung sowohl der Entwickler als auch der Nutzer.
Ausstieg aus der Aufklärung?
Für viele ist selbst dieser weite Regulierungsrahmen bereits zu eng. Die Befürchtung, dass Europas Binnenmarkt Wettbewerbsnachteile erleidet, würde man die Kriterien der Zulassung von künstlicher Intelligenz verschärfen, überwiegt die Sorge um Bürgerrechte. Gerade für die umstrittene Regulierung der sogenannten „Basismodelle“ hat sich im Trilog ein abgestufter, in der Intention weicher Ansatz durchgesetzt. Unter Basismodellen versteht man KI-Anwendungen wie etwa ChatGPT oder andere Sprachmodelle, die längst über das Erstellen von Texten hinausgewachsen sind. Sie haben das Potential, Politik und Gesellschaft nachhaltig zu erschüttern. Die Möglichkeit, „Deepfakes“ zu verbreiten, mag als nur ein Beispiel dienen.
Indes ist nicht ein Mehr oder ein Weniger an Regulierung das Problem. Die Technologie ist unaufhaltsam und wird unser Leben in Zukunft prägen. Aber sind wir ihr gewachsen? Kants Aufforderung, das Wagnis eigenen Nachdenkens einzugehen („Sapere Aude“!), mag die eigentliche Herausforderung darstellen. Öffentlich vom eigenen Verstand Gebrauch zu machen – ohne die Leitung eines anderen – war das Programm der Aufklärung. Kritik der Urteilskraft, das gemeinsame Nachdenken über die Regeln, die unser Zusammenleben bestimmen, konstituiert nicht mehr und nicht weniger als unser aller Freiheit: als Menschen, die zum moralischen Handeln befähigt sind, als Staatsbürger, die wir Freiheit einklagen, als Weltbürger, die wir Freiheit solidarisch teilen. Künstliche Intelligenz ist die smarte Versuchung, sich unserer kritischen Urteilskraft zu entledigen. Aus „Faulheit und Feigheit“ monierte Kant, sei es die Entscheidung vieler, in der Unmündigkeit zu verharren. Ist es so, dass eine komplexe Welt, friedlos und unbequem wie sie ist und zunehmend wird, zur freiwilligen Aufgabe des eigenen Verstandes führt? Ermutigung zur Kritik und das Beharren auf die Kraft des eigenen Gedankens sind Gegenkonzepte – zu fördern und zu entfalten vor allem an Schulen und Universitäten.
Stefan Braum ist Professor für Europäisches Strafrecht, Strafverfahrensrecht, Kriminologie und Rechtsphilosophie an der Universität Luxemburg. Von 2012 bis 2017 war er Dekan der Fakultät für Rechts-, Wirtschafts- und Finanzwissenschaften. Er war wiederholt Direktor des Studiengangs Europäisches Wirtschaftsstrafrecht, den er selbst 2006 gegründet hat. Derzeit betreut er unter anderem zwei Promotionsprojekte zum Thema Künstliche Intelligenz.
Als partizipative Debattenzeitschrift und Diskussionsplattform, treten wir für den freien Zugang zu unseren Veröffentlichungen ein, sind jedoch als Verein ohne Gewinnzweck (ASBL) auf Unterstützung angewiesen.
Sie können uns auf direktem Wege eine kleine Spende über folgenden Code zukommen lassen, für größere Unterstützung, schauen Sie doch gerne in der passenden Rubrik vorbei. Wir freuen uns über Ihre Spende!
