Bundesministerium der Justiz und für Verbraucherschutz

DokumenttypRede | Datum6. Februar 2018 | Person Gerd BillenStaatssekretär Gerd Billen bei der gemeinsamen Konferenz des Bundesministeriums der Justiz und Verbraucherschutz sowie des bitkom zum Safer Internet Day

Rede von Gerd Billen Staatssekretär im Bundesministerium der Justiz und für Verbraucherschutz bei der gemeinsamen Konferenz des Bundesministeriums der Justiz und Verbraucherschutz sowie des bitkom „Künstliche Intelligenz – Dein Freund und Helfer?“ zum Safer Internet Day am 6. Februar 2018 in Berlin.

ES GILT DAS GESPROCHENE WORT!

Sehr geehrte Herr Berg,
Meine sehr geehrten Damen und Herren,
verehrte Gäste!

Ein herzliches Willkommen zur gemeinsamen Konferenz von bitkom und Bundesministerium der Justiz und für Verbraucherschutz!

In den letzten Jahren haben wir uns bei unseren gemeinsamen Konferenzen zum Safer Internet Day mit einem bunten Strauß an Themen beschäftigt.

  • 2015 haben wir uns die Datensicherheit im vernetzten Auto angeschaut und gefragt: „Wohin geht die Fahrt?“
  • 2016 standen Wearables und Gesundheits-Apps im Fokus, und die Frage war: „Am Puls der Zeit?“
  • Und im letzten Jahr stand dann Smart Home auf der Agenda – verbunden mit der Frage: „Wie digital wollen wir wohnen?“

Alle diese Fragen stehen im Zusammenhang mit Entwicklungen der Künstlichen Intelligenz. Und so wollen wir heute genauer wissen, wo die Künstliche Intelligenz unser Freund und Helfer ist – und wo Ihre Grenzen liegen.

Wir wollen diskutieren, was es für den einzelnen Menschen und die Gesellschaft insgesamt bedeutet, wenn digitale Techniken zunehmend menschliche Befähigungen wie Lernen, Verstehen, Abwägen und Interagieren erlernen und übernehmen können.

Wie gehen wir mit daraus entstehenden neuen Abhängigkeiten um? Und wie bewahren wir uns wichtige Werte wie Freiheit und Souveränität?

Wir müssen darüber nachdenken, in welcher Weise der Einsatz von Künstlicher Intelligenz geregelt sein muss, um Rechtsklarheit für die Entwickler und Hersteller sowie Rechtssicherheit für den sonstigen Rechtsverkehr zu schaffen.

Meine Damen und Herren,
in einer globalisierten Welt macht auch die Diskussion über Chancen und Risiken der Künstlichen Intelligenz nicht an nationalen Grenzen halt.

So beschäftigen sich etwa auch die Europäische Kommission und das Europäische Parlament mit dem Thema.

Wir dürfen aber nicht den Fehler machen, gar nicht erst über eine staatliche Verantwortung für technische Entwicklungen nachzudenken, nur weil diese sich auf der ganzen Welt vollziehen. Eine verantwortungsbewusste Politik muss sich in aller Ruhe und ohne fortschrittsfeindliche Aufgeregtheiten fragen, wie mit selbstlernenden Algorithmen in sensiblen Bereichen umzugehen ist.

Dazu gehört auch, nicht jeder technischen Neuentwicklung gleich den Stempel „Künstliche Intelligenz“ aufzudrücken und gleichzeitig Innovationen auf dem Gebiet der Künstlichen Intelligenz nicht von vornherein jeden gesellschaftlichen Nutzen abzusprechen:

In der Forschung und Entwicklung zur Künstlichen Intelligenz steckt ein enormes Potenzial für gesellschaftlich nützliche Anwendungen. Zugleich ist nicht jeder, der sich kritisch mit Künstlicher Intelligenz befasst und diese mit einem Werte- und Ordnungsrahmen versehen will, deshalb gleich Fortschrittsfeind und ein Bewahrer der guten alten Zeiten.

Lassen Sie uns also sachlich und offen über die notwendigen Regeln diskutieren, die für jede technische Entwicklung gelten müssen.

Ich bin gespannt auf die Beiträge der Experten, Wissenschaftler und Praktiker, die heute aus ihrer jeweiligen Perspektive zu uns sprechen werden.

Meine Damen und Herren,
unabhängig von technischen Details und konkretem Einsatzbereich ist unsere rechts- und verbraucherpolitische Maxime:

Künstliche Intelligenz muss ebenso sicher wie frei von Diskriminierungen und Benachteiligungen sein. Und sie muss so transparent wie möglich eingesetzt werden.

Je weiter sich die Künstliche Intelligenz technisch entwickelt, desto weniger wird das aktuelle Recht alle Rechtsfragen lösen können, die sich aus dem Einsatz von Künstlicher Intelligenz ergeben.

So ist etwa zu klären, wie Haftungsfragen fair und verbraucherfreundlich zwischen Herstellern, Anbietern und Verbrauchern verteilt werden können:

  • Muss das Recht anders ausgestaltet sein, wenn mit selbstlernenden Algorithmen ausgestattete Roboter in Haushalt, Logistik und Operationssaal mehr und mehr unseren Alltag prägen?
  • Was passiert, wenn bei einem Fehlverhalten der Maschine die auslösende Ursache nicht mehr eindeutig zugerechnet werden kann?
  • Und wie wirkt es sich auf das Recht aus, wenn sich Maschinen „autonom“ verhalten, indem sie konkrete Entscheidungen aufgrund der sensorischen Wahrnehmung der Umwelt treffen, die zum Zeitpunkt der Herstellung nicht in vollem Umfang vorherbestimmt wurden?

Meine Damen und Herren,
ich nenne Ihnen ein Beispiel, bei dem zwar kein vollständig autonomes System Künstlicher Intelligenz zum Einsatz kam, aber doch ein Algorithmen-basierter Entscheidungsprozess:

In Australien hatte vor rund einem Jahr die staatliche Sozialhilfeagentur Centrelink nach automatisierten Datenabgleichen ebenfalls automatisiert erstellte Mahnbescheide erlassen, mit denen von rund 170.000 Sozialhilfeempfängern zu viel gezahlte Sozialleistungen zurückgefordert wurden.

Nach zahlreichen Beschwerden stellte sicher heraus, dass rund 20.000 Mahnbescheide fehlerhaft waren:

  • In 7.000 Fällen gab es gar keine Zuvielzahlung,
  • in 13.000 Fällen waren die Rückzahlungsansprüche deutlich niedriger, als von der Software berechnet.

Die Fehlersuche gestaltete sich schwierig, da offenbar nicht einmal die Anwender selbst die Funktionsweise der Software nachvollziehen konnten.

Schließlich wurden als mögliche Fehlerquellen ausgemacht, dass Einkommensdaten nicht aktualisiert worden waren und auch falsche Angaben zum Arbeitgeber vorlagen. Außerdem konnte das automatisierte Verfahren zwar mit Standardfällen umgehen, nicht aber mit Sonderfällen, die es im Sozialhilfebezug häufig gibt.

Meine Damen und Herren,
das Beispiel zeigt die Fehleranfälligkeit und Intransparenz von bereits im Einsatz

befindlichen Algorithmen-basierten Verfahren. Typische Fehlerquellen sind

  • eine fehlerhafte Datenbasis,
  • Fehler, die bereits im Code enthalten sind,
  • oder auch ein fehlerhaft modelliertes Problem, das der Algorithmus lösen soll.

Und je „selbstlernender“ künftige Anwendungen werden, desto schwieriger wird es werden, die Fehlerursache auszumachen.

Gerade wenn schon die Datenbasis Fehler, Verzerrungen oder Vorurteile enthält, kann der Algorithmus zu inakzeptablen Ergebnissen kommen. Deshalb ist die Qualität von Daten von entscheidender Bedeutung. Wer sich damit beschäftigt, wie er ein selbstlernendes Programm geschaffen werden kann, muss sich gleichzeitig fragen, womit er dieses Programm denn füttern kann, damit ein gesundes Ergebnis daraus wächst.

Ein solches Beispiel hat vor wenigen Tagen Microsoft-Präsident Brad Smith in einem Zeitungsinterview gegeben:

Wenn Sie als Arbeitgeber einen Computerspezialisten einstellen wollen und ein Algorithmus bei der Sichtung der Bewerbungen helfen soll, muss der Algorithmus zunächst trainiert werden. Aus den verfügbaren Trainingsdaten lernt der Algorithmus dann, dass die meisten Computerspezialisten männlich sind. Folglich bevorzugt der Algorithmus männliche Bewerber – und verschärft damit das ohnehin schon bestehende Problem fehlender weiblicher Fachkräfte im IT-Bereich.

Das zeigt: Wenn man es schafft, wie in diesem Fall, den Fehler zu definieren, ist man so gut wie bei der Lösung angekommen.

Das Beispiel zeigt auch, dass wir den Umgang mit selbstlernenden Mechanismen selbst noch lernen müssen. Das ist das aktuelle Problem – und gleichzeitig die Lösung. Lassen Sie uns lernen! Mit Offenheit und der eigenen kritischen Intelligenz/Lernpartnerschaften.

Meine Damen und Herren,
natürlich sind auch menschliche Entscheidungen fehlerhaft: Menschliche Entscheidungen sind weniger determinierbar als die eines Algorithmus. Sie sind anfälliger für kognitive Fehler.

Gleichzeitig ist ein Mensch jedoch flexibler: Er erkennt Abweichungen im Einzelfall und kann auf besondere Umstände reagieren. Algorithmische Entscheidungen berücksichtigen nur Kriterien, die in der Programmierung angelegt sind.

Für Verbraucherinnen und Verbraucher können algorithmische Entscheidungen gesellschaftlich nicht gewollte Auswirkungen haben:

Im Rahmen von Profiling, Scoring und der Personalisierung von Preisen kann der Einsatz von Algorithmen-basierten Entscheidungssystemen die Selbstbestimmung, die Wahlfreiheit und die wirtschaftliche Teilhabe von Verbrauchern gefährden.

Meine Damen und Herren,
es stellt sich die Frage, ob wir den geltenden Rechtsrahmen anpassen müssen, um eine unabhängige Kontrolle jedenfalls von solchen Algorithmen-basierten Entscheidungen gewährleisten zu können, die Grundrechte und gesellschaftliche Teilhabe betreffen.

Wir erleben gerade, wie sich internationale Konzerne auf das Marktortprinzip der Europäischen Datenschutz-Grundverordnung vorbereiten, die ab Mai anzuwenden ist.

Daher bin ich überzeugt, dass gerade aus Europa heraus wertvolle Impulse für ein gutes Wettbewerbsumfeld und die Allgemeinwohlorientierung von Künstlicher Intelligenz ausgehen können.

Wenn Algorithmen Entscheidungen automatisiert treffen, sollten sie grundsätzlich auf die Einhaltung von Diskriminierungsverboten, des Datenschutzrechts, des Wettbewerbsrechts sowie anderer rechtlicher Vorgaben hin überprüfbar sein. Auch für selbstlernende Algorithmen gilt es, ein passendes Überprüfungsverfahren zu entwickeln.

Meine Damen und Herren,
der Erfolg der Digitalisierung hängt auch vom Vertrauen der Verbraucherinnen und Verbraucher in die technologische Entwicklung ab.

Um Verbrauchervertrauen zu stärken und die Überprüfbarkeit von Algorithmen-basierten Prozessen zu ermöglichen, wären zudem Transparenzvorgaben hilfreich – etwa die Pflicht zu einem one pager : mit standardisierten Basisinformationen über das Zustandekommen eines Ergebnisses und die Datengrundlage.

Dabei könnten die Maßgaben der EU-Datenschutz-Grundverordnung gelten,

wonach die Informationen „in präziser, transparenter, verständlicher und leicht zugänglicher Form in einer klaren und einfachen Sprache zu übermitteln“ sind.

Meine Damen und Herren,
wir sind mittendrin in einer rasanten digitalen Entwicklung. Diese Entwicklung muss die Menschen mitnehmen. Dazu gehört ein verlässlicher rechtlicher Ordnungsrahmen, der einen breiten Korridor für Innovationen enthält, jedoch Handhabe gegen diskriminierende Algorithmen bietet.

In diesem Sinne wünsche ich uns allen heute eine spannende Veranstaltung mit lebendigen Diskussionen!

Herzlichen Dank.

Zusatzinformationen