Algorithmen,  Digitalisierung,  Ethik

Wenn der Staat Algorithmen nutzt – brauchen wir ethische Standards

Algorithmen sind nichts Neues

Bereits seit Lebzeiten begleiten uns Algorithmen. Genau gesagt seit dem 12 Jahrhundert. ­čÖé Also nicht jeden Einzelnen von uns, aber ├╝ber die Jahrhunderte hinweg unsere Gesellschaften.

Algorithmen sind vereinfacht ausgedr├╝ckt eindeutige Handlungsanleitungen zur L├Âsung eines Problems. Sie bed├╝rfen dazu nicht einmal mathematischer Formeln oder Code oder gar┬áeiner digitalen Umsetzung.┬á.
Als Beispiel┬á f├╝r einfache Algorithmen seinen hier stellvertretend Bastelanleitungen, Gebrauchsanweisungen, Gesetze oder ├Ąhnliches genannt, die mittels nat├╝rlicher Sprache die Probleml├Âsung beschreiben. Ja, auch IKEA-Aufbauanleitungen fallen hierunter, auch wenn das der ein oder andere K├Ąufer von Billy und Co das schier unglaublich findet.

Auch einem Algorithmus zugrunde liegende mathematische Formeln bed├╝rfen keiner Umsetzung durch die „IT“, wie am Bespiel der Berechnung des BMI deutlich wird. Bei Vorhandensein notwendiger Basisangaben kann dieser mittels der bereitgestellten Formel auch im Kopf berechnet werden. Oder ganz „oldschool“ auf dem Papier. Oder Taschenrechner.

Algorithmen in dieser Form sind f├╝r jeden nachvollziehbar, transparent (naja, vielleicht bis auf Gesetze oder IKEA) und k├Ânnen weitgehend ohne weitere Hilfsmittel angewandt werden.

Menschen machen Algorithmen

Das ist eine ganz profane Feststellung, auf die ich am Ende gern nochmals kurz zur├╝ckkommen m├Âchte.
Der Algorithmus selbst an sich ist also weder „gut“ noch „b├Âse“, sondern er ist lediglich das in Sprache/Formeln/Code gegossene Ergebnis der Erstellers. Wichtig ist also immer die Intention, mit der diese Algorithmen geschrieben werden.

Und wenn wir uns nochmals verdeutlichen, dass auch Bastelanleitungen ein Algorithmus sind, stellen wir fest, dass eine unspezifische D├Ąmonisierung von Algorithmen am Ende totaler Nonsens ist.

Der Einzug der Algorithmen in die Informatik

Auch wenn wir sie nicht direkt sehen k├Ânne, begleiten uns Algorithmen in unserer digitalisierten Welt auf Schritt und Tritt.
Egal ob wir gerade┬á ein paar Apps auf dem Smartphone nutzen, oder bei Google etwas suchen oder bei Amazon etwas einkaufen. Auch wenn wir die praktische Rechtschreibpr├╝fung in einem Office-Programm benutzen oder das Navi uns mal eben zum n├Ąchsten Date lotst. Selbst bei der Partnersuche im Internet oder via App (Dating-Portal, Tinder und Co) laufen im Hintergrund kleine Algorithmen, die den f├╝r uns passenden „Partner“ finden sollen. Nur wir dies hier unter dem Modewort „Matching“ verkauft.

Bei all diesen Beispielen haben wir in aller Regel keine Bedenken, dass uns diese Algorithmen irgendwie schaden wollen. Wir betrachten sie vielmehr als n├╝tzliche Tools im Umgang mit unseren t├Ąglichen Herausforderungen.

Eine neue Dimension der Anwendung erf├Ąhrt der Algorithmus allerdings durch Nutzung Bereich Big Data bzw. Data Mining.┬á Dank gestiegener Anzahl von gesammelten Daten und der gestiegenen Rechenleistungen von Computern, k├Ânnen gro├če Datenmengen mithilfe von Algorithmen nach Mustern und Zusammenh├Ąngen durchforstet und ausgewertet werden.

Und sp├Ątestens an dieser Stelle gehen f├╝r „Otto Normalb├╝rger“ Transparenz und Nachvollziehbarkeit dieser Algorithmen verloren.

Der Staat mischt sich ein und mit

Ein moderner Staat sollte, oder besser muss, Algorithmen nutzen. Sie k├Ânnen dabei helfen, Verwaltungsabl├Ąufe zu optimieren. Neben schlankeren und transparentere Prozessen kann diese auch dazu f├╝hren, dass auch monet├Ąre Einspareffekte erzielt werden k├Ânnen.
Weil es dabei in aller Regel um Steuergelder geht, ist diese Effizienz im Sinne jedes B├╝rgers, jedes Steuerzahlers.
Diese k├Ânnen dann sinnvoller und gewinnbringender an anderer Stelle eingesetzt werden.

Und der Staat verf├╝gt auch gerade hinsichtlich der m├Âglichen Daten ├╝ber einen wesentlichen Vorteil:

Bei Privatanbietern k├Ânnen wir unter Umst├Ąnden der Datennutzung widersprechen k├Ânnen oder via „Fake-Accounts“ unsere Daten nicht preisgeben.
Hier hat der „Staat“ einen Vorteil, da er aus hoheitlichen Aufgaben heraus ├╝ber eine ganze Menge von Echtdaten verf├╝gt. Ob das nun das Finanzamt ist, das Melderegister oder auch die Arbeitsagentur bzw. das Jobcenter.

„Minority Report – eine Anleitung zum Gruseln

Das wohl pr├Ągnanteste (fiktive) Beispiel was Algorithmen ohne entsprechende Transparenz, ethische Regeln und Kontrolle anrichten k├Ânnen zeigt sehr eindrucksvoll der Film „Minority Report“. In diesem werden via „predictive policing“ Menschen klassifiziert und┬ádurch vollst├Ąndige Kontrolle ├╝ber jegliche Kommunikation wird die totale Kontrolle ├╝ber alle Menschen erlangt. Wer auch nur daran denken k├Ânnte eine Straftat zu begehen, ist schuldig. Dabei spielt es keine Rolle, ob dieser Mensch wirklich auch nur daran gedacht hat. Denn das entscheiden Algorithmen. Und auch hier k├Ânnen wesensspezifische Merkmale wie Hautfarbe und Herkunft dazu f├╝hren, dass man weggesperrt wird.

Die zun├Ąchst┬áfreie┬áGesellschaft muss also ÔÇô zu ihrem eigenen Wohl ÔÇô kontrolliert werden, damit man ihre Sicherheit besser gew├Ąhrleisten kann.
Eine Gruselvorstellung die da skizziert wird. Wissenswert ist vielleicht, dass die zugrunde liegende Kurzgeschichte bereits 1956 (!!) geschrieben wurde.

Beispiele aus der Gegenwart

Und genau hier lohnt es sich einen Blick darauf zu werfen, wie der Staat mit diesen Daten umgehen sollte.
Und das er die Potenziale der Algorithmen im Zeitalter von Digitalisierung und Big Data erkannt hat, zeigen 2 Beispiele. Von denen eines gerade zu massiven Diskussionen f├╝hrt.

Beispiel 1 – Stellenportale

Seit 2003 betreibt die Bundesagentur f├╝r Arbeit ein Stellenportal und befindet sich damit in direkter Konkurrenz zu gewerblichen Anbietern wie Monster, Stepstone, Indeed und Co.
Was diesen Stellenportalen zugrunde liegt ist ein Abgleich zwischen Angebots- und Nachfrageseite. Bei den Bewerbern wird hierbei zumeist auf F├Ąhigkeiten, Fertigkeiten, Abschl├╝sse und sonstige Rahmenbedingungen gesetzt. Diese werden dann nach zugrunde liegenden Algorithmen (Matching) mit den vorhandenen Stellen abgeglichen und ein Matchscore ermittelt. Dieser zeigt (vereinfacht) ausgedr├╝ckt den ├ťbereinstimmungsgrad und damit die Wahrscheinlichkeit, wie gut die Stelle zu dem Bewerber passt. Oder umgekehrt.

Die diesem Matching zugrunde liegende Software, bzw., die darin enthaltenen Algorithmen, sind dem normalen Nutzer nicht sichtbar. Wir verlassen uns einfach weitgehend auf diese Ergebnisse. Und ob dann Alter, Kinder, Geschlecht oder Behinderung zu Punktabzug oder nicht f├╝hren, bleibt uns verborgen.

Dies kann am Ende in aller Konsequenz dann ├╝ber Job oder Absage entscheiden.

Beispiel 2- Kategorisierung von Arbeitslosen in ├ľsterreich

Die ├Âsterreichische Arbeitsverwaltung pant ab 2020 einen Algorithmus einzuf├╝hren, der Arbeitslose in drei Kategorien sortieren soll: mit guten, mittleren und schlechten Chancen auf einen neuen Job.
Dabei sollen anhand dieser Kategorisierung nicht nur Jobchancen ermittelt werden. Es sollen auch die F├Ârderungen differenziert eingesetzt werden.

Ganz schlicht ausgedr├╝ckt: wer in der Kategorie 3 landet – wird praktisch aufgegeben. Dies ist nicht nur aus der eigentlichen Aufgabe einer staatlichen Arbeitsverwaltung zu hinterfragen. Vielmehr f├╝hren auch die zugrunde gelegten Kriterien zu Fragen, bei denen Begriffe wie „Diskriminierung“ zunehmend in die Debatte einflie├čen.

Für ein paar Beispiele hier entlang 

Eine besondere Verantwortung f├╝r den Staat – Forderungen an die Politik

Anhand dieser Beispiele wird deutlich, dass gerade der Staat eine besondere Verantwortung haben MUSS, derartige „Programme“ unter besonderen ethischen und transparenten Standards zu entwickeln. Insbesondere auch┬á im Bereich der sozialen Sicherung, wo nicht das Leistungsprinzip im Vordergrund steht, sondern die soziale Absicherung und F├╝rsorge.

Dies allein ist kein Grund, g├Ąnzlich auf automatisierte „Entscheidungen“ zu verzichten. Vielmehr sind durch den Staat Rahmenbedingungen zu schaffen, die dem Anspruch an Transparenz, Kontrolle und Diskriminierungsfreiheit gerecht werden.

Bereits im Rahmen der damaligen Sondierungsverhandlungen haben wir die Forderungen/W├╝nsche relativ klar und deutlich formuliert, die wir hier nochmals aufgreifen.

  • Ausweitung des Diskriminierungsverbotes durch Erg├Ąnzung des Grundgesetzes hinsichtlich automatisierter Entscheidungen
  • Einsetzung einer ÔÇ×Enquete-KommissionÔÇť zur Erarbeitung ethischer Standards bei der Nutzung von Algorithmen
  • Verabschiedung von ethischen Standards durch die Bundesregierung
  • Offenlegung aller in staatlichen Beh├Ârden angewandten Algorithmen durch ÔÇ×Open-DataÔÇť-Politik
  • Bereitstellung des Quelltextes unter dem Label „Open Source“
  • St├Ąndige Kontrolle der Algorithmen durch eine Kommission aus Experten, Anwendern und Betroffenen

Und am Ende der Algorithmen steht wieder der Mensch

Wie bereits erw├Ąhnt sind Algorithmen von Menschen gemacht. Und die Ergebnisse werden wieder von Menschen angewandt oder interpretiert.

Nicht der Algorithmus ist Schuld, sondern die Menschen, die die „B├╝rokratie“ gestalten und verwalten.
Wir m├╝ssen auch auch der B├╝rokratie die ethischen Rahmenbedingungen vorgeben, damit wir Algorithmen nicht mehr als Risiko betrachten, sondern als Helfer.

Eine Antwort schreiben

Deine E-Mail-Adresse wird nicht ver├Âffentlicht. Erforderliche Felder sind mit * markiert