Katharina Schulze

im bayerischen Landtag

Digitalisierung

Algorithmen brauchen ein ethisches Fundament

7. Juli 2017 in Im Parlament | 2 Kommentare

Die Digitalisierung ist kein Naturgesetz, auf das wir als Gesellschaft keinerlei Einfluss haben. Ganz im Gegenteil. Gerade weil die digitale Vernetzung und der Einsatz von Algorithmen unseren Alltag verändern, müssen wir die Digitalisierung gestalten. Das ist eine der großen gesellschaftlichen Aufgaben der kommenden Jahre. Wichtig ist uns Grünen, dass die Privatwirtschaft, die die Digitalisierung maßgeblich vorantreibt und von ihr profitiert, sich ihrer Verantwortung bewusst ist.

Wir müssen Algorithmen ein ethisches Fundament geben

Insbesondere sind die Plattformbetreiber in die Pflicht zu nehmen. Den InformatikerInnen und SoftwareentwicklerInnen müssen ihren Einfluss auf unseren Alltag bewusst sein. Die Politik hat die Entwicklung zu begleiten und Leitplanken einzuziehen, damit wir eine digitale Zukunft schaffen, die so wird, wie wir sie uns vorstellen.

Digitalisierung gestalten

Die Chancen, die der Einsatz von Algorithmen bietet, sind vielfältig und enorm. Die Effizienzgewinne werden beispielsweise auch der Umwelt zugutekommen, zum Beispiel durch Optimierungen im Straßenverkehr. Aber diese neuen Möglichkeiten haben ihren Preis. Es darf nicht vergessen werden, dass wir digitale Dienste mit unseren Daten bezahlen. Auf der Grundlage dieser Daten erstellen Algorithmen personenbezogene Profile und treffen blitzschnelle Entscheidungen. Algorithmen entscheiden nicht nur darüber, was uns im Internet zum Kauf angeboten wird, sondern auch, ob wir kreditwürdig oder für ein Jobangebot geeignet sind. Diese Algorithmisierung unseres Lebens wirft wichtige, bislang unbeantwortete Fragen des Verbraucher- und des Datenschutzes aber auch der sozialen Gerechtigkeit auf. Es sind ethische Fragen, die wir für unser Zusammenleben beantworten müssen.

Digitalisierung im Sinne der Menschen zu gestalten heißt, dass die Verbraucherinnen und Verbraucher befähigt werden müssen, die Tragweite von Algorithmen zu verstehen. Sie müssen informiert und beraten werden. Digitalisierungskompetenz für alle muss das Ziel sein. Dazu braucht es ein Mindestmaß an Transparenz und Aufklärung. Es muss überprüfbar sein, wer welche Algorithmen einsetzt. Das wird auf den erbitterten Widerstand vieler IT-Unternehmen führen, für die der geheime Algorithmus die Grundlage des Geschäftsmodells ist.

Algorithmen müssen Ethik lernen

Vor allem braucht der Einsatz von Algorithmen unbedingt einer ethischen Basis. Die Grundlage von automatisierten digitalen Entscheidungen dürfen nicht ausschließlich wirtschaftliche oder technische Kriterien sein. Diskriminierungen müssen in jedem Falle verhindert werden zum Beispiel bei der Bewerbung auf einen Job oder beim Abschluss von Versicherungen. Außerdem muss aus unserer Sicht sichergestellt werden, dass wichtige Entscheidungen letztendlich immer vom Menschen selbst getroffen werden. Um diese inhaltlichen Anforderungen durchzusetzen, müssen Algorithmen inhaltlich überprüft und evaluiert werden können. Diese Überwachung sollte durch eine unabhängige Stelle wahrgenommen werden. Das ist keine einfache Aufgabe. Die Besonderheiten der Digitalisierung, der äußerst dynamische und schnelle technische Fortschritt, sowie die zunehmende Vernetzung fordern hier neue Lösungsansätze.

Es geht aber nicht nur darum, Privatunternehmen zu überprüfen. Auch der Staat verwendet Algorithmen. Und auch hier braucht es wirksame Kontrollmöglichkeiten. Schon heute hat zum Beispiel die Polizei bei uns in Bayern eine Predictive-Policing-Software im Modellversuch zur Analyse und Vorhersage von Einbrüchen eingesetzt. Wir Grüne wollen, dass bei staatlichen Vorhaben stets genau geschaut wird, ob es sich um ein geeignetes Instrument handelt, wie der Datenschutz gewahrt wird und ob der “Datenhunger” der Behörden nicht noch größer wird. Uns muss immer bewusst sein: Wir gestalten die Rahmenbedingungen unseres Zusammenlebens in einer digitalen Welt.


Dieser Debattenbeitrag erschien auf dem Debattenportal Meinungsbarometer.info.

2 Kommentare

  1. Was mich etwas überrascht ist die Formulierung: “Algorithmen müssen Ethik lernen”. Algorithmen und ihre Entscheidungskriterien werden von Menschen geschrieben, die die Parameter beeinflussen und dies e Menschen sind Teil einer Gesellschafts und deren jeweiligen Interessensgruppen. Die ethischen Entscheidungskriterien bleiben daher immer noch menschenbestimmt und interessensgeleitet. Ein Algorithmus entwirft keine Ethik, ein Algorithmus ist ein Computerprogramm, das aufgrund der Eingabe des Programmierers und dessen Auftraggeber als gesellschaftliche Interessensgruppe Entscheidungskriterien erhält, die er dann automatisch anwendet. Von daher ist der Satz “Algoritmen müssen Ethik lernen”unwissenschaftlich, unmaerialistisch, unpolitisch, hegelianisch und zutiefst metaphysisch. Gesellschatliche Gruppen oder der Staat oder beide sagen dem Programmierer, welchen Algorithmus er schreiben und programmieren soll. Die Hoffnung, dass Algorithmen selbstlernende Systeme sind, die diese Entscheidungskriterien selbst entwerfen könnten, ist zum einen Science Fiction, sollte dies machbar sein, die Entpolitisierung der ethischen Entscheidungsfindung und zum dritten Lostrennung von menschlichen Entscheidungen zu einer Selbstautomatisierung der Maschinen und Computer wie sie in Filmen wie 2001 oder Terminator vorexerziert wurde.Die Entscheidung, welche Optionen ein selbstfahrendes Auto im Falle einer Unfallssituation wählt (gegen den Baum fahren, in eine Menschengruppe oder einen Kinderwagen) wird von Menschen entschieden, die dem Algorithmus seine ethischen Entscheidungskriterien geben. Ebenso in der Militärtechnologie, die imer mehr von der unbemannten, durch eine menschengesteuerte Individualdrohne hin zum unbemannten, Tötungsalgoritmen die Entscheidung überlassenden Schwärmen von Drohnen übergehen wird. Aber die Entscheidungskriterien für Algorithmen müssen sei es beim autonmen Fahren oder bei der zukünftigen automatisierten Kriegsführung durch Menschen und die jeweiligen Interessensgruppen und deren zumal unterscheidliche Wertvorstellungen oder ethischen Weltbilder bestimmt und programmiet werden, Dem Autor schwebt so eine Art Grundgesetzalgorithmus mitBetonung der Menschenwürde vor.Mal sehen, ob dann auch das Bundesverfassungsgericht über die Ethik und Grundgesetzkonformität von Algorithmen entscheiden wird und die Frage ist eben, wem man die Definition der Algorithmen überlässt.

  2. Dem Autor schwebt so eine Art Grundgesetzalgorithmus mit Betonung der Menschenwürde vor.Mal sehen, ob dann auch das Bundesverfassungsgericht über die Ethik und Grundgesetzkonformität von Algorithmen entscheiden wird und die Frage ist eben, wem man die Definition der Algorithmen überlässt.Das ist sowohl eine politische wie technologische Kompetenzfrage. Zum einen, wie ein politischer Mechanismus zur Festlegung der Frage, zu welchem Grad man grundsätzlich Entscheidungsfindungen automatisierten Algoritmen und deren Computern überträgt, zum anderen dann wer diese Algorithmen mit welchen Entscheidungskriterien entwirft und hier brauchen die jeweiligen gesellschaftlichen Gruppen und Parteien auch technologische Expertise und Kompetenz, wie man überhaupt solch einen Algorithmus dann konkret programmiert und entwirft.Und hier ist auf Seiten des Kapitals ein absoluter Vorsprung, sei es bei den wirtschaftlichen und politischen Machtverhältnissen, sei es bei den technologischen Kompetenzen. Die Linke hat da bestens den Chaos Computer Club, das Kapital hingegen Hunderttausende von Programmierern und die Black Hats.Von daher sind die Machtgleichgewichte schon wirtschaftlich wie technologisch und politisch sehr ungleich verteilt.Von daher sollte die Rekrutierung progressiver Algorithmenprogrammierer, Hacker, Nerds, Naturwissenschaftler. IT-Experten und die politische Forderung nach der Finanzierung solch technologischer Kompetenzteams für politische Partteien und gesellschaftliche Gruppen eine zukünftige Hauptforderung sein, bevor man hilflos an ein „Wir“ und eine „Gesellschaft“appeliert oder hofft, dass die Algorithmen Ethik selbst lernen.

Kommentar absenden

Die E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *