Zum Hauptinhalt springen
Blogbeitrag

Verantwortung von und ethische Grundsätze für Entwickler*innen - Interview mit Alexander von Gernler

Das Interview erschien erstmals im November 2021 in der Studie des Digital Autonomy Hubs „Mensch und Technik in Interaktion. Wie gelingt individuelle digitale Souveränität?“. Die vollständige Publikation ist hier abrufbar.


 

In der Umfrage des Digital Autonomy Hubs stößt die Idee, dass Entwickler*innen verpflichtende Kurse zu Transparenz, Privatheit und Ethik belegen müssen auf hohe Zustimmung. 75 % der Befragten sprechen sich dafür aus. Kommen diese Themen im Berufsalltag überhaupt vor?

Alexander von Gernler: Mir selbst sind im eigenen Berufsalltag in über 15 Jahren nahezu keine solchen Angebote begegnet. Ich glaube, dass derartige Kurse bei Firmen auch immer in Konkurrenz zu anderen Fortbildungen stehen, die für Arbeitgeber·innen und Angestellte im Vergleich einen greifbareren und konkreteren Nutzen verheißen, wie etwa Zeit- und Stressmanagement, Konfliktmanagement, Rhetorik und andere Seminare mit hohem Praxisbezug. Wenn Leute sich mit diesen Themen beschäftigen, dann geschieht das nach meinem Eindruck eher aus eigener Motivation heraus und in ihrer Freizeit – aus den genannten Gründen. Diese Leute besuchen dann etwa Veranstaltungen von Vereinen, die technisches Interesse mit bürgerrechtlichem Engagement verbinden, oder organisieren sich selbst in solchen Initiativen.

Wo müssen Entwickler*innen im Entwicklungsprozess ethisch relevante Entscheidungen treffen? Gibt es dafür konkrete Beispiele?

Frei nach Joseph Weizenbaum würde ich empfehlen, die Situation immer vom Ende her zu denken: Ich kann mich also in der Ausübung meiner Kunst ganz toll mit Bilderkennung in neuronalen Netzen beschäftigen, muss aber wissen, dass meine Technologie dann auch in der kompletten Kameraerfassung von Innenstädten oder in der Steuerung von Lenkraketen eingesetzt werden kann.

Im Fall von Cambridge Analytica haben Leute sich Gedanken gemacht, wie man aus einer Kombination relativ trivialer Facebook-Likes („Ich mag Elton John“) Rückschlüsse auf Alter, Geschlecht, sexuelle Orientierung und politische Einstellung treffen kann. In der Verlängerung hat diese Technologie aber bedeutet, dass damit zumindest versucht wurde, Wahlen zu beeinflussen. Es beginnt schon bei ganz einfachen Fragen wie etwa der Datensparsamkeit, die heute ja nach der Datenschutz-Grundverordnung auch geboten ist:  Muss ich denn in einem Formular bestimmte Daten wirklich abfragen oder geht es auch mit weniger?

Ist es in der Praxis üblich, dass Konsequenzen der eigenen Innovation schon im Entwicklungsprozess kritisch hinterfragt werden?

Aus meiner praktischen Erfahrung gibt es gerade in der deutschsprachigen Community eine hohe Bereitschaft, das eigene Tun zu hinterfragen.  Dort spielen Einflüsse wie die Hackerethik des Chaos Computer Clubs, die Stimmen von Datenschutz- und Bürgerrechtsinitiativen eine Rolle, aber historisch betrachtet auch die Volkszählung 1984, oder wegweisende Urteile des Bundesverfassungsgerichts, das ja das Grundrecht auf informationelle Selbstbestimmung und das Grundrecht auf die Integrität informationsverarbeitender Systeme geschaffen hat.

Das schlägt sich dann auch im Handeln von Angestellten nieder, die dann gegen bestimmte Projekte protestieren, die aus ihrer Sicht zu nahe am Militär oder am Geheimdienst operieren, oder hinterfragen, ob man Aufträge aus bestimmten arabischen Staaten annehmen sollte, wo Menschenrechte missachtet werden.

In Debatten rund um Digitalisierung und Technik sprechen wir oft über Verantwortungsverteilung und ethische Grundsätze für den Einsatz neuer Technologien, zum Beispiel Künstlicher Intelligenz. Seltener werden dabei die Entwickler*innen selbst betrachtet oder in die Diskussion eingebunden. Warum ist das so und ist das problematisch?

Es ist richtig, dass die Diskussion über die Folgen von Technik eher nicht in technischen Fachzeitschriften oder anderen Fachmedien erfolgt, denn da geht es meistens nur um das „Wie“. Wenn über Technikfolgen, Ethik und Verantwortung geredet wird, dann passiert das aber inzwischen auch in den Feuilletons der großen deutschsprachigen Tageszeitungen. Für mich ist das ein Signal, dass die Debatte eine hohe gesellschaftliche Relevanz erreicht hat – einfach deswegen, weil die Informatik in den letzten zwei Jahrzehnten global und fundamental die Art und Weise verändert hat, wie wir denken, leben, kommunizieren und arbeiten. Die Debatte wird im Moment hauptsächlich von Philosoph*innen, Soziolog*innen und Feuilletonist*innen geführt. Aus den Reihen der Techniktreibenden sind da die Stimmen eher noch dünn. Das finde ich zunächst einmal sehr verständlich, weil die Beschäftigung mit Technik natürlich sehr zeitintensiv ist und Kommunikation nicht jedem Menschen liegt. Die Virologie macht uns aber in der Pandemie gerade vor, welchen Wert es hat, auch direkt in den Dialog mit der Gesellschaft zu gehen. 

Welche Änderungen bräuchten wir in der aktuellen Situation, um die negativen gesellschaftlichen Folgen von Technologieentwicklung und Innovation besser zu navigieren?

Wir erleben seit geraumer Zeit schon eine Transition von Systemen, die wir als Benutzende komplett unter Kontrolle haben und überblicken können, hin zu Systemen, deren Komplexität selbst für Expert*innen nicht mehr als einzelne Person begreifbar ist und die sich zunehmend unserer Kontrolle entziehen. Ausgangspunkt waren die immer reichhaltigeren Endbenutzersysteme, bei denen schon Betriebssystemkern und Browser eine enorme Komplexität aufwiesen. Da war aber noch alles lokal. Jetzt sehen wir Trends, die das Ganze noch weit übersteigen. Die Cloud schafft den Aspekt der lokalen Kontrolle ab und die neuronalen Verfahren in der KI stellen uns vor die Frage der Nachvollziehbarkeit von maschinellen Entscheidungen. Wir sind als menschliche Gesellschaft global leider immer noch in der Rezeptionsphase und werden das wegen der hohen Innovationsdichte und -geschwindigkeit auch noch lange bleiben. Wichtig ist aber, dass wir die Debatte über die Technologien am Leben erhalten und uns vor allem darauf besinnen, dass die Innovationen den Menschen dienen sollen, und nicht umgekehrt.  Das Primat der Gesellschaft und der Politik ist also entscheidend. Das bedeutet aber, dass wir selbst erst einmal positiv formulieren müssen, wie wir leben wollen. Schaffen wir das nicht, wird neue Technik uns in unserer Wahrnehmung immer „zustoßen“.

 


Alexander von Gernler beschäftigt sich beruflich mit den technologischen Fortschritten im Bereich IT-Sicherheit und stößt in diesem Themenfeld regelmäßig Forschungsprojekte und Inkubatoren an.  Was ihn aber seit Beginn seines Informatikstudiums schon beschäftigt hat, ist die Frage, wie Informatik die Gesellschaft verändert.

Das Digital Autonomy Hub wird vom Bundesministerium für Bildung und Forschung im Rahmen des Forschungsprogramms „Miteinander durch Innovation“ gefördert und von Gesellschaft für Informatik e.V. und AlgorithmWatch umgesetzt. Mehr Informationen zum Hub finden Sie hier.

Alexander von Gernler, ehemaliger Vizepräsident der Gesellschaft für Informatik; Research and Innovation, genua GmbH © Nicolas Wefers