MeldungInformatik und GesellschaftWirtschaftsinformatik

Elemente einer „Kritik der Künstlichen Vernunft“– Anmerkungen zu Hawkings Warnung und einer „Computerethik“

Ein Expertenbeitrag von Prof. Dr. Georg Rainer Hofmann, Information Management Institut IMI, Hochschule Aschaffenburg und Sprecher der GI-Fachgruppe „Software- und Service-Markt“

Sind Computer dem Menschen überlegen?
Im Sommer 2018 wird in der akademischen und öffentlichen Diskussion intensiv vor Künstlicher Intelligenz (KI) gewarnt, nicht zuletzt unterstützt durch diese Aussage des berühmten Physikers Stephen Hawking: 

„Computer werden intelligenter sein als Menschen, es besteht also die Gefahr, dass die Geräte eigene Intelligenz entwickeln und die Welt dominieren werden. (Stephen William Hawking, 2001)“

Es wächst ein Unbehagen angesichts der zunehmenden Automatisierung in Beruf und Alltag. Es wird befürchtet, dass die KI den Menschen in absehbarer Zeit überlegen sein, und die Gesellschaft von Maschinen beherrscht werden wird – in einem imperium computatrum. Es muss daher eine Antwort auf die Generalfrage möglich sein und gefunden werden, ob der „normale Mensch“ einer drohenden Beherrschung seiner Existenz durch „die Maschinen“ (noch) ausweichen kann. Welche konkreten Maßnahmen sind gegebenenfalls hierfür zu ergreifen?


Das „Dressieren der Maschinen“ – wer trägt die (ethische) Verantwortung?
Die künstlichen neuronalen Netze (artificial neural network – ANN) haben ein biologisches Vorbild in den natürlichen Nervenzellvernetzungen im Gehirn der diversen Lebewesen – und so auch im Gehirn des Menschen.  Neuronale Netze sind nicht prinzipiell neue Maschinen, sie sind keine Erweiterung der klassischen Berechenbarkeitsmodelle. Das Verhalten von Maschinen, die mit diesen ANNs ausgestattet wurden, ist nicht unbedingt einwandfrei vorhersehbar – es erscheint uns dann als „nicht-kausal“. Denn die Lerndaten für das Training der ANN hat man nicht immer unter voller Kontrolle. Berüchtigt wurde 2015 ein Programm von Google, das dunkelhäutige Menschen als Gorillas bezeichnete – was schon arg bedenklich ist. Das Programm hatte bei Google wohl eine „schlechte Erziehung“ genossen.

Um die Problematik im Umgang mit künstlichen Netzen und deren „Denkstrukturen“ zu verdeutlichen und eine ethische Beurteilung zu ermöglichen, vergleichen wir sie mit einer Dressur (oder Abrichtung); dies ist die Ausbildung von Tieren (id est: Die Programmierung eines nicht-humanen neuronalen Netzwerks!) zu einem bestimmten Zweck. Unerwünschtes Verhalten der Tiere wird bestraft, erwünschtes Verhalten wird belohnt oder gelobt.  Dass dieser Lernprozess immer vollständig erfolgreich ist – dafür gibt es keine Garantie!  Dies zeigen Unfälle mit dressierten Raubtieren oder plötzlich bissigen „Der-macht-nichts“-Hunden nur allzu deutlich.  Die Gründe für ein solches „nicht-kausales“ Fehlverhalten erschließen sich nicht immer. Verübt das dressierte Tier nun eine „Straftat“ (der „brave Hund“ hat wider Erwarten zugebissen – mithin eine Körperverletzung begangen), so kann man kaum das Tier strafrechtlich belangen oder ethisch verantwortlich machen. Auch den Dompteuren oder den Abrichter trifft wohl keine wirkliche Schuld – wenn(!) er das fragliche Tier unter Anwendung der entsprechenden üblichen Vorsichtsmaßnahmen (an der Leine geführt, in einen Käfig gesperrt, etc.) gehalten oder geführt hat.

Dieser Vergleich liefert aber einen Hinweis, wie Aussagen der klassischen Ethik auf implizit-algorithmisch begründete maschinelle Handlungen übertragen werden können. Im Sinne des hier genannten Analogie ist das wohl zu vergleichen mit der Haftung des Halters, der seinen Hund unbeaufsichtigt frei laufen lässt! Entwickler, Hersteller und Betreiber eines KI-Systems müssen die Maschinen quasi „unter ihrer Kontrolle“ behalten.

Zu einer historischen Taxonomie der (sinnhaften) Automatisierung
Der Begriff „Automat“ hat im Griechischen die Bedeutung von „sich selbst Bewegendem“, im Sinne von selbsttätigem Handeln. Die Systeme der Automatisierung können Aufgaben eigenständig erledigen. Die vom System erzielten Lösungen dieser Aufgaben sind so zu verstehen, dass sie seitens des Konstrukteurs der Automaten willentlich angestrebt worden sind.Was ist passiert, als der Mensch den ersten Automaten konstruierte? Dies dürfte in prähistorischer Zeit in Form der Konstruktion einer Fallgrube für die Erbeutung von Tieren erfolgt sein.  Was sind die Charakteristika?

  • Der Mechanismus wurde von Menschen in der Absicht konstruiert, Tiere zu fangen oder zu erlegen, und damit einen verbesserten Jagderfolg zu erzielen.  Nach Maßgabe bestimmter Bedingungen – ein hinreichend schweres Tier gerät auf die getarnte labile Abdeckung der Fallgrube – entscheidet der Automat und handelt entsprechend bestimmungsgemäß.  Der Automat hat die Produktivität der Jagd massiv erhöht.
  • Der Mechanismus arbeitete nach Inbetriebnahme selbstständig, es musste kein Mensch mehr für das Ergreifen der Beute und den Jagderfolg vor Ort – äußerst zeitaufwendig! – präsent sein. Die Falle war permanent – sinngemäß „rund um die Uhr“ – betriebsbereit.
  • Der Automat kann aber auch nicht-sinnhaft arbeiten. Es könnten auch Tiere gefangen werden, die gar nicht erwünscht sind, oder es geraten gar Menschen unbeabsichtigt und unglücklicherweise in die Falle. 
  • Der Mensch hat daraus gelernt, dass Automaten sozusagen eine Kehrseite haben. In den biblischen „Sprüchen“ findet sich bereits die Erkenntnis „Wer (anderen) eine Grube gräbt, fällt selbst hinein.“ – Kap. 26, V 27.

Man erkennt, dass selbst primitive Automaten eine mächtige Wirkung entfalten und gefährlich sein können. Die Gefährlichkeit ergibt sich, weil das zugrundeliegende Betriebsmodell nicht komplett „zu Ende gedacht“ ist. Letzteres ist nach der Lehre des Kritischen Rationalismus zufolge auch nicht machbar – das (Betriebs-) Modell ist prinzipiell falsifizierbar.

Man kann auch fragen, was passiert ist, als der Mensch die ersten nicht-humanen neuronalen Netze nutzen konnte? Auch das dürfte in prähistorischer Zeit geschehen sein, in Form der Abrichtung von Tieren, speziell Hunden.  

Was sind hier die Charakteristika?

  • Die Abrichtung eines Hundes ist die „Programmierung“ eines nicht-humanen biologischen neuronalen Netzes.  Abgerichtete Hunde helfen vielfach; sie dienen auch zur Unterhaltung und als Sozialpartner des Menschen.
  • Der Hund hilft seinen „Herren“, bestimmte Ziele der Produktivität zu verfolgen, und – gegenüber der reinen menschlichen Leistungsfähigkeit – massiv zu verbessern.  Dabei nützlich ist ein dem Menschen überlegenes Hör- und Geruchsvermögen, aber auch die überlegene Bewegungsfähigkeit des Hundes.
  • Nach Maßgabe bestimmter – in der Abrichtung vermittelter Bedingungen – entscheidet der Hund selbstständig und handelt entsprechend bestimmungsgemäß. Nach Maßgabe weiterer Erziehung und Erfahrung lernt ein Hund auch selbstständig und entwickelt seine Fähigkeiten weiter.
  • Hunde mit Fehlverhalten (vulgo „schlecht erzogen“) können sich für den Menschen als sehr gefährlich erweisen, sie sind aggressiv, zum Teil ohne erkennbaren oder vorher unbedachten, Anlass.

Auch hier erkennt man, dass diese frühen „Programmierungen“ nicht-humaner neuronaler Netze einen fulminanten Machtzuwachs für den Abrichter oder Besitzer entfalten – und sehr gefährlich sein können.  Auch das dürfte man schon sehr bald erkannt haben. Man könnte argumentieren, dass sich die menschliche Zivilisation über viele Tausend Jahre hinweg an die Nützlichkeit und die Gefahren der Automatisierung und des Gebrauchs nicht-humaner neuronaler Netze „in Hundeform“ gewöhnen konnte und die Modalitäten – inklusive der damit verbundenen Risiken – vollumfänglich adaptiert hat.

Es tritt eine neue Qualität von Gefahren auf  
Automaten und neuronale Netze ersetzen den direkten sozialen Kontakt. Dienstleistungen werden nicht mehr von Menschen für Menschen, sondern von entsprechenden Maschinen für Menschen erbracht. Das hat massive Auswirkungen auf das, was wir unter „Gesellschaft“ verstehen.

Wenn sich Computer-basierte Entscheidungen als „falsche“ – nicht-sinnhafte, unangemessene, nachteilige, widersprüchliche, etc. – Entscheidungen herausstellen, dann müssen diese erkannt werden können. Die Gesellschaft ist gefordert, Maßnahmen zur Verhinderung, beziehungsweise zur Korrektur, falscher Computer-basierter Entscheidungen zu ermöglichen und zu ergreifen.

Automatisierung im kritisch-rationalen Diskurs – Ansätze einer „Kritik der Künstlichen Vernunft“
Im Zuge der fortschreitenden Automatisierung führen Maschinen Prozesse mittels expliziter oder impliziter Algorithmen effizient aus. Dies kann ein sehr sinnvoller Beitrag zu weiterer wirtschaftlicher Wertschöpfung und Wohlstand sein.

Kann man erkennen, ob die Maschinen und ihre Prozesse – wirklich – sinnvoll konstruiert sind? Das Problem scheint in der Tat zu sein, dass nicht-sinnhafte Automatisierung nicht sofort als solche erkannt werden kann. Um diesen Aspekt zu illustrieren, betrachten wir zwei Beispiele:


  • Personenkraftwagen erfahren seit Jahren einen zunehmenden Grad an Automatisierung.  Das ABS der Bremse der PKW ist allgemein nützlich, bringt aber auf losem Grund, wie Schotter, Nachteile mit sich. Auch eine automatische Überwachung von Servicezyklen, wie etwa die Vorführung zur Hauptuntersuchung entlastet den Fahrer, hat aber Nachteile, wenn sich der Wagen Computer-verhindert nicht mehr in Betrieb nehmen lässt („Zu Ihrer eigenen Sicherheit“), da „der TÜV abgelaufen“ ist.
  • Die permanent seitens der Hersteller verordneten „Updates“ der Betriebssysteme der Personal-Computer und Smartphones sollten am Ende deren Zuverlässigkeit erhöhen.  Vom System dem Nutzer zur Unzeit aufgezwungene und umfangreiche Aktualisierungen sind mehr als ärgerlich, verhindern sie doch das sinnhafte Benutzen dieser Maschinen.

Die Beispiele zeigen, dass sich hier die Nicht-Sinnhaftigkeit einer Automatisierung jeweils kaum vorhersagen ließ, beziehungsweise vorhersagen lässt. Man kann leicht Situationen benennen, wo sich vorher sinnhafte Automaten später dann bevormundend, einnehmend-totalitär, oder fehlerhaft verhalten. Es kann nicht entscheidend sein, wie man im Voraus eine sinnvolle Automatisierung konstruiert und findet – oder was man für die Erlangung idealer automatisierter Verhältnisse tun sollte. Stattdessen ist es viel wichtiger zu sehen und dafür zu sorgen, dass schlechte und nicht-sinnhafte Automaten ausgeschaltet und Missstände beseitigt werden können. 

Gesellschaftlich ist ein kritisch-rationaler offener Diskurs für Automaten zu pflegen.  Demzufolge kann es keine normativ korrekten Automaten – das „sinnvoll“ kann nicht objektiv bewiesen werden – sondern nur in gewissem Rahmen „bewährte Automaten“ geben. Fallen nicht-sinnvolle Automatisierungen auf, so ist es das Recht und die Pflicht eines jeden, diesen entgegen zu wirken. Für dieses Entgegenwirken braucht man zwei „Mechanismen der Falsifikation“, d.h. der Widerlegung, mittels derer man nicht-sinnhafter Automatisierung ausweichen und entkommen kann:

1.   OFF
Das kontrollierte Abschalten von Automaten, und dadurch das Wiedererlangen der manuellen nicht-normativen Kontrolle über eine Situation oder einen Prozess, und

2.   ESCAPE
Das kontrollierte Ausweichen vor dem Handeln eines Automaten und das nicht-normative Wiedererlangen der sozialen Kontrolle, indem handelnde Menschen an die Stelle des fehlerhaften normativen Automaten treten.

Diese beiden „Mechanismen der Falsifikation“ müssen jedem Automaten eingebaut werden. Sie bieten die Möglichkeit der konsequenten kritisch-rationalen konstruktiven Verbesserung der Automaten.  Eine Inbetriebnahme von (neuen) Automaten sollte ohne eine systematische Planung dieser beiden Optionen „OFF“ und „ESCAPE“ eigentlich nicht möglich sein dürfen.

Akademischer und technischer Fortschritt soll zur Wahrung und Verbesserung von Wohlstand und Lebensqualität sinnvoll umgesetzt werden. Es ist zu warnen, wo nicht-sinnhafte Automatisierung umgesetzt wird, die dem Menschen die Kontrolle entzieht, weil sie alternativlose, nicht korrigierbare Prozesse darstellt – dies ist die eigentliche Gefahr für die gesamte Gesellschaft, weniger die „Künstliche Vernunft“ an sich.  Maschinen sind dem Menschen nur da überlegen, wo sich dieser jenen selbst unterlegen macht.

Zum Weiterlesen
Der Beitrag basiert auf einem Kapitel in: G. R. Hofmann: „Impulse nicht-normativer Ethik für die Ökonomie“, Nomos Verlag, Baden-Baden, 2018.   

Über den Autor

Prof. Dr.-Ing. Georg Rainer Hofmann, Jahrgang 1961, ist seit 1996  Professor an der Hochschule in Aschaffenburg, und dort seit 2010  Direktor des Information Management Instituts. Nach dem Studium der Informatik und Volkswirtschaftslehre, Nebenfach Philosophie, an der Technischen Universität Darmstadt promovierte er 1991 bei Prof. Encarnacao (Darmstadt) und Prof. Stucki (Zürich). Von 1987 bis 1992  war er Wissenschaftlicher Mitarbeiter und Abteilungsleiter im Fraunhofer Institut Graphische Datenverarbeitung  Darmstadt. Von 1993 bis 1996  Berater (Prokurist) bei der KPMG Unternehmensberatung GmbH in Frankfurt am Main und Berlin. Herr Hofmann ist langjähriger Sprecher der Fachgruppe „Software- und Service-Markt“ der GI e.V. und Sprecher der Kompetenzgruppe „E-Commerce – Digital Markets“ des eco e.V. Er hat eine Reihe von Aufsichtsrats- und Beiratsmandaten in der gewerblichen Wirtschaft. Die Schwerpunkte seiner wissenschaftlichen Tätigkeit sind Leitbilder und Strategien in der Unternehmensführung und der Datenverarbeitung, Digitale Prozesse und Digitale Märkte, sowie die Akzeptanz von Informations- und anderen Systemen und Verfahren.  Er verfolgt einen kritisch-rationalen Diskurs der Unternehmensethik.

Prof. Dr. Georg Rainer Hofmann, Information Management Institut IMI, Hochschule Aschaffenburg und Sprecher der GI-Fachgruppe „Software- und Service-Markt“