Lexikon

Organic Computing

Eine der folgenträchtigsten Entwicklungen der Informatik ist ihr Zusammenspiel mit der Biologie. Einerseits wären z.B. die Kartographierung des menschlichen Erbguts oder die Aufklärung der räumlichen Proteinstrukturen ohne Informatikmethoden unmöglich, andererseits gewinnt die Nutzung biologischer Prinzipien in der Informatik zusehends an Bedeutung. Künftige komplexe computerisierte Systeme werden lebensähnlich – oder „organisch". Dafür müssen die von der Natur verwendeten Organisationsprinzipien genauer erforscht und in Informatiksystemen nutzbar gemacht werden.

Beherrschung der Komplexität

Technische Systeme werden immer komplexer. Dies ist eine Folge der weiterhin ungebrochenen Entwicklung der Mikroelektronik. Hinzu kommt in den letzten Jahren eine verstärkte Einbettung großer Hardware- und Software-Komplexe in technische Systeme wie Flugzeuge, Fahrzeuge, Telekommunikationsnetze und Fabrikationsanlagen. Hier liegt ein Großteil des Entwicklungs- und Differenzierungspotenzials insbesondere deutscher Produkte. Die schmerzhafte Erfahrung der Hersteller zeigt jedoch bereits heute, dass diese Systeme nur mehr schwer zu beherrschen sind. Eine Extrapolation auf künftige insbesondere sicherheitskritische und noch stärker vernetzte Systeme macht deutlich, dass wir nach neuen Organisationsprinzipien Ausschau halten müssen.

Das Verhalten technischer Systeme steht im Gegensatz zu dem von Lebewesen, die unter den unterschiedlichsten Bedingungen adäquat funktionieren und sich auch wechselnden Bedingungen flexibel anpassen können. Sie sind zu solchen Leistungen auf allen Organisationsebenen (Moleküle, Zellen, Organismen, Gesellschaften) in der Lage. Daher muss es nützliche, robuste und (hoffentlich) relativ einfache allgemeine Strategien dafür geben. Es liegt nahe, Erkenntnisse über die Funktionsweise lebender Systeme für die Entwicklung von künstlichen nutzbar zu machen. Computersysteme, die diesen Anforderungen genügen, nennen wir „organisch". Ein „organischer Computer" (OC) ist definiert als ein selbst-organisierendes System, das sich den jeweiligen Umgebungsbedürfnissen dynamisch anpasst. Organische Computersysteme haben sog. „Self-x-Eigenschaften": Sie sind selbst-konfigurierend, selbst-optimierend, selbst-heilend, selbst-erklärend und selbst-schützend.

Die Vorteile liegen auf der Hand: Organische Computersysteme verhalten sich eher wie intelligente Assistenten als starre Befehlsempfänger. Sie sind flexibel, robust gegenüber (Teil)ausfällen und in der Lage, sich selbst zu optimieren. Der Entwurfsaufwand sinkt, da nicht jede Variante im Voraus programmiert werden muss.

Dem stehen jedoch potenziell gravierende Nachteile gegenüber. Lernende Systeme können Fehler machen, die in technischen, insbesondere sicherheitskritischen Anwendungen aber nicht toleriert werden können. Lernen bedeutet zunächst unproduktiven Aufwand; dies kann zu langen Trainings- und Umkonfigurationszeiten, somit zu langen Reaktionszeiten führen. Schließlich eröffnet die Adaptivität eines Systems auch neue Möglichkeiten für gezielt unerlaubte Beeinflussungen.

Organisationsmuster komplexer Systeme

Systemeigenschaften wurden anhand von natürlichen Systemen (z.B. dissipativen Strukturen, autokatalytischen Zyklen, Ameisenstaaten) untersucht. Der Natur nachempfundene und im Rechner nachgebildete Systeme werden in der „Artificial-Life-Forschung" untersucht. Systeme, welche aus großen Populationen autonomer Komponenten bestehen, durch evolutive Mechanismen lernen, einen rein lokalen sensorischen Kontext besitzen und massiv miteinander vernetzt sind, scheinen spontan die Fähigkeit zur Selbstorganisation und damit zur Höherentwicklung (im Sinne von emergenten Ordnungsstrukturen) zu besitzen.

Emergenz ist dabei als die Eigenschaft eines Gesamtsystems definiert, welches nicht durch einfache Summation von Teileigenschaften errechnet werden kann. Emergente Phänomene sind charakterisiert durch

  • die Interaktion meist großer Zahlen von Individuen
  • ohne zentrale Kontrolle
  • mit dem Ergebnis der Bildung kohärenter Muster, welche nicht explizit vorprogrammiert wurden ( http://www.beart.org.uk/Emergent/).

Ein Beispiel für eine einfache emergente Eigenschaft ist die Resonanzfrequenz eines Schwingkreises: Sie ist weder in der Spule noch im Kondensator allein zu finden sondern entsteht aus deren Zusammenwirken. Eine weitere für lebende Systeme charakteristische Eigenschaft ist die Autopoiese, die Fähigkeit eines Systems sich „selbst zu machen", zu erhalten und somit zu leben. Eine zentrale Rolle für das Verhalten komplexer Systeme dürfte auch die Chaostheorie spielen. Sie vermag die relative Stabilität lebender Systeme gegenüber Umwelteinflüssen zumindest qualitativ zu erklären. Erst äußere Ereignisse, welche gewisse Toleranzschwellen überschreiten („system events"), können das System – über instabile Zwischenstufen – zu neuartigen dynamischen Zuständen (Attraktoren) führen. Insbesondere für das Gehirn scheint die Beschreibung als selbstorganisierendes dynamisches System angemessen zu sein (von der Malsburg).

Ähnliche Ansätze und Abgrenzung

Organic Computing ist nicht der erste Versuch, die Natur als Vorbild für technische Systeme zu nutzen. Zelluläre Automaten realisieren das Prinzip der strikten Lokalität und zeigen, wie hieraus globale Muster entstehen. Pionierarbeit auf dem Gebiet der biologisch inspirierten Optimierung haben Rechenberg (evolutionäre Algorithmen) und Goldberg (genetische Algorithmen) geleistet. Als weitere höchst fruchtbare Forschungszweige sind hier die künstlichen neuronalen Netze und die genetische Programmierung (Bibliographie in http://www.genetic-programming.org) zu nennen.

Noch näher an der Biologie ist die Artificial-Life-Forschung (s. z.B. http://www.calresco.org/) anzusiedeln. Ihr Ziel ist die Untersuchung künstlicher, weil im Computer angesiedelter, lebensähnlicher Prozesse. Es geht um die Frage „Was ist Leben?" oder „Wie könnten alternative Lebensformen aussehen?". Leider hat sich die Artificial-Life-Forschung in Bezug auf die technische Nutzung ihrer Ergebnisse nicht hinreichend engagiert.

Evolutive und genetische Algorithmen, Simulated Annealing, künstliche neuronale Netze (Techniken, die auch unter dem Begriff Soft Computing bekannt sind), die Bionik sowie die Robotik versuchen jeweils spezielle Mechanismen der Natur zu simulieren und zu nutzen. Das von IBM als unternehmensweites Leitprojekt propagierte Autonomic Computing verfolgt ähnliche Ziele wie OC, ist aber in seinem Anwendungsbereich vorerst auf die Selbstorganisation von Rechenzentren und Netzen ausgerichtet. Der Bereich der eingebetteten Prozessoren, welche unsere Alltagsumgebung „intelligent" machen sollen, wird im derzeit sehr aktiven Forschungsgebiet des Ubiquitous Computing untersucht.

Organische Computersysteme sind inspiriert von Ideen aus der Biologie. Aber sie basieren (bis auf weiteres) auf herkömmlicher Siliziumtechnologie. Ihre lebensähnlichen Eigenschaften wirken sich auf der Ebene des Gesamtsystems und beim Aufbau und Zusammenspiel ihrer Komponenten aus. Wir meinen mit dem Begriff „organische Computersysteme" weder DNA-basierte Rechner noch Recheneinheiten auf der Basis von Neurocomputern – obwohl solche Technologien sehr wohl längerfristig ins Bild passen.

Erste Beispiele

  • Das Internet stellt eine der komplexesten technischen Strukturen dar. Es wurde jedoch nicht im Detail geplant. Trotzdem sind, wie im Rahmen der „Small-world-Hypothese" ( http://smallworld.columbia.edu/) gezeigt wird, Ordnungsstrukturen entstanden, welche Ähnlichkeiten mit denen des Gehirns aufweisen.
  • Ein instruktives Beispiel für ein Problem, das erfolgreich mittels OC bearbeitet wurde, ist die automatische Gesichtserkennung . Biologisch inspirierte Bildverarbeitung zusammen mit Selbstorganisation, elastischem Graphmatching und dem Datenformat der Bündelgraphen hat zur Entwicklung eines leistungsfähigen Gesamtsystems geführt, das die Basis eines der erfolgreichsten kommerziellen Gesichtserkennungssysteme bildet (z.B. http://www.frvt.org). Diese Technik ist direkt von einem auf selbstorganisierenden neuronalen Netzen basierenden Modell der Hirnfunktion abgeleitet . In diesem Beispiel hat die konsequent am Lernen von der Natur ausgerichtete Entwurfsmethodik direkt zu einem technischen Durchbruch geführt.
  • Ein wesentliches Problem bei der Entwicklung autonomer Systeme ist die adaptive Merkmalsfusion. Z.B. sind für das Verfolgen von Personen durch eine Videosequenz verschiedene Merkmale nützlich wie Hautfarbe, Form oder kohärente Bewegung. Die Technik der „demokratischen Integration" stellt eine selbstorganisierte zeitlich veränderliche Gewichtung der einzelnen Merkmale zur Verfügung und erreicht eine deutlich robustere Verfolgungsmethode, die auch mit relativ schnellen Änderungen in der Umwelt umgehen kann.

Entwurf und Modellierung

Es geht im Forschungsgebiet Organic Computing zunächst darum, die natürlichen Phänomene besser und vor allem quantitativ zu verstehen, welche zu Emergenz, Selbstorganisation und autonomem Verhalten führen. Darüber hinaus muss das Ziel aber in einer ingenieurtechnischen Beherrschung solcher Systeme liegen.

Der herkömmliche Entwurfsprozess ist streng hierarchisch und von oben nach unten organisiert (Top-down-Entwurf). Er besteht aus einer Reihe von Modellierungen, beginnend mit einer abstrakten Spezifikation, die über mehrere Ebenen immer weiter verfeinerter Struktur- und Verhaltensbeschreibungen schließlich zu einem Modell führt, das direkt die Fertigung steuert. Die dieser Entwurfsmethodik zugrunde liegende Denkweise ist die möglichst vollständige Umsetzung der Spezifikation in Detailentwürfe – somit also eine vollständige Kontrolle des Verhaltens des resultierenden technischen Systems. Vom Entwickler wird damit erwartet, dass er alle denkbaren Systemzustände vorausgedacht hat.

Mit der Zulassung emergenter oder selbst-organisierender (Teil)systeme wird dieser strikte Topdown-Prozess verlassen. Wir wollen dabei ja gerade erreichen, dass das Zielsystem in gewissen Grenzen ein Verhalten zeigt, welches der Entwickler nicht vorgedacht hat. Hier liegt aber ein fundamentaler Widerspruch zwischen Top-down-Kontrolle und kreativem Bottom-up-Verhalten verborgen. Es ist heute noch nicht klar, wie diese beiden gegenläufigen Tendenzen miteinander vereinbart werden können. Ansätze liegen in Verfahren der Constraint Propagation, dem Einsatz von Assertions und sog. Observer/Controller-Architekturen.

Observer/Controller-Architekturen nehmen Anleihen beim makroskopischen Aufbau des Gehirns vor. Hier existieren neben den direkten Reizreaktionsmechanismen zwischengeschaltete Überwachungsapparate, welche den sensorischen Input filtern und die vom bewussten Gehirn vorgeschlagenen Aktionen einer Bewertung unterziehen. Diese Funktion wird vom limbischen System ausgeführt, welches dem bewussten und logischen Denken die emotionale Färbung aufprägt. Die technische Basis für autonome Controller/Observer ist in einzelnen der heute in Entwicklung befindlichen eingebetteten Prozessoren bereits vorgesehen.

Forschungsziele

Trotz vieler interessanter Forschungsansätze sind zentrale Fragen des OC ungelöst und bedürfen einer übergreifenden Analyse und Kooperation. Es werden drei große Teilgebiete gesehen, welche weitgehend parallel zu bearbeiten sind (Abb. 1). Es sind dies:

  • Verständnis der Prinzipien der Selbstorganisation natürlicher Systeme,
  • Umsetzung dieser Prinzipien in technisch nutzbare Verfahren und Werkzeuge,
  • Praktische Nutzung in technischen Anwendungen.

Literatur

  1. Arbib M. A.: Handbook of Brain Theory and Neural Networks, 2.Auflage. MIT Press, 2002.
  2. Eigen M., Schuster P.: The Hypercycle: a principle of natural self-organization. Berlin, Heidelberg, New York: Springer 1979
  3. Jetschke G.:Mathematik der Selbstorganisation. Frankfurt am Main: Harri Deutsch 1989
  4. Kephart J., Chess D.: The Vision of autonomic computing. Computer Magazine, IEEE, 2003
  5. Langton C. G.: Artificial life. In: Langton C. (Hrsg.): Artificial life, SFI Studies in the Sciences of Complexity, Proc. Vol. VI. Redwood City/CA: Addison-Wesley 1989
  6. Maturana H. R.,Varela F. J.: Autopoiesis and cognition: the realization of the living. Dordrecht: Reidel 1980
  7. Mattern F.:Ubiquitous computing: Szenarien einer informatisierten Welt. In: Zerdick A., Picot A., Schrape K., Burgelman J.-C., Silverstone R., Feldmann V., Heger D. K.,Wolff C. (Hrsg.): E-Merging Media – Kommunikation und Medienwirtschaft der Zukunft. (S. 155–174) Berlin, Heidelberg New York Tokio: Springer 2004
  8. Meyer B.:Object-oriented software construction, 2nd edn. Prentice Hall 2000
  9. Neumann von J. et al.:Theory and organization of complicated automata. In: Burks A. W. (Hrsg.):Theory of self-reproducing automata [by] John von Neumann (S. 29–87), Part One. Urbana:University of Illinois Press
  10. Oodes T., Krisp H., Müller-Schloer C.: On the combination of assertions and virtual prototyping for the design of safety-critical systems, ARCS 2002/Trends in Network and Pervasive Computing, Karlsruhe. Berlin Heidelberg New York Tokio: Springer 2002
  11. Ott E.: Chaos in dynamical systems. Cambridge: Cambridge University Press 1993
  12. Prigogine I., Kondepudi D.:Modern thermodynamics: From heat engines to dissipative structures. Chichester: John Wiley & Sons 1998
  13. Triesch J.,Malsburg C. von der:Democratic integration: Self-organized integration of adaptive cues. Neural Computation 13(9), 2049–2074 (2001)
  14. Weiser M.:The computer for the 21st century. Scientific American 265(3), 94–104 (September 1991)

Hinweis: Die URLs entsprechen dem Stand bei der Veröffentlichung des Artikels und werden nicht aktualisiert.

Autor und Copyright

Christian Müller-Schloer
Universität Hannover,
Appelstr. 4, 30167
cms@sra.uni-hannover.de

Christoph von der Malsburg
Rolf P. Würtz

DOI 10.1007/s00287-004-0409-6
© Springer-Verlag 2004