Das kollektive Superhirn

    03. März 2005 von Dr. Thomas Gerick

    Der polnische Science-Fiction-Autor Stanislaw Lem variiert seit den 60er Jahren auf vielfältige Weise den Gedanken, dass einfachste Wesen durch eine hinreichend geschickte Verschaltung untereinander komplexe Schwarmintelligenzen ergeben könnten. Auch wenn man von einer Intelligenz im menschlichen Sinne nicht sprechen kann - mit dem Begriff Schwarmintelligenz verneigen sich Forscher vor der Leistung, die Scharen sozialer Insekten wie Ameisen, Bienen oder Termiten durch ihr kollektives Verhalten erbringen. Gibt es adaptierbare Mechanismen, mit denen der Mensch aktuelle Herausforderungen wie Verkehr oder Informationsverarbeitung besser organisieren kann?

    Dieser Artikel erschien bereits in der Mai-2004-Ausgabe der Zeitschrift Wissensmanagement.

    Divide et impera - das Schwarmprinzip

    Sammelameisen, die Samen in ihr Nest tragen, agieren wie Staffelläufer, indem sie die Samenkörner in einer Kettenformation weitergeben. Das Interessante dabei ist, dass die einzelne Ameise keinen festen Platz in der Reihe hat und auch die Übergabepunkte nicht starr fixiert sind. Nach Art einer fliegenden Brigade variieren die Laufwege jeder Ameise entlang dieser Körnerkette, so dass es keine Leerläufe gibt.

    Um die Effizienz von Betriebsabläufen zu steigern, haben Wissenschaftler der Universität Chicago dasselbe Prinzip u.a. im zentralen Vertriebszentrum einer großen amerikanischen Warenhauskette angewendet. Dort war jeder Mitarbeiter für einen exakt definierten Teil der Bestellung zuständig. Das Grundproblem dieses Verfahrens war das unterschiedliche Arbeitstempo der Packer, so dass ein Aufseher jedes Fließband überwachen musste, um die unvermeidlichen Arbeitsstaus zu beheben. Nach dem Prinzip der fliegenden Brigade wurden die Packer nun vom Langsamsten bis zum Schnellsten gestaffelt eingesetzt. Dabei sucht jeder Mitarbeiter so lange Produkte für seine Bestellung zusammen, bis diese Arbeit vom nachfolgenden Packer fortgesetzt wird. Der freie Mitarbeiter geht dann an den Anfang seines Packprozesses und übernimmt die Arbeit von seinem nächsten Kollegen. Dieses einfache Prinzip gestattete es den Teams, das unterschiedliche Tempo der Arbeitskräfte flexibel auszugleichen. Durch die Umstellung der Betriebsabläufe konnte die Produktivität um 30 Prozent gesteigert werden. Inzwischen hat dieses Verfahren in vielen Distributionszentren Einzug gehalten. [2]

    Ein zweites Beispiel beschreibt die Fähigkeit von Ameisen, in einem ihnen eigentlich unbekannten Terrain optimale Verkehrsnetze aufzubauen. Entlang ihres Weges sondern verschiedene Ameisenarten unentwegt Duftstoffe, so genannte Pheromone, ab. Sie dienen der Kommunikation und Orientierung. Damit sind sie in der Lage, den kürzesten Weg zu Nahrungsquellen aufzuspüren. Da die Tiere Pfade, die schon viele andere nutzten, wegen der intensiven Duftspur am liebsten gehen, ergibt sich im Laufe der Zeit eine perfekte Ameisenstraße. Entscheidend dabei ist, dass die Pheromone nach kurzer Zeit wieder verdunsten, so dass die Attraktivität seltener gewählter Wege automatisch nachlässt.

    Variationen dieses im Grunde simplen Verfahrens können Unternehmen bei einer Reihe betrieblicher Herausforderungen unterstützen, wie z.B. überlasteten Telefonnetzen oder im Frachtverkehr. So nutzt der Schweizer Heizöl-Distributor Pina Petroli ein ameisenähnlich funktionierendes System, um den Einsatz seiner Tankwagen zu optimieren, die Privathaushalte mit Heizöl beliefern. Viele Faktoren wie die Größe der Lastwagen, das Geländeterrain, Wetter- bzw. Verkehrsverhältnisse oder die variationsreichen Bestellungen und Termine der Kunden stellen hohe Ansprüche an die Flexibilität der Planung. Werkzeuggestützt ist das Unternehmen heute in der Lage, diese zahlreichen Wirkfaktoren zu berücksichtigen, um die Anzahl der Fahrzeuge und über eine ideale Routenplanung auch die Gesamtfahrzeit zu minimieren. Virtuelle Ameisen und künstliche Pheromone lösen so vielerlei Logistik- und Transportprobleme. [2]

    Flexibel, robust und selbstorganisiert

    Das Phänomen der Schwarmintelligenz kennzeichnen vor allem drei wichtige Eigenschaften: Flexibilität, Robustheit und Selbstorganisation. Staatenbildende Insekten verfügen über eine große Anpassungsfähigkeit an unterschiedlichste Bedingungen. Außerdem sind sie sehr robust gegenüber dem Ausfall einzelner Individuen. Und die Mitglieder des Schwarmes benötigen vergleichsweise wenig Aufsicht oder Kontrolle. Durch die Interaktion autarker Einzelner agiert die Gruppe ohne zentrales Kommando selbstorganisiert und dynamisch.

    Die genannten drei Eigenschaften bilden das Rückgrat von Mechanismen bzw. Systemen, welche - wie beispielhaft beschrieben - auch eine Fülle unternehmerischer Hürden meistern können. Seit den 90er Jahren beschäftigt sich eine Richtung der KI-Forschung, die so genannte Verteilte Künstliche Intelligenz (VKI), verstärkt mit der Adaption und Umsetzung solcher Konzepte. Ziel ist es, benutzerfreundliche Werkzeuge zu entwickeln, die ohne starre Programmabläufe interagieren, und diese ebenso unaufdringlich wie nutzenstiftend in unsere Arbeits-, Lern und Lebenswelt zu integrieren. [3]

    In den vergangenen Jahren wurden wichtige Techniken des so genannten Soft-Computing realisiert, die nicht nur logisch-regelbasiert, sondern emotional und fehlertolerant agieren. Beispiele sind neuronale Netze, Lernalgorithmen oder die Fuzzy-Logik zur fehlertoleranten Informationsverarbeitung. Solche Lern- und Selektionsverfahren eignen sich deshalb besonders als Schnittstelle zum Internet.

    Herausforderung Internet

    Kollektive Intelligenz manifestiert sich seit einem Jahrzehnt vor allem im Internet [4]. Als globales Datennetz bildet es das Kernstück der Wissensgesellschaft und ist damit euphorischen Äußerungen ebenso ausgesetzt wie Anfeindungen. Kritiker wie Stanislaw Lem fürchten die "informative Sintflut". Und in der Tat stellen sich die Inhalte der inzwischen 10 Milliarden Webseiten als gleichermaßen poly- wie auch amorphe Informationsmasse dar, deren Datenfülle die Substanz überwiegt. Entscheidend ist deshalb das individuelle Zugangswissen zu diesen Informationen als Voraussetzung, sie produktiv umzusetzen. Klasse statt Masse - dazu braucht es intelligente Mechanismen zur Informationsfilterung und -verarbeitung. "Die Zukunft des Fabrizierens basiert darauf, Informationen zu erwerben, herzustellen und weiterzugeben", meint auch der Medienphilosoph Vilém Flusser [5].

    Ein großes Problem stellt dabei die Vermittlung von Informationen über Server dar. Seit den 90er Jahren regeln sie die Kommunikation mit einem Heer von Client-Rechnern. Mit den Inhalten und den Internet-Teilnehmern wuchsen jedoch auch die Ansprüche an die Skalierbarkeit solcher Systeme. Jüngste wissenschaftliche Ergebnisse zeigen, dass sich aus dem Verhalten von Bienen beim Nektarsammeln Verfahren ableiten lassen, welche die optimale Lastverteilung von Internet-Servern berechnen. Neue Algorithmen steuern die extrem schwankende Auslastung von Serverfarmen deutlich effizienter als gängige Verfahren. [6]

    Schwarmtechnologien zur Informationsverarbeitung

     

    Ein großes Problem stellt dabei die Vermittlung von Informationen über Server dar. Seit den 90er Jahren regeln sie die Kommunikation mit einem Heer von Client-Rechnern. Mit den Inhalten und den Internet-Teilnehmern wuchsen jedoch auch die Ansprüche an die Skalierbarkeit solcher Systeme. Jüngste wissenschaftliche Ergebnisse zeigen, dass sich aus dem Verhalten von Bienen beim Nektarsammeln Verfahren ableiten lassen, welche die optimale Lastverteilung von Internet-Servern berechnen. Neue Algorithmen steuern die extrem schwankende Auslastung von Serverfarmen deutlich effizienter als gängige Verfahren. [7]

    Im kleineren Rahmen versprechen heute intelligente Softwaresysteme praktischen Nutzen, die auf Basis semantischer Themennetze Inhalte im Intranet eines Unternehmens suchen. Entscheidend ist, dass solche Systeme durch die Interaktion der Benutzer lernen und das kollektive Recherchewissen in Form von aktuellen Themennetzen bzw. spezifischen Suchstrings permanent verbessern. Zudem werden nicht nur erfolgreich beantwortete Fragen abgelegt, sondern auch Personen oder Rollen aufgeführt, die sich für spezifische Themen interessieren. So kann ein System z.B. das Leseverhalten von Anwendern analysieren und häufig genutzte Dokumente anderen als besonders interessant empfehlen. Eine solche Technologie kann eine Gruppe von recherchierenden Mitarbeitern, die ihre Tätigkeit nach einem Schwarmmuster organisieren, durchaus unterstützen.

    Neue Horizonte: Peer to Peer

    Eine Reihe erfolgreicher Internet-Initiativen der letzten Jahre basiert auf dem Prinzip der Zusammenarbeit gleichberechtigter Akteure. So entwickelte sich der Siegeszug des Open-Source-Betriebssystems Linux seit 1994 kollaborativ. Sein Erfolg liegt in seinem Organisationsprinzip: offen, flach, autonom, experimentierfreudig. Einige Jahre später, im Sommer 1999, sorgte der damals 19-jährige Shawn Fanning mit Napster für Furore. Innerhalb weniger Monate verwandelten 20 Millionen Kunden das Internet in eine einzige riesige Musiktauschbörse. Jeder Teilnehmer war sein eigener Produzent. Und auch das Auktionshaus Ebay, bei dem jeder bedarfsgerecht verschiedene Rollen vom Händler bis zum Konsumenten einnehmen kann, spiegelt exakt dieses Prinzip wider.

    Interessanterweise leisten gerade Konzepte, die Grundeigenschaften von Schwarmintelligenz adaptieren, wirkungsvolle Dienste. Flexibilität, Robustheit, Selbstorganisation - Technologien mit diesen Eigenschaften fasst man seit einigen Jahren unter dem Begriff Peer-to-Peer Computing (P2P) zusammen. Visionäre sagen eine Zeit voraus, in der P2P für alles genutzt werden wird: für das Updaten von Produktkatalogen ebenso wie für den Aktiehandel oder die Nutzung freier Rechenkapazitäten für Suchmaschinen, für Biotechnologie oder die Wettervorhersage [8]. Dabei ist der P2P-Gedanke nicht neu, entspricht er doch der natürlichen Form, zu kommunizieren, beispielsweise bei einem Telefongespräch. Auch das Internet wurde als P2P-System konzipiert und sollte ursprünglich gleichberechtigte Teilnetze miteinander verbinden. Peer-to-peer-Netze übertragen Daten dezentral und sind dadurch sehr viel robuster. Der Ausfall eines Peers hat keine Auswirkungen auf das Gesamtsystem, ein Single Point of Failure existiert nicht. [9]

    Das Schwarmprinzip, Komplexität in den Griff zu bekommen, indem die einzelnen Bausteine einfachen Regeln folgen, wird auch durch das folgende Beispiel deutlich: Seti@home (Search for Extraterrestrial Intelligence at Home) ist eine ebenso skurrile wie erfolgreiche Peer-to-Peer-Anwendung. Mehr als 2,5 Millionen PCs haben sich zusammengeschlossen, um das Weltall gemeinsam nach außerirdischen Radiosignalen zu durchforsten. Mit einer potenziellen Leistung von 10.000 Milliarden Operationen pro Sekunde ist das digitale Kollektiv 10-mal schneller als der weltweit mächtigste Computer. Im Mittelpunkt steht dabei ein Bildschirmschoner, den man von der Seti-Website herunterladen kann. In den Rechenpausen schaltet sich der Screensaver ein und verarbeitet Daten von einem gewaltigen Radioteleskop in Puerto Rico. Die Suche nach Botschaften von Aliens übernimmt so die P2P-Gemeinde mit ihren 2,5 Millionen PCs in ihrer Freizeit. [10]

    Maschinenzeit für die Wirtschaft - inzwischen dürfte es weit mehr als hundert Peer-to-Peer-Initiativen geben. Eines Tages wird nach Meinung des britischen Wirtschaftsmagazins Economist der größte Teil an Wissensarbeit von Teams erledigt werden, die sich über P2P bilden, wenn sie gebraucht werden, und auseinandergehen, wenn das Projekt beendet ist. Das Web ermöglicht so Schwärmen von Freiberuflern, sich zu organisieren und zu arbeiten. [11]

    Fazit

    Angesichts hoch kompetitiver und dynamischer Märkte genügt das vor 100 Jahren aufgestellte tayloristische Führungsprinzip den aktuellen Herausforderungen der Wissensökonomie nicht mehr. Geschäftschancen sind heute kurzlebig. Ein Unternehmen muss schnell sein, um sie auszuschöpfen, und das nächste Geschäftsmodell nutzen, sobald das alte nicht mehr trägt. In diesem Sinne kann die Beschäftigung mit Vorbildern aus der Natur, die sich evolutionär bewährt haben, konstruktiv sein und zu wertvollen Erkenntnissen führen. Hinweise für entsprechende Konzepte bieten nicht nur soziale Insekten, auch Ökosysteme könnten künftig Fingerzeige für Modelle und Technologien liefern, die in der Lage sind, betriebliche Probleme höchst wirkungsvoll zu lösen. Bei aller gegebenen anthropozentrischen Vorsicht gegenüber einem Phänomen wie der Schwarmintelligenz lässt sich nicht von der Hand weisen, dass Initiativen wie Peer-to-Peer-Konzepte oder Visionen wie das Semantic Web zentrale Grundeigenschaften der mit Schwarmintelligenz beschriebenen Verhaltensmuster erfolgreich adaptieren.

    Literatur

    [1] Lem, St.: Der Unbesiegbare (1969); Waffensysteme des 21 Jahrhunderts (1983); Peace on Earth (1994).
    [2] Bonabeau, E./Meyer, Chr.: Schwarm-Intelligenz: Unternehmen lernen von Bienen und Ameisen. In: Harvard Business Manager 6/2001.
    [3] Mainzer, K.: Im Zeitalter der denkenden Maschinen. www.heise.de/tr/artikel/43721.
    [4] Lévy, P.: Die kollektive Intelligenz. Eine Anthropologie des Cyberspace. Mannheim 1997.
    [5] Flusser, V.: Vom Stand der Dinge. Eine kleine Philosophie des Design. Göttingen 1993.
    [6] "Der Schwänzeltanz der Internet-Server". In: Neue Zürcher Zeitung vom 13.2.2004.
    [7] www.heise.de/newsticker/meldung/print/44509 oder www.golem.de/0402/29679.html.
    [8] OVUM-Studie: Peer-to-peer computing: applications and infrastructure. Januar 2002.
    [9] Chtcherbina, E. et al.: Unter vier Augen. Peer to Peer in Theorie und Praxis. In: JavaSpectrum 4/2002.
    [10] "Divide and conquer". In: The Economist vom 29.7.2000.
    [11] "Peer-to-peer pressure". In: The Economist vom 4.11.2000.

Kommentare

Das Kommentarsystem ist zurzeit deaktiviert.