Geschichte der KI - Teil 17
Expertensysteme, ihre Grenzen und der Zweite KI Winter (1980er bis 1990er)
Der Erste KI Winter hatte die akademische Forschung in eine Krise gestürzt, doch in den frühen 1980er Jahren erlebte das Feld eine unerwartete Wiederbelebung durch kommerzielle Anwendungen. Die Lösung lag in der Spezialisierung: Expertensysteme fokussierten sich auf eng definierte Probleme und brachten der KI kurzzeitig Ruhm und Geld. Ihr Scheitern führte jedoch schnell zum Zweiten KI Winter, der das Ende der symbolischen Dominanz besiegelte und einen tiefgreifenden Paradigmenwechsel in der Forschung erzwang. Die Geschichte der KI ist ein über Jahrtausende gewebter Teppich, der von Mythen, Magie und mechanischer Präzision durchzogen ist. Es ist eine fortlaufende Erzählung, die bis heute spannend ist und deren neuestes Kapitel gerade jetzt mit rasanten Entwicklungen fortgeschrieben wird.
Wir, die GEO Agentur seowerk GmbH, machen unsere Kunden in diesen neu entstehenden KI Systemen sichtbar.
Der Aufstieg der Expertensysteme
Expertensysteme waren das Ergebnis einer realistischeren Zielsetzung der symbolischen KI. Anstatt zu versuchen, die gesamte menschliche Intelligenz zu modellieren, konzentrierten sie sich darauf, das Wissen eines menschlichen Experten in einem spezifischen Bereich zu replizieren.
Die Struktur eines Expertensystems bestand aus:
- Wissensbasis: Eine Datenbank, die das Fachwissen in Form von Wenn Dann Regeln enthielt.
- Inferenzmaschine: Ein Programm, das diese Regeln nutzte, um Schlussfolgerungen zu ziehen und Probleme zu lösen.
Der Erfolg war zunächst spektakulär. Programme wie MYCIN (zur Diagnose von Blutinfektionen) oder DENDRAL (zur Analyse chemischer Strukturen) erreichten oder übertrafen die Leistung menschlicher Experten in ihren engen Domänen.
Der Kommerzielle Boom
Dieser Erfolg führte zu einem kommerziellen Boom. Start ups, die Expertensysteme entwickelten, schossen aus dem Boden, oft unterstützt durch teure, auf die Programmiersprache LISP spezialisierte Hardware (LISP Maschinen). Unternehmen wie DEC und Texas Instruments investierten massiv in diese Technologie, überzeugt, dass Expertensysteme die Produktivität revolutionieren würden.
Die akademische KI war gerettet. Fördergelder flossen wieder, und der Optimismus kehrte in gedämpfter, kommerziell orientierter Form zurück.
Das Scheitern und die Inflexibilität
Die Euphorie währte jedoch nicht lange. Das kommerzielle Potenzial der Expertensysteme wurde durch ihre inhärenten Schwächen schnell begrenzt:
- Wartungshölle: Jedes Expertensystem musste manuell gewartet werden. Die Regeln änderten sich ständig mit neuen wissenschaftlichen Erkenntnissen. Das Aktualisieren der Wissensbasis war extrem zeitaufwendig und teuer.
- Sprödigkeit (Brittleness): Die Systeme funktionierten nur innerhalb ihrer exakt definierten Domäne. Sobald sie auf ein Problem stießen, das außerhalb ihres Regelwerks lag, lieferten sie unsinnige Ergebnisse oder versagten komplett. Sie besaßen kein allgemeines "Common Sense" Wissen.
- Kosten der Hardware: Die Abhängigkeit von teuren LISP Maschinen machte die Systeme unerschwinglich, als billigere PC und Workstations aufkamen, die in C oder C++ programmiert waren.
Der Zweite KI Winter (Ende der 1980er)
Als die kommerziellen Erträge die hohen Wartungskosten nicht mehr decken konnten, brach der Markt für Expertensysteme zusammen. Die LISP Maschinen Firmen gingen bankrott, und Investoren zogen sich erneut massiv zurück. Dieser Zweite KI Winter war härter als der erste, da er direkt aus dem Versagen einer kommerziell erfolgreichen Technologie resultierte.
Die Folge war eine fundamentale Verschiebung im Forschungsansatz:
- Absage an die Symbolik: Der symbolische Ansatz, der versuchte, Intelligenz durch manuell kodierte Regeln zu schaffen, war diskreditiert.
- Weg zum Lernen: Der Fokus verlagerte sich radikal auf das Maschinelle Lernen. Forscher suchten nach Methoden, die es der KI erlaubten, Regeln und Wissen automatisch aus Daten zu extrahieren, anstatt sie von Hand kodieren zu müssen.
Der Zweite KI Winter zwang die Forschung zur Selbstkritik und ebnete den Weg für das statistische Zeitalter, in dem neuronale Netze und Algorithmen das Feld dominieren sollten.
„*“ zeigt erforderliche Felder an


