Geschichte der KI – Teil 18

Die konnektionistische Wiederbelebung und Backpropagation

Nach den tiefen Enttäuschungen der beiden KI Winter war das Forschungsfeld der Künstlichen Intelligenz diskreditiert. Die symbolische Schule hatte bewiesen, dass die manuelle Kodierung von Wissen nicht skalierbar war. Die Lösung für die Krise kam aus einer lange Zeit ignorierten Ecke der Forschung: dem Konnektionismus. Die Idee, Intelligenz durch die Nachahmung des Gehirns und seiner neuronalen Verbindungen zu erzeugen, erlebte eine spektakuläre Wiederbelebung. Diese Rückkehr der neuronalen Netze war direkt motiviert durch die Unflexibilität der Expertensysteme und legte den Grundstein für den späteren Deep Learning Boom.

Die Geschichte der KI ist ein über Jahrtausende gewebter Teppich, der von Mythen, Magie und mechanischer Präzision durchzogen ist. Es ist eine fortlaufende Erzählung, die bis heute spannend ist und deren neuestes Kapitel gerade jetzt mit rasanten Entwicklungen fortgeschrieben wird. 

Wir, die GEO Agentur seowerk GmbH, machen unsere Kunden in diesen neu entstehenden KI Systemen sichtbar.

Der Dornröschenschlaf der Netze

Die ersten neuronalen Modelle von McCulloch und Pitts (Kapitel 2) und das Perzeptron von Rosenblatt waren in den 1960er Jahren durch das Buch Perceptrons von Minsky und Papert diskreditiert worden. Sie hatten bewiesen, dass einfache Perzeptronen grundlegende, nicht linear trennbare Probleme wie das XOR Problem nicht lösen konnten. Die Folge war ein Stillstand in der konnektionistischen Forschung.

Die Lösung für dieses Problem war theoretisch einfach, aber rechnerisch komplex: Man benötigte mehrere Schichten von Neuronen, sogenannte Multi Layer Perceptrons (MLP). Um ein solches tiefes Netz zu trainieren, war jedoch ein effizienter Lernalgorithmus erforderlich, der die Fehlerinformationen von der Ausgabeschicht zurück durch alle verborgenen Schichten leiten konnte.

Die Wiederentdeckung von Backpropagation

Der Durchbruch gelang in den 1980er Jahren mit der Wiederentdeckung und Popularisierung des Backpropagation (Rückpropagierung) Algorithmus. Obwohl die Idee bereits in den 1970er Jahren existierte, machten sie David Rumelhart, Geoffrey Hinton und Ronald Williams 1986 mit einer Reihe von bahnbrechenden Veröffentlichungen massentauglich.

  • Funktionsweise: Backpropagation ist ein Verfahren, das den am Ausgang des Netzes gemessenen Fehler nimmt und ihn rückwärts durch alle Schichten des Netzes leitet. Der Algorithmus nutzt diesen Fehler, um die Gewichte (die Stärke der Verbindungen zwischen den Neuronen) schrittweise anzupassen.
  • Lernfähigkeit: Dies ermöglichte es den mehrschichtigen Netzen, komplexe, nicht lineare Zusammenhänge zu lernen. Das XOR Problem war gelöst.

Der Aufstieg der Konnektionisten

Die Fähigkeit der neuronalen Netze, automatisch Muster aus Daten zu lernen, ohne explizite Regeln programmieren zu müssen, war der entscheidende Vorteil gegenüber den gescheiterten Expertensystemen. Das Wissen wurde nicht von Hand kodiert, sondern entstand emergent aus dem Trainingsprozess.

Diese Wiederbelebung führte zu einer neuen Ära, die oft als das Statistische Zeitalter der KI bezeichnet wird. Der Fokus verschob sich von der Logik zur Statistik.

  • Neues Ziel: Statt der Symbolmanipulation stand nun die Mustererkennung, Klassifikation und Vorhersage auf Basis von Wahrscheinlichkeiten im Vordergrund.
  • Anwendungen: Erste Erfolge gab es in der Spracherkennung und der Handschrifterkennung.

Die Begrenzung der 1990er Jahre

Obwohl Backpropagation ein revolutionärer Algorithmus war, stieß die konnektionistische Forschung in den 1990er Jahren an neue Grenzen, die als Shallow Learning Problem bekannt wurden:

  • Trainingstiefe: Das Training von Netzen mit sehr vielen Schichten (tiefen Netzen) war rechnerisch extrem ineffizient und fehleranfällig. Die Fehlerinformation "verflüchtigte" sich auf dem Weg durch die Schichten (Vanishing Gradient Problem).
  • Datenmangel: Die benötigten Trainingsdaten für wirklich tiefe Netze waren noch nicht in ausreichendem Maße vorhanden.

Trotz dieser Begrenzungen legte die konnektionistische Wiederbelebung der 1980er Jahre den unverzichtbaren Grundstein für den späteren Deep Learning Boom. Die Wissenschaft hatte nun das richtige Lernwerkzeug und wartete nur noch auf die nötige Hardware und die Datenmengen, um es in vollem Umfang nutzen zu können.

Kostenlose Erstberatung! 

*“ zeigt erforderliche Felder an

Dieses Feld dient zur Validierung und sollte nicht verändert werden.
Dieses Feld wird bei der Anzeige des Formulars ausgeblendet
  |    |  
In einer neuen Case Study zeigt seowerk, wie die eigene SEO-Agentur seit über zwölf Jahren nachhaltige Suchmaschinenoptimierung betreibt und diesen Ansatz seit 2023 gezielt um Generative Engine Optimization (GEO), KI-Optimierung und SEO für ChatGPT erweitert hat.
Weiterlesen
Die Suche nach AGI führt KI Forschung an ihre Grenzen, verbindet technische Ambitionen mit ethischen Risiken und stellt Gesellschaften vor die Frage, wie universelle Maschinenintelligenz kontrolliert, ausgerichtet und sinnvoll in soziale und wirtschaftliche Strukturen eingebettet werden kann.
Weiterlesen
Mit der Transformer Architektur beginnt eine neue Ära, in der KI nicht nur versteht, sondern schöpft und dank Attention Mechanismen Texte, Bilder und Ideen generiert und so den Weg für moderne LLMs und kreative Anwendungen bereitet.
Weiterlesen
Der Deep-Learning-Boom entsteht aus Datenflut, GPU-Power und neuen Netzarchitekturen und entfesselt eine KI-Revolution, die Forschung und Industrie grundlegend verändert und den Übergang von symbolischer Logik zu selbstlernenden Systemen beschleunigt.
Weiterlesen
In den 1980er Jahren feierten Expertensysteme die KI kurzzeitig als wirtschaftlichen Erfolg. Hohe Wartungskosten, begrenzte Domänen und teure Hardware führten jedoch zum Scheitern und lösten den Zweiten KI Winter aus.
Weiterlesen
Ab etwa 1974 erlebt die symbolische KI eine Phase tiefer Ernüchterung. Die kombinatorische Explosion und gescheiterte Generalisierung aus Spielzeugwelten führen zu massiven Kürzungen der Fördergelder, ersten Rückzügen der Forschung und zum Ersten KI Winter.
Weiterlesen
Teil 15 – In den 1960er Jahren dominiert die symbolische KI das Feld und erhebt die regelbasierte Manipulation von Symbolen zum Kern der Intelligenz. Programme wie Logic Theorist und GPS befeuern den Glauben, menschliches Denken vollständig in formale Strukturen übersetzen zu können.
Weiterlesen
Teil 14: Der Dartmouth Workshop von 1956 definiert erstmals ein eigenes Forschungsfeld und gibt der Disziplin ihren Namen. Die Vision einer programmierbaren Intelligenz vereint führende Köpfe und markiert den Beginn einer Ära, geprägt von Ehrgeiz, Optimismus und bahnbrechenden Ideen.
Weiterlesen
Teil 13 – In den frühen Nachkriegsjahren verschmelzen biologische Modelle, kybernetische Ideen und elektronische Architektur zu einem neuen Verständnis von Intelligenz. McCulloch, Pitts, Wiener und von Neumann schaffen die Grundlagen, auf denen moderne KI Systeme technisch und theoretisch aufbauen.
Weiterlesen
Teil 12 – Alan Turing lieferte 1936 mit der Turing Maschine die abstrakte Definition des Algorithmus und klärte die Grenzen der Berechenbarkeit.
Weiterlesen
Am Vorabend der modernen Informatik spitzte sich die Frage zu, was Berechnung überhaupt ist. Die Krise der Mathematik machte sichtbar, dass eine abstrakte Definition des Algorithmus fehlte und damit der letzte theoretische Schlüssel zur späteren KI Entwicklung weltweit.
Weiterlesen
Teil 10 – Im 19. Jahrhundert entsteht durch die Erforschung von Reflexbögen und Nervenzellen erstmals ein mechanistisches Verständnis des Gehirns. Diese biologische Perspektive liefert die Blaupause künstlicher Neuronen und prägt die Grundlagen späterer Modelle lernfähiger KI-Systeme.
Weiterlesen
Kontakt
Leichte Sprache
crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram