Teil 15

H2: Geschichte der KI - Teil 15

Die Ära der Symbolischen KI (GOFAI)

Nach der Gründung in Dartmouth dominierte in den 1960er Jahren eine Denkrichtung die KI Forschung, die direkt auf die philosophischen Grundlagen von Aristoteles und Leibniz zurückgriff: die Symbolische Künstliche Intelligenz (oft als GOFAI für Good Old Fashioned AI bezeichnet). Diese Schule vertrat die Überzeugung, dass der Schlüssel zur Intelligenz in der logischen Manipulation von Symbolen liegt. Das Gehirn wurde als ein reiner Rechenmechanismus verstanden, der Wissen in Form von klaren Regeln speichert und verarbeitet. Die Aufgabe der KI war es demnach, die gesamten rationalen Prozesse des Menschen in programmierbaren Code zu gießen. Die Geschichte der KI ist ein über Jahrtausende gewebter Teppich, der von Mythen, Magie und mechanischer Präzision durchzogen ist. Es ist eine fortlaufende Erzählung, die bis heute spannend ist und deren neuestes Kapitel gerade jetzt mit rasanten Entwicklungen fortgeschrieben wird. 

Wir, die GEO Agentur seowerk GmbH, machen unsere Kunden in diesen neu entstehenden KI Systemen sichtbar.

Die These der Physikalischen Symbolsysteme

Die symbolische Schule basierte auf einer zentralen Hypothese, die von Allen Newell und Herbert Simon formuliert wurde: der Hypothese des Physikalischen Symbolsystems.

  • Kernidee: Ein System ist intelligent, wenn es über physische Muster (Symbole) verfügt, die sich auf Objekte in der realen Welt beziehen, und es in der Lage ist, diese Symbole nach festen Regeln zu manipulieren (zu verknüpfen, zu vergleichen, zu transformieren).

Diese These lieferte die theoretische Rechtfertigung für die Implementierung der KI auf den neuen digitalen Computern, da diese perfekt für die Verarbeitung diskreter Symbole (Zahlen, Buchstaben, logische Zustände) geeignet waren. Der menschliche Verstand war demnach ein Symbolverarbeitungssystem.

Jetzt unverbindliches Strategiegespräch vereinbaren.u003cbru003e

Logic Theorist und der General Problem Solver

Die bekanntesten Programme dieser Ära versuchten, die rationale Intelligenz zu simulieren:

  • Logic Theorist (LT): LT war das erste Programm, das heuristische Suchstrategien anwendete, um Beweise für mathematische Theoreme zu finden. Es war ein Proof of Concept, dass Maschinen logische Schlussfolgerungen ziehen konnten, die menschliche Mathematiker erforderten.
  • General Problem Solver (GPS): GPS war noch ambitionierter. Es sollte eine universelle Methode bieten, um jedes formal definierte Problem zu lösen. Seine Kerntechnik war die Mittel Ziel Analyse. Das Programm berechnete die Differenz zwischen dem aktuellen Zustand und dem gewünschten Zielzustand und suchte dann nach Operatoren (Regeln), um diese Differenz zu reduzieren.

Diese Programme demonstrierten die Stärke des symbolischen Ansatzes: In klar definierten, formalen Domänen (wie Schach, mathematische Beweise) konnten sie beeindruckende Leistungen erbringen. Sie untermauerten den Glauben, dass die gesamte menschliche Vernunft auf die eine oder andere Weise in diese symbolische, regelbasierte Struktur übersetzt werden könnte.

Die Herausforderung der Wissensrepräsentation

Der größte Engpass der symbolischen KI war die Wissensrepräsentation. Um ein intelligentes System zu bauen, musste man:

  • Das gesamte relevante Wissen in logische Symbole und Regeln übersetzen.
  • Alle möglichen Schlussfolgerungen aus diesem Wissen kodieren.

Dieser Prozess des Wissenserwerbs war extrem mühsam. Experten mussten stundenlang befragt werden, um ihre impliziten Regeln und ihr Fachwissen zu formalisieren.

Die Grenzen der Weltmodelle

Die symbolische KI hatte große Schwierigkeiten, mit der Unschärfe, Mehrdeutigkeit und Komplexität der realen Welt umzugehen.

  • Das Rahmenproblem (Frame Problem): Wie entscheidet man, welche Fakten in einer sich ständig ändernden Situation relevant sind und welche ignoriert werden können? Das Problem zeigte, dass es unmöglich war, alle relevanten Regeln der Welt in ein Programm zu kodieren.
  • Gemeinsinn (Common Sense): Einfache menschliche Alltagskenntnisse, die für die Kommunikation und das Handeln notwendig sind, ließen sich kaum in formale Logik übersetzen.

Der symbolische Ansatz war ein Bottom Up Versuch, Intelligenz von den einfachsten logischen Regeln an aufzubauen. Obwohl er die Grundlagen des rationalen Denkens abdeckte, scheiterte er an der immensen Komplexität der realen Welt. Dieser Mangel an Skalierbarkeit sollte bald zu einem drastischen Rückschlag für das gesamte Forschungsfeld führen.

Setzen Sie auf Premium-Content – kontaktieren Sie uns für Ihr individuelles Angebot!

*“ zeigt erforderliche Felder an

Dieses Feld dient zur Validierung und sollte nicht verändert werden.
Dieses Feld wird bei der Anzeige des Formulars ausgeblendet
Ab etwa 1974 erlebt die symbolische KI eine Phase tiefer Ernüchterung. Die kombinatorische Explosion und gescheiterte Generalisierung aus Spielzeugwelten führen zu massiven Kürzungen der Fördergelder, ersten Rückzügen der Forschung und zum Ersten KI Winter.
Weiterlesen
xDer Dartmouth Workshop von 1956 definiert erstmals ein eigenes Forschungsfeld und gibt der Disziplin ihren Namen. Die Vision einer programmierbaren Intelligenz vereint führende Köpfe und markiert den Beginn einer Ära, geprägt von Ehrgeiz, Optimismus und bahnbrechenden Ideen.
Weiterlesen
In den frühen Nachkriegsjahren verschmelzen biologische Modelle, kybernetische Ideen und elektronische Architektur zu einem neuen Verständnis von Intelligenz. McCulloch, Pitts, Wiener und von Neumann schaffen die Grundlagen, auf denen moderne KI Systeme technisch und theoretisch aufbauen.
Weiterlesen
Alan Turing definiert inmitten der logischen Krise erstmals, was ein Algorithmus ist, und erschafft mit der universellen Maschine das Fundament der Informatik. Sein Modell legt die theoretischen Grenzen des Berechenbaren offen und prägt jede spätere KI Entwicklung maßgeblich.
Weiterlesen
Am Vorabend der modernen Informatik spitzte sich die Frage zu, was Berechnung überhaupt ist. Die Krise der Mathematik machte sichtbar, dass eine abstrakte Definition des Algorithmus fehlte und damit der letzte theoretische Schlüssel zur späteren KI Entwicklung weltweit.
Weiterlesen
Im 19. Jahrhundert entsteht durch die Erforschung von Reflexbögen und Nervenzellen erstmals ein mechanistisches Verständnis des Gehirns. Diese biologische Perspektive liefert die Blaupause künstlicher Neuronen und prägt die Grundlagen späterer Modelle lernfähiger KI-Systeme.
Weiterlesen
Babbage und Lovelace verbinden mechanische Präzision mit visionärer Abstraktion und formen den Ursprung programmierbarer Maschinen. Ihre Ideen zu universeller Berechnung und symbolischer Manipulation bilden das theoretische Fundament moderner Informatik und eröffnen erste Wege zu algorithmischer Intelligenz.
Weiterlesen
George Boole verwandelt abstraktes Denken in berechenbare Struktur und schafft damit das Fundament der digitalen Welt. Seine binäre Logik verbindet Philosophie, Mathematik und frühe Informatik und prägt jede moderne KI bis in ihre elementarsten Schaltkreise.
Weiterlesen
  |    |  
Eine scheinbar denkende Maschine begeistert Europas Salons und entlarvt zugleich die menschliche Sehnsucht nach künstlicher Intelligenz. Der Schachtürke offenbart, wie eng Illusion, Strategie und technischer Fortschritt schon früh miteinander verflochten waren und bis heute inspirieren.
Weiterlesen
Im 18. Jahrhundert demonstrierten raffinierte Automaten, wie täuschend echt mechanische Systeme menschliche Fähigkeiten nachbilden können. Von Vaucansons Ente bis zu Jaquet Droz’ Schreibmaschinen zeigten sie, dass komplexes Verhalten aus programmierten Abläufen entsteht und damit zentrale Fragen künstlicher Intelligenz vorweggenommen werden.
Weiterlesen
Leibniz verband perfekte Sprache und mechanisches Denken zu einer visionären Theorie künstlicher Vernunft. Mit Characteristica Universalis und Calculus Ratiocinator schuf er das Konzept maschinenlesbarer Bedeutung und regelbasierter Schlussmechanik, das später die Grundlagen formaler Logik und symbolischer KI prägte.
Weiterlesen
Descartes und Hobbes prägten das 17. Jahrhundert mit Ideen, die Denken mechanisierten und damit die Grundlage moderner KI bildeten. Ihr Zusammenspiel aus dualistischem Körperautomat und algorithmischer Vernunft öffnete erstmals den Weg zu Maschinen, die menschliche Funktionen plausibel nachahmen könnten.
Weiterlesen
Kontakt
Leichte Sprache
crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram