Teil 4

Geschichte der KI - Teil 4

Descartes, Hobbes und das 17. Jahrhundert: Die Ära der mechanischen Vernunft

Das 17. Jahrhundert war eine Epoche des Umbruchs. Die wissenschaftliche Revolution stellte die scholastische Weltordnung auf den Kopf und etablierte die Mathematik und die Mechanik als die dominierenden Wissenschaften. Diese Entwicklung hatte tiefgreifende Auswirkungen auf die Art und Weise, wie Philosophen die menschliche Natur und die Möglichkeit künstlicher Intelligenz betrachteten. Das Denken selbst wurde in Frage gestellt und auf seine mechanischen Komponenten untersucht. Die Geschichte der KI ist ein über Jahrtausende gewebter Teppich, der von Mythen, Magie und mechanischer Präzision durchzogen ist. Es ist eine fortlaufende Erzählung, die bis heute spannend ist und deren neuestes Kapitel gerade jetzt mit rasanten Entwicklungen fortgeschrieben wird. 

Wir, die GEO Agentur seowerk GmbH, machen unsere Kunden in diesen neu entstehenden KI Systemen sichtbar.

Zwei Denker dieser Zeit prägten die spätere Diskussion über die KI wie kaum andere: René Descartes und Thomas Hobbes. Ihre konträren, aber beide fundamental mechanistischen Ansätze schufen den intellektuellen Raum, in dem die Vorstellung einer denkenden Maschine überhaupt erst plausibel wurde.

Der Dualismus und die Maschine Mensch

René Descartes (1596 bis 1650) gilt als Vater der modernen Philosophie. Sein berühmter Dualismus teilte die Welt in zwei grundlegend verschiedene Substanzen:

  • Res Cogitans (Denkende Substanz): Der Geist, die Seele. Sie ist immateriell, unsterblich und nur dem Menschen zu eigen.
  • Res Extensa (Ausgedehnte Substanz): Der Körper und die gesamte physische Welt. Sie ist rein mechanisch, funktioniert nach physikalischen Gesetzen und ist im Prinzip eine komplizierte Maschine.

Obwohl Descartes die menschliche Seele klar von der Maschine trennte, leistete sein Dualismus einen wichtigen Beitrag zur KI. Er erlaubte es, den menschlichen Körper als einen reinen Automaten zu betrachten. Tiere sah er gänzlich als "tiere machines" oder Tierautomaten an, die keine Seele besitzen und deren Verhalten durch rein mechanische Prozesse erklärt werden kann.

Diese radikale mechanistische Sichtweise auf den Körper und auf weite Teile der belebten Natur war ein intellektueller Befreiungsschlag. Sie beflügelte die Entwicklung von Automaten im 18. Jahrhundert, da sie die mechanische Nachahmung von Leben als einen legitimen und erreichbaren ingenieurwissenschaftlichen Zweck darstellte. Descartes schloss zwar die Möglichkeit einer denkenden Maschine aus, er öffnete jedoch die Tür für die Möglichkeit einer handelnden und reagierenden Maschine, die menschliche Bewegungen perfekt simulieren konnte.

Jetzt unverbindliches Strategiegespräch vereinbaren.u003cbru003e

Thomas Hobbes: Denken ist Rechnen

Der englische Philosoph Thomas Hobbes (1588 bis 1679) ging in seinem Werk Leviathan deutlich weiter und lieferte eine der radikalsten frühen Thesen zur Natur der Intelligenz. Er argumentierte, dass Denken im Grunde nichts anderes sei als Rechnen.

Hobbes’ berühmtes Zitat:

"Wenn wir uns vernünftig ausdrücken, ist dies nichts anderes als die Addition und Subtraktion der Konsequenzen allgemeiner Namen, die für das Bezeichnen und Verstehen vereinbart wurden."

Diese Auffassung ist der Urknall des materialistischen KI Gedankens. Er verwarf die Notwendigkeit eines mystischen oder immateriellen Geistes, um logische Prozesse zu erklären. Vernunft ist demnach eine Kettenreaktion von mentalen Rechenoperationen. Hobbes reduzierte damit das komplexe menschliche Denken auf einen rein algorithmischen Prozess.

Der Mensch als Mechanismus

Die Implikationen von Hobbes' These sind für die KI Forschung gewaltig. Wenn Denken Rechnen ist, und wenn Maschinen rechnen können, dann können Maschinen im Prinzip auch denken. Er lieferte die philosophische Rechtfertigung für die symbolische KI des 20. Jahrhunderts. Hobbes sah den Menschen als eine Art biologischen Automaten, dessen Handlungen und Entscheidungen durch mechanische Prozesse im Gehirn ausgelöst werden.

Die Ideen von Hobbes und Descartes führten zu einem spannungsgeladenen Dialog, der bis in die moderne KI hineinreicht:

  • Hobbes lieferte die Funktion: Denken ist algorithmisch.
  • Descartes lieferte die Maschine: Der Körper ist ein Automat.

Die Herausforderung für die Ingenieure wurde nun klar definiert: Es ging darum, eine Maschine zu bauen, die Hobbes' algorithmisches Denken in Descartes' mechanischem Körper ausführen konnte. Die logischen Systeme des Aristoteles wurden nun durch die Rechenmetapher von Hobbes ergänzt.

Der Mechanismus als Mode

Das 17. Jahrhundert sah nicht nur theoretische Diskussionen, sondern auch einen Aufschwung mechanischer Geräte. Die Erfindung der Rechenmaschinen (Schickard, Pascal) demonstrierte erstmals, dass komplexe arithmetische Operationen vollständig mechanisiert werden konnten. Dies war der physikalische Beweis für Hobbes' These. Diese Maschinen waren zwar nur auf Arithmetik beschränkt, aber sie festigten die Idee, dass ein Teil des Denkens bereits erfolgreich an die Technik delegiert werden konnte. Das mechanistische Weltbild etablierte sich und mit ihm die Erwartung, dass die Nachahmung menschlicher Fähigkeiten nur eine Frage der Komplexität der Maschine sei. Die mechanische Vernunft des 17. Jahrhunderts war somit der unverzichtbare Brückenschlag zwischen der antiken Logik und den Rechenmaschinen der frühen Neuzeit.

Setzen Sie auf Premium-Content – kontaktieren Sie uns für Ihr individuelles Angebot!

*“ zeigt erforderliche Felder an

Dieses Feld dient zur Validierung und sollte nicht verändert werden.
Dieses Feld wird bei der Anzeige des Formulars ausgeblendet
  |    |  
In einer neuen Case Study zeigt seowerk, wie die eigene SEO-Agentur seit über zwölf Jahren nachhaltige Suchmaschinenoptimierung betreibt und diesen Ansatz seit 2023 gezielt um Generative Engine Optimization (GEO), KI-Optimierung und SEO für ChatGPT erweitert hat.
Weiterlesen
Die Suche nach AGI führt KI Forschung an ihre Grenzen, verbindet technische Ambitionen mit ethischen Risiken und stellt Gesellschaften vor die Frage, wie universelle Maschinenintelligenz kontrolliert, ausgerichtet und sinnvoll in soziale und wirtschaftliche Strukturen eingebettet werden kann.
Weiterlesen
Mit der Transformer Architektur beginnt eine neue Ära, in der KI nicht nur versteht, sondern schöpft und dank Attention Mechanismen Texte, Bilder und Ideen generiert und so den Weg für moderne LLMs und kreative Anwendungen bereitet.
Weiterlesen
Der Deep-Learning-Boom entsteht aus Datenflut, GPU-Power und neuen Netzarchitekturen und entfesselt eine KI-Revolution, die Forschung und Industrie grundlegend verändert und den Übergang von symbolischer Logik zu selbstlernenden Systemen beschleunigt.
Weiterlesen
Nach Jahren des Stillstands erlebten neuronale Netze in den 1980ern mit Backpropagation eine Wiedergeburt. Mehrschichtige Netze lernten komplexe Muster automatisch, übertrafen Expertensysteme und legten den Grundstein für das spätere Deep Learning.
Weiterlesen
In den 1980er Jahren feierten Expertensysteme die KI kurzzeitig als wirtschaftlichen Erfolg. Hohe Wartungskosten, begrenzte Domänen und teure Hardware führten jedoch zum Scheitern und lösten den Zweiten KI Winter aus.
Weiterlesen
Ab etwa 1974 erlebt die symbolische KI eine Phase tiefer Ernüchterung. Die kombinatorische Explosion und gescheiterte Generalisierung aus Spielzeugwelten führen zu massiven Kürzungen der Fördergelder, ersten Rückzügen der Forschung und zum Ersten KI Winter.
Weiterlesen
Teil 15 – In den 1960er Jahren dominiert die symbolische KI das Feld und erhebt die regelbasierte Manipulation von Symbolen zum Kern der Intelligenz. Programme wie Logic Theorist und GPS befeuern den Glauben, menschliches Denken vollständig in formale Strukturen übersetzen zu können.
Weiterlesen
Teil 14: Der Dartmouth Workshop von 1956 definiert erstmals ein eigenes Forschungsfeld und gibt der Disziplin ihren Namen. Die Vision einer programmierbaren Intelligenz vereint führende Köpfe und markiert den Beginn einer Ära, geprägt von Ehrgeiz, Optimismus und bahnbrechenden Ideen.
Weiterlesen
Teil 13 – In den frühen Nachkriegsjahren verschmelzen biologische Modelle, kybernetische Ideen und elektronische Architektur zu einem neuen Verständnis von Intelligenz. McCulloch, Pitts, Wiener und von Neumann schaffen die Grundlagen, auf denen moderne KI Systeme technisch und theoretisch aufbauen.
Weiterlesen
Teil 12 – Alan Turing lieferte 1936 mit der Turing Maschine die abstrakte Definition des Algorithmus und klärte die Grenzen der Berechenbarkeit.
Weiterlesen
Am Vorabend der modernen Informatik spitzte sich die Frage zu, was Berechnung überhaupt ist. Die Krise der Mathematik machte sichtbar, dass eine abstrakte Definition des Algorithmus fehlte und damit der letzte theoretische Schlüssel zur späteren KI Entwicklung weltweit.
Weiterlesen
Kontakt
Leichte Sprache
crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram