Two Kinds of Computing

Klassische Programme und Machine Learning sind fundamental unterschiedliche Modelle wie wir Computer nutzen.

Um einen Computer als Werkzeug zu nutzen, war es immer notwendig, exakte, logische Anweisungen zu definieren, wie seine Rechenleistung genutzt werden soll, um aus dem was wir hinein geben etwas zu generieren, was wir heraus bekommen. Wir müssen ihn programmieren.

Nach und nach haben wir verschiedene Abstraktionsebenen geschaffen, die uns helfen diese Anweisungen so einfach wie möglich zu definieren und immer komplexere Aufgaben zu bewältigen: Programmiersprachen, Grafische Interfaces, visuelle Programmiersysteme, Apps → »nutzerfreundliche Anwendungen«.

Schon seit einiger Zeit existiert aber auch die Idee, den Computer einfach nur noch mit Daten zu füttern und ihn selbst lernen zu lassen, bestimmte Probleme zu lösen ohne dass wir genau definieren müssen, wie das geschehen soll – sogenanntes Machine Learning.

Wir leben nun in einer Zeit in der diese Technologie massentauglich geworden ist. Um mit diesen gigantischen Rechenmodellen zu interagieren, verwenden wir die gleichen, für uns mittlerweile gewohnten, Schnittstellen wie bisher (Das Chatfenster mit ChatGPT ist im Grunde das gleiche wie ein WhatsApp-Chat).

Ich habe allerdings das Gefühl, dass wir dadurch nicht wirklich begreifen, wie unterschiedlich diese beiden Systeme tatsächlich sind. Ein Werkzeug bei dem der Weg von Input zu Output nicht mehr nachvollziehbar ist, ist so fundamental anders zu jeder Art von Werkzeug das wir bisher genutzt haben. Ist es überhaupt noch ein Werkzeug?

John Maeda vergleicht diesen Unterschied zwischen »klassischem Computing« und KI-Systemen in seinem Buch How to Speak Machine mit den beiden in Frankreich üblichen Methoden, Brot zu backen. Bei Pain à la levain wird natürliche Hefe verwendet während pain à la levure mit künstliche Hefe gemacht wird. Unterscheidbar werden diese beiden Brotsorten erst durch Geruch und Geschmack, äußerlich sind sie identisch. 1

Genau wie in der Welt der Computer, gibt es zwei Varianten, die auf dem selben Prinzip basieren, sehr ähnliche Ergebnisse produzieren und doch fundamental unterschiedlich funktionieren.

Because neural networks give off no »scent« while unnaturally doing things that were unimaginable even in the recent past, we need to pay special attention to this difference. 1


Bei genauerem hinsehen lässt sich beobachten, wie trügerisch diese Unterschiede sein können. Sprachmodelle wie ChatGPT sind beispielsweise erstaunlich gut darin, simplen Programmcode basierend auf einer kurzen Beschreibung in natürlicher Sprache zu generieren (Etwas, das ich auch selbst ihm Rahmen dieses Projekts schon einige Male genutz habe).

Entgegen des intuitiven Gedankens, versteht die künstliche Intelligenz (ein Computer) allerdings nicht wie dieser Code funktioniert. Es handelt sich um ein erstmal um ein reines Sprachmodell; es wird basierend auf Unmengen an Trainingsdaten (von Menschen geschriebener Code) die wahrscheinlichste Antwort auf die Anfrage generiert. Deshalb schleichen sich auch manchmal kleine Fehler ein. Die sind dann »durch kurze Nachfrage« oft schnell wieder behoben – solange sich in den Daten eine Referenz darauf wiederfindet, weil Menschen genau in diesen Fehler schon einmal gemacht haben und in Online Coding-Foren eine Lösung dafür gefunden haben. Wir haben also einer Rechenmaschine mit unserer eigenen Unfähigkeit mit Rechenmaschinen zu kommunizieren beigebracht, uns dabei zu helfen mit Rechenmaschinen zu kommunizieren. Ein System, das unmengen an Daten, Ressourcen und Energie verbraucht, um etwas genauso »schlecht zu verstehen« wie wir obwohl es das eigentlich natürlicherweise perfekt kann. Irgendwie ziemlich paradox.


klassisches ComputingMachine Learning / AI
wirkt zunächst technisch und ungreifbar, kann aber erstaunlich »lebendige« und natürliche Muster bildenwirkt zunächst nahezu menschlich, wird aber auch schnell unkontrollierbar und beängstigend
will menschliches Verhalten ergänzen/​unterstützenwill menschliches Verhalten imitieren
kontrollierbar und nachvollziehbar (mit gewissem technischen Verständis)selbst für Fachleute nicht komplett nachvollziehbar (Blackbox)
simple Systeme erzeugen komplexe Ergebnissekomplexe Systeme erzeugen simple Ergebnisse

  1. John Maeda: How to speak Machine – Computational thinking for the rest of us 2