KI und Pop-Corn

Ja, die Entwicklung und die Auswirkungen von NN (Neuronalen Netzen – vulgo KI) sind von tiefgreifenden Änderungen in Technik, Gesellschaft, Wirtschaft begleitet. Das darf nicht unterschätzt werden.

Von Kenntnis über die Strukturen neuronaler Netze, deren Möglichkeiten und Einschränkungen sind diese Pop-Corns wenig berührt. Wie schon bei früheren Themen wird die Mythenbildung um diese Kategorie Software kräftig voran getrieben.

Aber es ist einfach nur noch nervend, wie die mediale Pop-Corn-Maschine neue Themen rund um NN hervorzaubert. Was alles soll mit KI gelöst oder verschlechtert werden: Das reicht von himmelhochjauchzendem „Wir bekämpfen den Krebs / die Armut/ den Klimawandel / … endgültig“ bis zu „Die Welt wird untergehen und wir werden alle sterben“.

Eine superkurze Geschichte

Den Begriff AI (Artifical Intelligence) oder auf deutsch KI (Künstliche Intelligenz) gibt es schon seit 1956. Eine Arbeitsgruppe von zehn Informatikern, Elektrotechnikern, Mathematikern und Philosophen trafen sich im Sommer 1956, um grundlegende Konzepte für eine Software zu entwickeln, die das Denken und Lernen der Menschen nachahmen soll.

Regeln und Logik

Das Ziel war, die Funktionen des menschlichen Gehirns abzubilden. Die technischen Voraussetzung zur Implementierung der ungeheuren Zahl an Neuronenverknüpfungen waren aber zu diesem Zeitpunkt nicht vorhanden. Dazu wäre die Verknüpfung von Milliarden von Transistoren notwendig gewesen, was in den 50er Jahren nicht möglich war.

Also beschränkte sich die Entwicklung auf die Programmierung von logischen Abläufen in genau definierten Wissensgebieten. In der Folge wurden in den 80er und 90er Jahren des vorigen Jahrhunderts eine Reihe von Expertensystemen (regelbasierte AI) geschaffen, die z.B. in der Medizin, Chemie, Finanzwirtschaft eingesetzt wurden. Es gab sogar eine eigene Programmiersprache, die die Entwicklung solcher Programme erleichterte: Prolog.

Netze und Wahrscheinlichkeit

Einen gewaltigen Sprung machte die AI-Entwicklung durch die Gamingindustrie. Für die schnelle und detailreiche Darstellung von Spielszenen wurden Grafikkarten entwickelt, auf denen aktuell (Juni 2024) rund 140 Milliarden Transistoren verbaut sind.

Jetzt war auch die Konstruktion von Netzen möglich, die wie das menschliche Gehirn strukturiert sind. Die theoretische Grundlage dieser Neuronalen Netzen ist aber nicht mehr die genaue Festlegung von Regeln durch menschliche Programmierer, sondern die Berechnung von Wahrscheinlichkeiten: Wie wahrscheinlich ist es, dass eine gefundene Pflanze einer bestimmten Klasse von Pflanzen zugehört? Wie wahrscheinlich ist es, dass eine verurteilter Dieb nach seiner Freilassung wieder stiehlt?

Garbage in Garbage out

Eine alte Programmiererweisheit sagt: Wenn ich Müll programmiere oder Datenmüll benutze, dann kann nur Müll rauskommen.

Die Wahrscheinlichkeitsberechnungen der Neuronalen Netze beruhen auf gespeicherten Daten, die dem System zur Verfügung gestellt werden. Neuronale Netze arbeiten mit diesen Daten und liefern manchmal schon erstaunliche Ergebnisse. Allerdings immer wieder systembedingt fehlerhaft: alle diese Systeme haben einen Bias (eine Verzerrung), die durch fehlerhafte Daten oder falsch ausgewählte Algorithmen entstehen.

Phantasien

AI ist nicht das, wofür wir sie halten. Auch wenn wir manchmal den Eindruck haben, diese Maschinen würden selbstständig denke: Nein, es denkt nicht!

Es liegt eine große Gefahr darin, diesen Softwaresystemen Eigenschaften zuzuschreiben, die sie nicht haben. Die mythischen Vorstellungen über die unbegrenzte Macht von AI behindern die sachliche Auseinandersetzung mit diesen System mit all ihren Vor- und Nachteilen und lenkt ab von den wahren Machthabern dieser Systeme.