Wird Technik immer komplizierter?

Grundfrage:

Vor einiger Zeit hatte mich eine ältere Dame in der U-Bahn angesprochen. Sie hatte gesehen, dass ich eine Computerzeitschrift lese und fragte mich: "Junger Mann, sagen Sie mal: wird die Technik nicht immer komplizierter?"


Kurzfassung für eilige Leser:

Die Tatsache, dass heutzutage selbst Dreijährige schon einen Tablet-Computer benutzen können, ist schon erstaunlich. Technik wird also offensichtlich - trotz steigernder Leistung und zunehmender Funktionalität - immer einfacher zu benutzen. Der Aufwand, um dieses Ziel erreichen zu können, steigt dabei aber kontinuierlich und erfordert immer komplexere Technik.
Angesichts des Tempos des technischen Fortschritts sowie der immens zunehmenden Vielfalt von Geräten und Funktionen ist es aber schwierig, den Überblick zu behalten.


Langfassung für wirklich Interessierte:

Experten und Laien:

Dass (Computer-)Technik kompliziert ist weiß heute jeder. Fängt man heute damit an eine Computerzeitschrift oder ein Fachbuch zu lesen, so wird man schnell feststellen, dass eine große Menge an Wissen vorausgesetzt wird. Ein "Technikversteher" bleibt also weiterhin jemand, der Zeit und Energie in den Aufbau dieses Wissens steckt und neben dem alltäglichen Gebrauch auch hinter die Kulissen blickt.

Interessanterweise geht aber der Anteil derer, die dieses Spezialwissen benötigen, stetig zurück. Brauchte man zu Beginn des Computerzeitalters sehr viele Experten - private Anwender gab es da noch gar nicht - so ist heute die breite Masse schlicht "Anwender", lediglich bei (immer seltener werdenden) Problemen braucht man noch den Fachmann.

Komplexere Vorgänge wie Video- und Grafikbearbeitung, Erstellung von Webseiten oder echte Programmierung - lange Zeit absolute Domäne von Fachleuten - sind heute sehr viel einfacher geworden. Mit den richtigen Werkzeugen kann jeder alles tun. Programmieren ist in einigen Ländern sogar schon Schulfach.

Selbst bei der Entwicklung neuer Technik ist der Anteil der "Techniker" gesunken. Zum einen liegt das daran, dass die Entwicklung eines neuen Mikrochips so komplex geworden ist, dass das nur noch von Computern erledigt werden kann. Der Mensch gibt hier in den meisten Fällen nur noch Vorgaben zu gewünschten Funktionen, die Software erledigt den Rest.

Einfachheit durch Komplexität:

Zum anderen werden Geräte heutzutage nicht mehr nur über Funktionen verkauft, sondern zunehmend über das Design - wobei damit v.a. die Bedienung gemeint ist, nicht das Aussehen. Das iPhone war nicht deshalb ein großer Erfolg, weil es tolle Funktionen hatte (das natürlich auch), sondern weil die Verwendung dieser Fülle an technischen Möglichkeiten - im wahrsten Sinn des Wortes - kinderleicht war.

Auch Google hat mit seiner Suchmaschine damals den Markt in Windeseile erobert, einfach indem es lediglich eine simple Seite mit Eingabefeld gab, während die Konkurrenz riesige (und damit langsame) Seiten voller Links aufgebaut hatten. Die Suche selbst war damals nicht viel besser, sie war nur einfacher und schneller als mit den Produkten der Konkurrenz.

Genau dieser Trend ist heute überall sichtbar. Der Anwender soll schnell und einfach alles machen können, was er möchte. Die Technik muss daher flexibel genug sein, die Komplexität der Sache zu verstecken. Ein Handy mit Sprachsteuerung ist sehr einfach zu bedienen, die notwendige Technik im Hintergrund ist aber extrem komplex, brauchte jahrelange Entwicklung und ist selbst für Fachleute nicht mehr vollständig erfassbar.

Von 0 und 1 zu Multimedia:

Was immer wieder erstaunt ist die Tatsache, dass trotz aller Komplexität im Computer immer nur Nullen und Einsen verarbeitet werden. Der oft gebrauchte Begriff "Rechner" für einen Computer beschreibt exakt, was die Chips intern milliardenfach pro Sekunde tun: rechnen. Doch wie kommt man von dieser Ebene zu den vielfältigen Möglichkeiten, die man als Anwender verwenden kann?

Der Schlüssel liegt in Abstraktionen und Konventionen, ein universales Vorgehen, das in so ziemlich jedem Bereich der Welt zum Einsatz kommt. Das Vorgehen ist immer gleich: man nimmt sich etwas, das eine Einheit bildet. Das kann ein Arbeitsvorgang, ein Gesetz, ein Bauelement, etc sein.

Abstraktion:
Als Abstraktionsbeispiel nehmen wir Legosteine. Damit bauen wir ein Haus und verwenden es - statt der einzelnen Steine - als kleinsten Baustein. Wo der Bau eines Dorfes zunächst wie ein großes Projekt wirkte, indem tausende Steine geplant werden müssen, so geht es jetzt nur noch darum, mehrere Häuser aneinander zu stellen. Man hat abstrahiert und zwischen Stein und Dorf noch eine weitere - einfacher zu handhabende - Ebene "Haus" gezogen. Genauso geht es nun weiter: mehrere Dörfer ergeben eine kleine Stadt, mehrere kleine Städte ergeben eine Großstadt, usw.
Die Abstraktion hilft also, Details zunehmend zu ignorieren und mit immer noch höheren Ebenen zu planen, was es wesentlich einfacher macht und besser zu überblicken.

Auch in der IT wird das laufend gemacht. Dinge, die man früher immer wieder neu "von Hand" programmieren musste (also auf einem sehr detaillierten Niveau), werden immer weiter durch fertige Code-Bibliotheken ersetzt. Durch die Zeitersparnis kann der Programmierer sich dann stärker mit anderen Dingen zu beschäftigen, die irgendwann selbst wieder abstrahiert werden.

Genau das gleiche Vorgehen sieht man überall. Gesetze bauen um Beispiel alle - über mehrere Stufen - auf dem Grundgesetz auf. Fertiggerichte bestehen aus individuellen Zutaten, aber bei der Zubereitung muss sich niemand mehr damit beschäftigen. Auch in der Mathematik führte das Summieren zum Multiplizieren, dann zum Potenzieren und immer weiter. Dass eigentlich alles auf ein paar Grundregeln aufbaut, ist auf hohem Niveau nicht mehr relevant.


Konvention:
Für Abstraktionen benötigt man in vielen Fällen auch Konventionen. Für das Legohaus wäre eine Konvention, dass jedes "Haus" mindestens aus 500 Steinen besteht. Konventionen legen also Standards fest, damit jeder, der damit arbeitet, das Gleiche versteht und Zusammenarbeit erst möglich wird.

Für die Abstraktion von Null und Eins zu Buchstaben wurde so ein Standard, also eine Konvention gebraucht. Hätte sich das jeder Computerhersteller selbst ausgedacht, so wären Texte, die man mit Maschinen von Hersteller A geschrieben hat, nicht auf Geräten des Herstellers B lesbar gewesen.

Die gemeinsame Konvention beschreibt also, welche Kombination von 0 und 1 für den Buchstaben "A" steht (01000001). Ist das festgelegt, kann man einfach mit dem bequemeren "A" weiterarbeiten (Abstraktion). Damit der Prozessor aber damit arbeiten kann braucht es am Ende einen Vorgang, der aus "A" wieder Nullen und Einsen macht, die Abstraktion also rückgängig macht.

Dieses Rückgängigmachen ist von essentieller Bedeutung. Je weiter abstrahiert wird, desto weiter entfernt man sich von dem, was der Computer technisch verarbeiten kann. Es entstehen immer "mächtigere" Funktionen, die aber - damit sie ausgeführt werden können - immer auf Null und Eins zurückgeführt werden müssen. 
Mit der Zeit ergibt sich meist sogar eine Kette von Umwandlern, die jeweils etwas "höheres" (höhere Abstraktionsstufe) immer weiter de-abstrahieren. Diese Umwandler heißen im Fachjargon "Compiler".
Analog zu dem Lego-Beispiel: nachdem ich eine riesige Welt mit mehreren Großstädten geplant habe, muss ich trotzdem irgendwann wissen, wie viele einzelne Steine ich kaufen muss und wo jeder Einzelne hinkommt.

Mit den Prinzipien von Abstraktion und Compilern entwickeln sich Programmiersprachen stetig weiter und ermöglichten es damit, immer komplexere Software wie die eines Smartphones oder moderner Autoelektronik entwickeln zu können.


Fazit

Unter der hübschen Oberfläche unserer Computer, Smartphones und Fernsehern liegen viele Schichten Abstraktionen und Konventionen, bis man am "Boden" der Nullen und Einsen ankommt. Dasselbe gilt auch für andere Dinge wie Autos und Häuser, aber auch für Abstraktes wie Mathematik und Gesetzgebung. Überall abstrahiert man Details immer weiter, um mit den mächtigeren - und damit einfacher zu erfassenden -  Bausteinen weiter zu arbeiten. Auch die vollständige Verlagerung (Outsourcing) von Details an Dritte ist eine Option. Die Komplexität des Kochens kann man heute komplett auf jeden Bestelldienst verlagern...

Bei diesem Prozess kennen sich allerdings immer weniger Leute mit der Basis aus. Vor allem Neueinsteiger fangen in der Regel auf der obersten Abstraktionsebene an und arbeiten sich dann - wenn überhaupt notwendig - nach "unten" vor. Mit diesem Ansatz kommt man schnell voran, da man auf der Arbeit aller Vorgänger aufbauen kann.
Die abnehmende Anzahl von Experten (auf den unteren Ebenen) kann problematisch werden: Ein dort auftretender Fehler oder gar ein Ausfall von Kernfunktionen (auf denen vielfach aufgebaut wurde) können gewaltige Auswirkungen haben, die Fehlerbehebung - manchmal sogar auch die Suche - läuft mangels Know-How Trägern oftmals sehr langsam und mit hohem Resourceneinsatz.

Technik wird in zunehmendem Maße komplexer, vielfältiger und vielschichtiger. Die Ansprüche an die Experten steigen, während der Masse der Anwender immer neue Möglichkeiten zur Verfügung gestellt werden. Dieser Trend - und die ihr zugrunde liegenden Prozesse - wird sich nicht nur bei etablierten Technologien weiter fortsetzen, sondern auch bei neuen Dingen, die wir uns heute noch gar nicht vorstellen können, immer wieder wiederholen.

Keine Kommentare:

Kommentar veröffentlichen