Die Benutzerillusion der Welt

In einem Beitrag von 1998 beschreibt Norbert Bolz (Fachgebiet Medienwissenschaften an der TU Berlin) super, was für ein Problem wir mit den derzeitigen Computern haben. Ein Wort wie „Benutzeroberfläche“ hätte einen ja schon stutzig machen müssen, hat es aber nicht. In seinem Artikel „Die Benutzerillusion der Welt – Zur Bedeutung des Designs für Wirtschaft und Gesellschaft im Zeitalter des Computers“ schreibt Bolz von tiefenlosen Oberflächen, die uns wieder lehren den Sinnen zu trauen. Er zitiert den folgenden Satz von Michel Spindler (ehemaliger Apple Chef): „Wir brauchen grafische Interfaces, die nicht nur benutzerfreundlich sind, sondern die süchtig machen, wie Drogen eben.“

Da ich gerade an einer ebensolchen Komponente einer Benutzeroberfläche für meine Dissertation arbeite, hab ich das mit Interesse gelesen. Bolz behauptet meiner Ansicht nach zurecht „Gnädig verbirgt uns die Benutzeroberfläche die logische Tiefe der Geräte.“ und genau das ist heute oft das Problem. Denn die Benutzer „verstehen“ Ihre Software nicht, bzw. die logische Tiefe der Software bleibt Ihnen verschlossen. Das führt zu Problemen bei der Bedienung z.B. bei MSWord. Wer nicht versteht, dass Word oder andere Textverarbeitungen verschiedene Textarten unterscheiden (Überschrift, Textkörper, usw.) der wird z.B. nie die automatischen Funktionen zur Inhaltsverzeichniserstellung nutzen können.

Zu Bolz’s Behauptung „Moderne Kulturen können nur funktionieren, wenn es die Menschen ’so genau‘ gar nicht wissen wollen und sich damit begnügen, die Schlußfolgerungen aus schon Gedachtem zu ziehen.“ würde ich jedoch gerne andere Meinungen hören. Ich glaub nicht, das es ohne ein gewisses Minimum an Verständnis für die Dinge die wir nutzen geht. Warum z.B. fühlen sich manche Menschen im Flugzeug unwohl wenn es wackelt? Oft, weil sie nicht wissen, dass die Tragflächen zum wackeln konstruiert wurden und sich sehr flexibel verhalten müssen, da Sie sonst abbrächen. Wenn aber jemand wegen Flugangst nicht fliegen kann sehe ich das nicht als ein „erfolgreiches Funktionieren der modernen Kultur“.

Der Artikel gibt eine solche Menge an Fragen her, da müßte man glatt einen Diskussionsabend von machen. (via MediaMatic)

Why do I blog this? Ich bin mit ähnlichen Problemen bei dem Design einer Komponente einer Benutzeroberfläche konfrontiert. Wieviel zeigt man dem Benutzer, was muss man verbergen. Soll ich Transparenz über die Mathematik dahinter herstellen? Oder verwirre ich damit normale Geister? Einfache Bedienung bzw. reibungsloses Funktionieren ist offenbar nur zum Preis der Intransparenz zu haben, oder?

2 Gedanken zu „Die Benutzerillusion der Welt“

  1. Wenn man den Benutzern „Irritationen“ ersparen will, spricht man gerne von „Benutzerfreundlichkeit“. Etwas sachlicher klingt das schon in der Norm ISO 9241-11, die von einem „gebrauchstauglichen“ Produkt spricht, wenn es effektiv, effizient und zufriedenstellend nutzbar ist. Ich kenne keine bessere Definition.

    Bolz baut rhetorisch aufwändig ein Bild auf, das suggeriert, Nutzer würden systematisch „betrogen“. Die dem genutzten Gerät zugrunde liegende Technik werde dem Nutzer verschwiegen, um ihn nicht zu irritieren.

    Ich denke, das Problem ist eher, dass es viel zu oft eben nicht gelingt, diese Komplexität angemessen zu verbergern und ein Gerät oder ein Produkt dadurch unbenutzbar wird.

    Gegenbeispiel: Google. Warum ist Google so erfolgreich? Warum nutzt (fast) kein Mensch mehr Altavista? Unter anderem auch deshalb, weil man angefangen hat, die interne Logik einer Suchmaschine nicht auf das Interface anzuwenden und außerdem Suchmöglichkeiten einschränkt.

    Das Beispiel Suchmaschinen zeigt aber, dass es aus medienpädagogischer Sicht eine durchaus wichtige Aufgabe ist, sich mit der grundlegenden Funktionsweise auseinander zu setzen. Für einen sinnvollen Umgang mit dieser Technik ist es nämlich wichtig, zu wissen, wie überhaupt Suchergebnisse zustande kommen und auf welche Weise diese evtl. gefiltert werden.

    …wenn Herr Bolz schon Philosophen zitiert, dann wäre mir Habermas am liebsten gewesen. Aber wer versteht den schon… (nach ISO 9241-11) ;-)

  2. Danke für den Beitrag, Christian. Ich denke es ist tatsächlich ein Problem, das zwei Seiten hat. Solange, wie mit dem „Ding“ was da designed wurde keine Probleme auftauchen (hier jetzt Bedienungs- und Nutzungsprobleme) ist die Welt offenbar völlig in Ordnung. Der Nutzer wird erfolgreich von allen komplexen Strukturen im Innern des „Ding“ abgeschirmt, eine BlackBox eben.

    Es gibt ja viele Beispiele wo diese Abschirmung nicht klappt, kryptische Suchmaschinen, die mit mathematisch logischen Operatoren arbeiten wie z.B. „UND/ODER/EXKLUSIV-ODER/NICHT“ sind ein Paradebeispiel, dafür das die Abschirmung von der Komplexität nicht gelungen ist. Wen interessieren schließlich die logischen Operatoren der Maschine?

    Da wir von immer mehr dieser komplexen Lösungen umgeben sind – bestes Beispiel ist das Handy, das einen kompletten Computer inklusive Radio- bzw. TV-Sende- und Empfangsstation beherbergt – ergibt sich aber genau dann ein Problem, wenn die BlackBox einen Fehler hat und z.B. das Handy nicht mehr sein gut verborgenes Betriebssystem starten kann.

    Um ein „gesundes“ Handybetriebssystem zu behalten ist es also wichtig zu wissen, dass es überhaupt eine Betriebssystemsoftware hat. Erst dann kann ich z.B. sinnvoll darauf achten keine Handyviren z.B. durch eine Bluetooth-Verbindung zu erhalten.

    Was ich damit sagen will ist, dass erst dieses Basiswissen mir ermöglicht die Existenz bzw. Stabilität des „Ding“ in seiner Funktion zu erhalten. Menschen die das Basiswissen nicht haben sind die ersten, die z.B. mit einem frisch gekauften Windows-PC im Internet von Angriffen betroffen sind und dann plötzlich ein nicht mehr funktionierendes Gerät haben und nicht mehr weiter wissen.

    So gesehen führt die vermeintlich perfekte BlackBox dazu, dass wir komplexe Lösungen akzeptieren und jeden Tag einsetzen. Wir verlassen uns darauf und setzen Vertrauen in die Lösung. Sollte sich aber irgendwann herausstellen, dass das „Ding“ doch nicht ganz perfekt war, kann es zu einer fatalen Kettenreaktion durch den Funktionsausfall kommen.

    Wenn alle möglichen „Dinge“ diese Intransparenz und damit auch die intransparenten Risiken in sich tragen (z.B. Drive-by-Wire Technik, gentechnisch veränderte Lebewesen) sind die Ergebnisse der Nutzung unter Umständen unkalkulierbar. Gerade das aber verlange ich von einem guten Werkzeug bzw. einem guten „Ding“.

    Ich vergleiche das mit einem „intelligenten“ Lichtschalter, stellvertretend für die ganzen anderen Dinge die neuerdeings als intelligent angepriesen werden. Dieser Lichtschalter ist in der Lage das Licht einzuschaltete oder auszuchalten wenn man ihn drückt, entscheidet dieses aber aufgrund eines verborgenen intelligenten Modells z.B. basierend auf der Umgebungshelligkeit, der anderen Geräte die im Zimmer an oder aus sind, anwesender Personen, Tiere usw.

    Mit diesem Lichtschalter wäre das Ergebnis der Aktion „was passiert wenn ich Ihn drücke“ im Prinzip unkalkulierbar, weil ich das Modell dahinter nicht kenne. Bei dieser Art Lösungen sehe ich ein echtes Problem. In meiner Dissertation habe ich ein schwach vergleichbares Problem, denn ich habe ein Modell, dass nach bestimmten Regeln einen Wert berechnet. Das Modell kann ich dem Nutzer kaum vermitteln, dennoch wird er sich auf bestimmte Eigenschaften des Modells verlassen können müssen.

    Ich frage mich, ob man die Regeln des Modells irgendwie durch die Benutzeroberfläche transparent machen kann, ohne den Nutzer damit zu überfordern. Das würde den optimalen Einsatz der Komponente ermöglichen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.