Dirk schrieb:
Vorab: Ich bin ganz bestimmt kein Psychologe und auch ganz bestimmt kein Philosoph. Die folgenden Bemerkungen entbehren jeder wissenschaftlichen Grundlage und stellen nur meine Gedanken dar. Wobei mich schon interessieren würde, ob es zu den Themen wissenschaftliche Veröffentlichungen gibt (die ich vermutlich nicht verstehen würde, weil mir das Fachvokabular fehlt).
Diese Folge des Datenkanals beschäftigt sich mit Desktops unter Linux. Dort habe ich gerade erstmalig den Begriff Baby-Duck-Syndrom gehört. Eine Baby Ente folgt dem ersten Tier, das sie sehen kann und erkennt es als Mutter an.
Genau so stellt es sich mit dem Beurteilen von Oberflächen bei Computern dar. Wenn das erste, was man gesehen hat, Windows ist, wird jedes weitere System daran gemessen bzw. wird dieses System als Mass für alles herangezogen. Wenn Windows sich auf die eine "Art und Weise" verhält, erwartet man das gleiche Verhalten auch bei anderen grafischen Oberflächen. Das hat was.
...
Tatsächlich ist das ein Phänomen, das im HCI-Bereich vielleicht nicht ausgiebig von uns untersucht, aber auf jeden Fall besprochen und anerkannt wird.
Es gibt da z.B. das Erklärungsmodell von Norman (besonders in Design of Everyday Things). Der Designer eines Systems macht/hat ein bestimmtes mentales Modell des Systems, wie es funktioniert, und designt es entsprechend. Der Nutzer macht sich dann ebenfalls ein solches Modell und bedient es entsprechend. Meistens jedoch sind diese mentalen Modelle nicht identisch.
Sowas kann man immer gut beobachten kann, wenn die Erwartung, wie etwas bedient werden müsste, beim Nutzer anders ist als die Software es zulässt, und dann mit technischen Gründen erklärt werden muss, warum dem so ist.
Es gibt dann verschiedene Möglichkeiten, dem Nutzer trotz dieser unterschiedlichen Grundlagen zu helfen. Man kommt dann gerne in den Usability-Bereich und versucht, Anwendungen so simpel wie möglich zu machen. Doch was heißt simpel? Teilweise eben, die Modelle im Kopf der Nutzer möglichst dem Modell des Designers anzugleichen. Das kann durch Hinweise und Anleitungen erfolgen, was unschön ist. Es kann aber auch auf Metaphern beruhen: Wenn etwas so funktioniert, wie es der Nutzer schon kennt, dann kann er es verstehen.
Das ist das schöne beim WIMP-Modell, überhaupt beim ganzen Desktop mit seinen Ordnern, Papierkörben, Fenstern, Ausschaltern usw: Das heutige Modell der PC-Oberfläche ist eine einzige Metapher und eine Sammlung von Metaphern. Wenn man jemandem unbedarften die PC-Bedienung erklären soll, kann man sich vieler Dinge bedienen, die derjenige kennt. Man sitzt dann vll da und redet von Dateien und Ordnern, und Dateien seien wie Papier oder Fotos die man in ... Ordner eben steckt. Und schon hat der neue Nutzer eine vage Ahnung eines bestimmten Modells, wie das alles hier funktionieren könnte.
Eigentlich sollte ich in Vergangenheitsform schreiben, denn teilweise sind die neuen Oberflächen wie Unity, Metro und auf Smartphones sowieso eine Abkehr von dieser Metapher und vielleicht auch deshalb für viele alteingesessene Nutzer so schmerzhaft.
Genau das führt zum Thema Konsistenz. So wie eine Metapher eine Verbindung zu etwas anderem ist, ist Konsistenz das ebenfalls. Bin ich einmal gewohnt, etwas bestimmtes so und nicht anders zu machen - z.B. ein Fenster auf der rechten Seite oben mit einem "X" zu schließen - überrascht mich ein System, das anders funktioniert. Es ist nicht mehr konsistent zu anderen Systemen und auch nicht konsistent mit den Erwartungen und dem Modell des Nutzers. Es überrascht ihn. Und er hasst es (immer), überrascht zu werden.
Das erklärt den Vorteil des ersten Betriebssystems mit der ersten Oberfläche. Es hatte nur mit dem neuen mentalen Modell des Nutzers zu kämpfen, damit, die Metaphern ordentlich zu nutzen oder wie auch immer es sich verständlich machen wollte. Das zweite und jedes weitere System muss dann nicht nur das tun, sondern ebenfalls die Konsistenzhürde zum vorherigen überwinden.
onli blogging am : Was ist Usability?
Vorschau anzeigen