Es gibt sehr viele unterschiedliche Methoden der Usability-Evaluation. Eine der beliebtesten Methoden hierbei ist die Expertenevaluation. Der Grund für die häufige Verwendung dieser Methodik sind vielseitig: Zunächst benötigt die Expertenevaluation keine Forschungsinfrastruktur. Hinzu kommt, dass die Expertenevaluation sehr schnelle Ergebnisse liefert und zudem unabhängig von Probanden ist. Ein weiter Vorteil ist der verhältnismäßig günstige Preis um die Usability-Evalution durchzuführen. Die Durchführung eine Expertenevaluation findet ohne Tools statt, benötigt wenig Vorbereitung und ist in der Durchführung sehr einfach.
Nun, was ist eine Expertenevaluation eigentlich? Die Antwort ist sehr simpel: Eine unabhängige Fachperson versetzt sich so gut es geht in die Lage des Nutzers und bewertet das zu evaluierende System. In der UX-Branche haben sich zwei Methoden der Expertenevaluation durchgesetzt: Die heuristische Evaluation und der Cognitive Walktrough. Diese werde ich jetzt jeweils etwas näher beleuchten.

Der Cognitive Walktrough: Versetze dich in Lage deines Nutzers

Der Cognitive Walkthrough ist ein aufgabenbasierter Ansatz. Der Experte versetzt sich in die Lage des Nutzers um die häufigsten und relevantesten Usecases aus Nutzersicht durchzuspielen. Voraussetzung für diese Methode ist, dass die Zielgruppe bekannt ist und der Experte sich auch in diese hineinversetzen kann. Um dieses Ziel zu erreichen helfen beispielsweise Personas, Empahty Maps und die von Spencer (2000) aufgestellten Fragen:
  1. Wird der Nutzer wissen, was er in diesem Schritt tun muss?
  2. Wenn der Nutzer diesen Schritt richtig gemacht hat, wird er wissen, ob er den richtigen Schritt gemacht hat und auf dem richtigen Weg zur Zielerreichung ist?
Die Analyse der Usability-Probleme basiert durch die Methodik zum einen auf das Wissen des Experten über Usability-Probleme generell, sowie der Fähigkeit sich in den Kunden hineinzuversetzen und dem Wissen um den Kunden selbst. Wenn folgende Fragen mit einem Ja beantwortet werden können, kann ein Coginitive Walktrough gute Ergebnisse liefern.
  • Besitzt der Experte genug Fachwissen über Usability und kann Probleme als solche identifizieren?
  • Ist die Zielgruppe klar und deutlich definiert?
  • Sind Personas, Empathie Maps etc. entwickelt worden?
  • Besitzt der Experte die Fähigkeit sich in die Zielgruppe hineinzuversetzen?
  • Ist der Experte unabhängig?
Grade der letzte Punkt ist sehr wichtig. Ist der Experte befangen, weil er etwaige Änderungen vor seinem Chef rechtfertigen muss, oder weil er Mehrarbeit zu leisten hat? Dann kann es sein, dass der Experte schwerwiegenden Denkfehlern unterliegt, die sich negativ auf die Qualität der Testergebnisse auswirken. Diese Problematik existiert im Übrigen bei so gut wie allen Usability-Testings.

Die Heuristische Evaluation: Der genormte Usability-Test

Im Gegensatz zum gerade beschriebenem Cognitive Walkthrough ist die heuristische Evaluation ein richtlinienbasierter Ansatz und basiert auf Kriterienkatalogen von Richtlinien nach Nielsen und Molich (1994) oder der DIN EN ISO 9241-10 (1996). Die 10 Heuristiken von Nielsen sehen wie folgt aus
  • Sichtbarkeit des Systemstatus:
    Das System soll die Benutzer stets darüber informieren, was geschieht, und zwar durch eine angemessene Rückmeldung in einem vernünftigen zeitlichen Rahmen.
  • Übereinstimmung zwischen dem System und der realen Welt:
    Das System sollte die Sprache des Nutzers sprechen, und zwar nicht mit systemorientierter Terminologie (Error 303xxx23Fea), sondern mit Worten und Sätzen die der Nutzer auch versteht. Dabei soll die logische Reihenfolge eingehalten werden.
  • Benutzerkontrolle und -freiheit:
    Nutzer wählen Funktionen oft fälschlicherweise aus und benötigen einen „Notausgang“, um den nicht-erwünschten Zustand wieder zu verlassen. Dazu dient die „Zurück“-Funktion des Systems oder des Browsers.
  • Konsistenz und Standards:
    Nutzer sollten sich nicht fragen müssen, ob verschiedene Begriffe oder Aktionen überall dasselbe bedeuten. Deshalb sind Konventionen und Standards einzuhalten.
  • Fehlerverhütung:
    Noch besser als gute Fehlermeldungen ist ein sorgfältiges Design, das Fehler vorbeugt.
  • Wiedererkennen, statt sich erinnern:
    Objekte, Optionen und Aktionen sollten sichtbar sein. Die Nutzer sollten sich nicht an Informationen aus einem früheren Teil des Dialogs mit dem System erinnern müssen. Instruktionen sollen sichtbar oder leicht auffindbar sein. Sprich: Das System soll intuitiv nutzbar sein.
  • Flexibilität und Effizienz der Benutzung:
    Häufig auftretende Aktionen sollten vom Benutzer angepasst werden können, um Fortgeschrittenen eine schnellere Bedienung zu erlauben. Abkürzungen sind für ein hohes Maß an Usability sehr sinnvoll.
  • Ästhetik und minimalistisches Design:
    Dialoge sollten keine irrelevanten Informationen enthalten die den Nutzer ablenken und dafür sorgen, dass das Wesentliche untergeht.
  • Hilfe beim Erkennen, Diagnostizieren und Beheben von Fehlern:
    Fehlermeldungen sollten in natürlicher Sprache ausgedrückt werden (keine Fehlercodes), präzise das Problem beschreiben und konstruktiv eine Lösung vorschlagen.
  • Hilfe und Dokumentation:
    Jede Information der Hilfe oder Dokumentation sollte leicht zu finden sein, auf die Aufgabe abgestimmt sein und die konkreten Schritte zur Lösung auflisten. Außerdem sollte sie nicht zu lang sein.
Wie schon Eingehens erwähnt werden beide Methoden als Expertenevaluation bezeichnet. Die Methode kann, wenn man diese richtig einsetzt, viele Probleme aufdecken und einen guten Startpunkt bieten um die größten Schwächen einer Webseite oder einer Anwendung aufdecken. Doch genau hier liegt die größte Schwierigkeit der Expertenevaluation: Der richtige Einsatz.
Die Expertenevaluation wird oft als Ersatz für die eigentlichen Nutzertests gesehen wird, anstatt sie als ergänzendes Instrument zu nutzen. Die Expertenevaluation kann viele Probleme aufdecken, hat aber den Nachteil das zum Teil Probleme nicht gefunden werden, oder Probleme aufdeckt werden, die eigentlich nicht vorhanden sind.

Wie wird die Expertenevaluation korrekt Eingesetz?

Die Expertenevaluation eignet sich hervorragend um Hypothesen zur Usability aufzustellen und um sowohl größere wie auch kleine Probleme aufzudecken. Allerdings ist die Expertenevaluation KEIN(!) Ersatz für Usability-Tests mit echten Nutzern, da die Usability-Experten die Zielgruppe nicht ausreichend repräsentieren können. Mit der Einschränkung im Hinterkopf können wir nun folgende Punkte zur korrekten Methodik betrachten:
  1. Verwende sowohl den Cognitive Walktrough, wie auch die Heuristische Evaluation. Beide Methoden haben ihre individuellen Vor- und Nachteile. Wenn du Beide verwendest kannst du diese ein Stück weit aufheben.
  2. Die Usability-Experten sollten nach Möglichkeit bisher noch nicht mit dem System in Berührung gekommen sein. Auf keinen Fall darf ein Usability-Experte ein System bewerten in dem er selbst involviert war. Selbst wenn der Experte nach besten Wissen und Gewissen arbeitet wird er im Unterbewusstsein über Fehler hinwegsehen.
  3. Nutze mehrere Experten um das System zu evaluieren. Das können auch gerne 3 bis 5 Experten sein. Diese müssen den Test aber unabhängig von den anderen Testern durchführen um ein Gruppendenken inklusive den Nachteilen (Angst vor sozialer Ablehnung/Streben nach sozialer Anerkennung) zu verhindern. Erst in der Anschließenden Besprechung tragen die Experten ihre Ergebnisse zusammen.
  4. Der Experte sollte sich sowohl mit dem Bereich des Systems auskennen, wie auch fundierte Kenntnisse über Usability, User Experience und der HCI (Human Computer Interaktion)(Mensch Maschine Interaktion) verfügen.

Fazit

Die Expertenevaluation ist weit davon entfernt perfekt zu sein. Aber es gibt viele Umstände in deren ihr Einsatz Sinn ergibt. Ohne großen Aufwand ist es möglich große und kleine Fehler sichtbar zu machen und sich einen Überblick über Problemherde zu verschaffen. Im Anschluss können auch weitere Usability-Tests auf Basis dieser Ergebnisse durchgeführt werden um die in der Expertenevaluation gefundenen Ergebnisse, verifizieren oder widerlegen.