10 Feminist Heuristics for Digital Design

Satirisches Bild mit gestapelten "Critical notification"-Pop-ups, die "10 Feminist Heuristics For Digital Design" ankündigen - nervige UI-Patterns fordern besseres Design

Nielsen’s Usability Heuristiken stammen aus einer Zeit, in der Software vor allem Tools waren: Desktop-Anwendungen für einzelne Nutzer*innen, die Aufgaben effizient erledigen wollten. Effizienz war zentral. Kontext spielte kaum eine Rolle. Machtverhältnisse irgendwie auch nicht.

Heute ist das alles etwas anders. Digitale Systeme schaffen und strukturieren soziale Realitäten, Algorithmen, Plattformen und KI beeinflussen, was wir sehen, wem und was wir glauben, wer Zugang zu Chancen bekommt … und wer eben nicht

Der Check auf Usability allein reicht dafür eigentlich nicht mehr. Was wir brauchen, ist ein erweitertes Verständnis von Design: nicht nur funktional, sondern auch gerecht.

Hier ist also mein Vorschlag für 10 feministische Heuristiken für digitales Design – inspiriert von Shaowen Bardzell (Feminist HCI), D’Ignazio & Klein (Data Feminism) , Tech-Feministinnen wie Donna Haraway, der Community Psychologie und auch meiner eigenen Arbeit u.a aus der Lehre zum ökosystemischem Ansatz. Anwendbar auf Interfaces, Plattformen und algorithmische Systeme.

Enjoy! ✊

1. Sichtbarkeit von Machtverhältnissen

Digitale Systeme sind nie neutral. (Donna Haraway lässt grüßen!) Macht also transparent, wessen Interessen ein System dient, wer die eigentlichen Entscheidungen trifft und wer von den Daten profitiert.

Ideen für die Praxis:

  • Rankings und Empfehlungen werden verständlich erklärt . Zum Beispiel: „Wir zeigen dir das, weil du ähnliche Inhalte geliked hast“ vs. „wir zeigen dir das, weil ein Werbekunde dafür viel Geld bezahlt hat.“
  • Kommerzielle Interessen sind klar gekennzeichnet, also Werbung, Sponsoring, bezahlte Platzierungen sind als solche eindeutig erkennbar.
  • Es ist sichtbar, wer am System beteiligt ist (z.B nicht nur die Plattform selbst, sondern auch Werbekunden, Datenbroker, Drittanbieter)

Methoden für Teams:

  • Wichtige Nutzungswege durchgehen und prüfen: Wo sind Machtverhältnisse versteckt? Wo ist unklar, wer profitiert?
  • Im Designprozess fragen: Wem nützt das? Wer könnte dadurch benachteiligt werden?
  • Interfaces systematisch auf manipulative Muster prüfen z.B  auf versteckte Kosten, verschleierte Werbung und Defaults, die nicht im Interesse der Nutzer*innen sind.

2. Pluralismus statt One-Size-Fits-it-All

Es gibt nicht DEN einen Standard-User. Daher gilt: Gestaltet für unterschiedliche Lebensrealitäten, Körper und Perspektiven –  auch wenn diese sich widersprechen.

Ideen für die Praxis:

  • Wichtige Prozesse funktionieren für verschiedene Menschen. Zum Beispiel: Formulare mit mehr als zwei Geschlechtsoptionen, Interfaces die mit Screenreadern UND ohne Maus bedienbar sind. Fun Fact: Im Grunde war Alan Cooper mit seinen Persona-Typen (primary, secondary) schon ein früher Vorläufer von Pluralismus im Design. Seine Idee war, dass wir uns zwar auf eine Hauptpersona als Design-Target für ein Interface fokussieren, aber die Ziele und Bedürfnisse anderer Nutzergruppen (secondary) deswegen nicht ignorieren (aber hier gilt bitte die zeitliche Einordung zu bedenken, wann das geschrieben wurde – nämlich in der Zeit, als Systeme eher rein task driven waren!) Feministische Perspektiven gehen einen Schritt weiter: Sie fragen nicht nur, für wen wir designen, sondern auch, wer durch Design systematisch ausgeschlossen wird und auch warum.
  • Es gibt keine unnötigen Ausschlüsse durch Standardannahmen  etwa dass alle eine Kreditkarte haben, einen festen Wohnsitz, oder ein bestimmtes Namensformat.
  • Seltene Fälle (sog. “Edge Cases“) werden ernst genommen, nicht nur nebenbei “on top” als nice to have toleriert, weil für die betroffenen Menschen sind das keine Edge Cases, sondern einfach Alltag.

Methoden für Teams:

  • User Research mit diversen Menschen: nicht nur „typische Nutzer*innen“, sondern bewusst unterschiedliche Menschen und somit Lebensrealitäten einbeziehen.
  • Barrierefreiheit weiter denken als WCAG – auch kognitive, soziale, sozioökonomische Barrieren berücksichtigen

3. Individuelle Kontrolle und kollektive Verantwortung

Menschen brauchen Handlungsspielraum –  aber ihre Entscheidungen betreffen oft auch andere. Design sollte daher beides berücksichtigen, also Kontrolle für Einzelne UND Schutz für die Gemeinschaft.

Ideen für die Praxis:

  • Menschen können selbst entscheiden, welche Daten sie teilen oder wer was sieht oder wie wird zB das eigene Profil personalisiert wird
  • Risiken für andere werden sichtbar gemacht oder aktiv verhindert . Zum Beispiel: Wenn ich ein Foto teile, auf dem andere Menschen zu sehen sind, werde ich darauf hingewiesen.
  • Es gibt Schutzmechanismen für alle Betroffene, nicht nur für aktive Nutzer*innen  , etwa die Möglichkeit, auch ohne Account Inhalte melden zu können.

Methoden für Teams 

  • Zustimmungsprozesse prüfen: Sind sie verständlich? Können Menschen wirklich differenziert entscheiden?
  • Überlegen, wer indirekt betroffen ist. Beispiel Sharing-Funktionen: wer ist zB auf Fotos zu sehen – oder wenn z.B Fake News geteilt werden: Wer könnte durch Desinformation wie geschädigt werden?
  • Missbrauchsszenarien durchspielen: Wie könnte dieses Feature oder diese Funktion für Doxxing, Belästigung, Mobbing oder Manipulation genutzt werden?

4. Konsistenz – aber bitte kontextsensitiv

Konsistenz ist wichtig – aber der Kontext auch. Ein „Like“ unter einem Trauerpost bedeutet etwas anderes als unter einem Katzenvideo. Systeme sollten solche Unterschiede berücksichtigen und gesellschaftliche, kulturelle, emotionale oder strukturelle Unterschiede sichtbar machen.

Ideen für die Praxis:

  • Verschiedene Reaktionen anbieten (vgl. z. B. Facebook). Menschen sollen selbst entscheiden, wie sie reagieren möchten.
  • Wenn wir das (mal weitergesponnen) z.B dem System überlassen würden- also dass ein System entscheidet, dass hier zB Mitgefühl statt ein Like oder Herzchen angemessen wäre sind wir – et voila, bei paternalistischen Systemen, die glauben zu wissen was ich will bzw was angemessen ist. Systeme sollten also nicht vorschreiben, was „richtig“ ist, sondern die Vielfalt menschlicher Bedeutungen abbilden
  • Wichtige Interaktionen sollen situativ bewertet werden können, nicht einfach nach festen Regeln automatisch entschieden werden

Methoden für Teams:

  • Reale Nutzungssituationen durchgehen und verstehen, wie sich Bedeutung je nach Kontext ändert.
  • Qualitative Forschung: Was bedeutet diese Aktion für Menschen in verschiedenen Situationen? (z. B. „Was drückt ein Like hier eigentlich aus?“)

5. Fehlertoleranz und Wiederherstellbarkeit

Fehler passieren, und zwar Menschen aber auch Systemen. Feministisches Design fragt deshalb nicht nur, wie Fehler verhindert werden, sondern auch, wie gut sich ihre Folgen korrigieren lassen. Denn Folgen zB von algorithmschen Fehlentscheidungen wirken sehr viel stärker, als wenn z.b ein Button nicht funktioniert. Im schlimmsten Fall können hier ganze Leben zerstört werden.

Ideen für die Praxis:

  • Menschen können Aktionen bequem rückgängig machen oder korrigieren.  Zum Beispiel einen Post löschen, eine Bewertung ändern, eine Einstellung zurücksetzen.
  • Systeme „verzeihen“ einzelne Klicks, sie leiten nicht aus einem versehentlichen Like oder einer einzigen Suchanfrage ab, was ich „wirklich will“, und bombardieren mich dann monatelang damit.
  • Es gibt klare Wege, um Entscheidungen von Systemen anzufechten z.B wenn ein Post fälschlicherweise (for no reason) gelöscht wurde oder ein Account gesperrt wurde.
  • Wichtige Entscheidungen werden nicht nur automatisch getroffen, sondern sollen überprüft oder von Menschen neu bewertet werden

Methoden für Teams:

  • Prüfen: Wo können Menschen ihre Aktionen rückgängig machen? Wo fehlt diese Möglichkeit?
  • Identifizieren: An welchen Stellen gibt es kein Zurück mehr Ist das wirklich nötig?
  • Testen: Funktionieren Beschwerde- und Korrekturprozesse? Und auch: Wie verständlich, einfach und leicht zugänglich sind sie?
  • Durchspielen: Was passiert, wenn das System sich irrt? Wer kann die Entscheidung korrigieren und wie lange dauert das?
  • Mitdenken: Wer trägt die Folgen eines Fehlers und wer hat die Möglichkeit, ihn zu beheben?
  • Prüfen: Gibt es Situationen, in denen automatische Entscheidungen zu schwerwiegenden Konsequenzen führen können (z. B. Sperren, Ranking, Ausschlüsse)? Wie lassen sich diese absichern, und – superwichtig: wird sichtbar gemacht, dass algorithmische Entscheidungen nicht neutral oder objektiv sind?

6. Einfachheit ohne Verschleierung

Reduktion ist gut, aber nicht, wenn kritische/wichtige Informationen dabei verschleiert wird. Entscheidungen sollten immer nachvollziehbar bleiben, besonders wenn Daten oder Algorithmen im Spiel sind.

Ideen für die Praxis:

  • Wichtige Entscheidungen sind erklärbar, ohne dass Menschen tief graben müssen.
  • Vereinfachung blendet keine kritischen Informationen aus (etwa warum mir diese Werbung gezeigt wird oder wie eine Empfehlung zustande kam)
  • Menschen können bei Bedarf und einfach ohne viel Mühe mehr Details einsehen..

Methoden für Teams:

  • Informationen in Layern anbieten: Kurze Erklärung ist z.B sofort sichtbar, die Details auf Wunsch verfügbar ( aber ohne viel AUfwand!)
  • Testen, ob Menschen Systementscheidungen nachvollziehen können, nicht nur ob sie das Interface bedienen können (war das für sie klar, wieso Sie dies oder das gesehen haben aber  das andere z.B nicht?) 
  • Erklärungen verständlich und einfach schreiben, also keine Jura-Sprache, keine technischen Formeln.

7. Auswirkungen für Nutzer*innen sichtbar machen

Design sollte nicht nur zeigen, was sofort passiert, sondern auch, welche weiterreichenden Konsequenzen eine Aktion hat.

Ideen für die Praxis:

  • Aktionen zeigen ihre möglichen Folgen. Zum Beispiel: Ich kommentiere etwas aber wie viele Menschen sehen das? Was passiert, wenn ich jemanden melde? Welche Konsequenzen hat ein Post für andere?
  • Was nach einer Aktion passiert, ist klar nachvollziehbar und kein Mysterium.
  • Unsicherheit wird ehrlich kommuniziert, zum Beispiel: „Wir prüfen das, aber es kann 3-5 Tage dauern“ statt einfach gar keine Kommunikation  über die Dauer (Erwartbarkeit & Vertrauen!).

Methoden für Teams:

  • Nicht nur den Moment des Klicks betrachten, sondern auch was danach kommt, also was löst diese Aktion für Fragen aus?
  • Konkret durchspielen: „Was passiert nach Klick X?“ und diese Infos für Nutzer*innen sichtbar machen. 
  • Co -Design bzw Partizipation für realistische Fragestellungen 
  • Texte schreiben, die realistische Erwartungen setzen (z. B. bei Meldefunktionen oder Beschwerden)
  • Organisationale Prozesse anregen die das adressieren

8. Hilfe, die wirklich hilft und auch erreichbar ist

Standardisierte Hilfetexte reichen oft nicht aus. Gerade bei sensiblen Entscheidungen brauchen Menschen nachvollziehbare Erklärungen und erreichbaren Support.

Ideen für die Praxis:

  • Entscheidungen werden konkret begründet –  also nicht nur dass es z.B ein Verstoß gegen die Community-Richtlinien ist, sondern welche genau und warum.
  • Echte Unterstützung ist erreichbar, nicht nur FAQs oder automatisierte Antworten.
  • Besonders vulnerable Situationen sind berücksichtigt  z.B  wenn jemand Belästigung melden will und nicht weiß, was danach passiert.

Methoden für Teams:

  • Support-Prozesse testen: Wie leicht erreiche ich echte Hilfe? Wie verständlich sind die Antworten?
  • Nicht nur erfolgreiche Durchläufe testen, sondern gezielt Problemfälle und Fehlersituationen.
  • Menschen, die tatsächlich betroffen sind, in die Gestaltung einbeziehen (z. B. Personen, die Belästigung erlebt haben, bei der Gestaltung von Meldefunktionen).

9. Aktive statt passive / nachträgliche Schadensvermeidung

Plattformen tragen Verantwortung für vorhersehbare negative Effekte ihrer Systeme.

Design sollte Risiken wie Belästigung, Diskriminierung oder Eskalation aktiv reduzieren.

Ideen für die Praxis:

  • Bekannte Risikomechaniken werden adressiert  z.B  Pile-ons (koordinierte Attacken auf einzelne Personen durch Sharing- oder Quote-Funktionen) oder algorithmische Eskalation (wenn Empfehlungssysteme kontroverse oder extreme Inhalte bevorzugen, weil sie mehr Engagement erzeugen)
  • Es gibt präventive Maßnahmen, nicht nur reaktive Moderation.
  • Risiken werden kontinuierlich gemessen und überprüft.

Methoden für Teams:

  • Risiko-Assessments durchführen.
  • Systematisches Durchspielen von Missbrauchsszenarien, idealerweise partizipativ, um blinde Flecken zu vermeiden und um möglichst viele Perspektiven abzudecken. 
  • Kontinuierliches Monitoring von Schäden: Wie häufig werden bestimmte Features für Belästigung genutzt? Werden manche Gruppen disproportional oft gemeldet oder geblockt? Solche Metriken zeigen, wo Design Schaden verursacht.

10. Verzerrungen erkennen statt Neutralität vortäuschen

Systeme sollten nicht nur funktionieren, sondern gesellschaftliche Ungleichheiten berücksichtigen und diese nicht reproduzieren und so immer weiter manifestieren

Ideen für die Praxis:

  • Daten und Algorithmen werden auf Verzerrungen geprüft – zum Beispiel: Bevorzugt das System bestimmte Gruppen?
  • Ergebnisse werden für unterschiedliche Gruppen getrennt ausgewertet, um Ungleichbehandlung zu erkennen.
  • Die Begriffe „Neutralität“ und „Objektivität“ werden kritisch hinterfragt weil „neutral“ oft nur heißt: für die Mehrheit gemacht.

Methoden für Teams:

  • Daten und Ergebnisse auf Verzerrungen prüfen (Bias Audits).
  • Auswirkungen für verschiedene Gruppen separat betrachten (z. B.: Funktioniert das für alle Geschlechter gleich gut? Für verschiedene Altersgruppen?).
  • Unterschiedliche Perspektiven einbeziehen z.B aus Recht, Ethik, Politik und betroffenen Communities.

Und warum ist das jetzt feministisch?

Warum nenne ich diese Heuristiken „feministisch“ und nicht einfach „inklusiv“ oder „ethisch“? Weil feministisches Design mehr ist als Inklusion.

Inklusion fragt danach wie können wir mehr Menschen einbeziehen können. Das ist superwichtig, aber es hinterfragt eben nicht grundsätzlich, wer das System gestaltet, wessen Werte und Normen es kodiert, und wer von seinen Strukturen profitiert.

Feministisches Design fragt danach, wer hier Macht hat, wessen Perspektiven fehlen,  und welche Strukturen, Hierarchien und Biases wir reproduzieren. Es geht also nicht nur darum, mehr Menschen Zugang zu geben, sondern darum, Machtverhältnisse sichtbar zu machen und diese zu verändern.

Feminismus ist eine analytische perspektive, die nach Macht, Hierarchien und struktureller Ungerechtigkeit fragt,  und zwar nicht nur nach Gender, sondern intersektional: entlang von Geschlecht, Race, Klasse, Alter, Ability, und anderen Aspekten von Privilegierung und Marginalisierung.

Diese Heuristiken sind also feministisch zu sehen, weil sie Machtkritik ins Zentrum stellen. Sie fragen danach für wen das überhaupt gemacht ist/wurde  und auf wessen Kosten. 

Ein System kann gleichzeitig super effizient und sehr gut benutzbar sein aber  dennoch ungerecht.

Feministische Heuristiken sollen den Blick also von der puren  Usability zum kritischen Hinterfragen erweitern. Durch konkrete Checks und Methoden werden sie zu einem Tool, das Teams im Alltag wirklich einsetzen können. Mir ist klar, das das nicht alles reibungslos  1:1 umzusetzen ist, aber  das ist auch nicht der Zweck, sondern diese Nielsen-Style Heuristiken  sind als Anregung und zur Sensibilisierung des Themas zu verstehen. 

Und ganz wichtig: Diese Heuristiken sind für mich work in progress, also nur ein ANfang und nicht komplett zu Ende gedacht, aber zeigen auf, worauf es bei feministischem Design ankommt. Sie sind eher ein Tool um zum Einstieg und kein Ersatz für die tiefgehende Arbeit vor allem an Haltung, Strukturen, Reflexion und Prozess.

Literatur:  

Bardzell, S. (2010). Feminist HCI: Taking stock and outlining an agenda for design. CHI 2010.


D’Ignazio, C. & Klein, L. F. (2020). Data Feminism. MIT Press.

GDPR Cookie Consent mit Real Cookie Banner