Impliziter Bias

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Ein impliziter Bias ist ein unbeabsichtigtes Stereotyp oder Vorurteil gegenüber Personen einer sozialen Gruppe. Die Forschungsliteratur zum Thema implizite Bias geht davon aus, dass Menschen unbeabsichtigt diskriminierendes bzw. exkludierendes Verhalten zeigen können, selbst wenn dies ihren Zielen und Wertevorstellungen zuwiderläuft. Dafür verantwortlich gemacht werden automatisch oder unbewusst ablaufende Vorgänge, die in implizite Bias resultieren. Dementsprechend wird die Forschung zu dem Thema als relevant für die Überwindung von Diskriminierung angesehen. Als Gegenmaßnahme werden zum Beispiel Schulungen vorgeschlagen, bei denen die Teilnehmer über ihre impliziten Bias aufgeklärt werden können.[1][2] Implizite Bias werden typischerweise über standardisierte Tests wie den Implizite Assoziationstest gemessen.[3] Die behauptete Korrelation zwischen gemessenen impliziten Bias und den Auswirkungen auf reales Verhalten wird jedoch kontrovers diskutiert.[4]

Man spricht auch von impliziten Stereotypen oder impliziten Vorurteilen. In der Regel unterscheidet man Vorurteile von Stereotypen dahingehend, dass sich Vorurteile eher auf emotionale Bewertungen beziehen, während Stereotype beschreibende Attribute darstellen. Ob diese Unterscheidung auch im Kontext impliziter Bias eine Rolle spielt ist strittig.[2]

Implizite Bias werden von manchen Modellen als automatische kognitive Assoziationen aufgefasst,[5][6] gebräuchlich sind daher auch Bezeichnungen wie „automatischen Aktivierung von Stereotypen“,[7][8] automatische Stereotypisierung[9] oder automatische Stereotype.[10] Andere Modelle fassen implizite Bias als unbewusste Überzeugungen auf,[1] weshalb auch Bezeichnungen wie unbewusster Bias, unbewusste Stereotype oder unbewusste Vorurteile anzutreffen sind. Inwieweit sich ein implizit gemessener Bias allerdings tatsächlich der bewussten Wahrnehmung entzieht ist nicht abschließend geklärt.[11]

Messung[Bearbeiten | Quelltext bearbeiten]

Bei der Messung impliziter Stereotypen ist es nicht sinnvoll sich auf erfragte Parameter zu verlassen. Dies liegt einerseits daran, dass Einstellungen mitunter nicht bewusst sind,[12][13][14] also in einer Befragung keine Auskunft darüber gegeben werden kann, andererseits will man manche Einstellungen, weil sie sozial nicht erwünscht sind, nicht äußern (z. B. rassistische Einstellungen)[15]. Selbstauskünfte sind demnach fehlerhaft und es empfiehlt sich eine Methode zu nutzen, die die Reaktivität bei der Erfassung solcher Einstellungen, vermindert.

Der verbreitetste Test zur Messung impliziter Bias ist der Implizite Assoziationstest (IAT). Dabei werden Reaktionsgeschwindigkeiten gemessen, wenn den Studienteilnehmern Assoziationen zwischen gesellschaftlichen Gruppen und Bewertungen wie positiv und negativ vorgegeben werden. Wenn die Reaktionszeit bei bestimmten Assoziationen geringer ist als bei gegenteiligen Assoziationen, wird ein impliziter Bias angenommen.[3] Inwieweit der IAT ein verlässliches Messinstrument darstellt ist Gegenstand wissenschaftlicher Debatten.[4]

Forschungsgeschichte[Bearbeiten | Quelltext bearbeiten]

Stereotypisierung von Personen[Bearbeiten | Quelltext bearbeiten]

1978 führten Taylor, Fiske, Etcoff und Ruderman[16] eine Untersuchung durch. Aufgabe der Studienteilnehmer war es, einer Gruppendiskussion, in der es um die Planung einer Werbekampagne ging, zu folgen. Diese Unterhaltung wurde ihnen von einem Tonband präsentiert. Während der Aussage einer Person wurde dazu immer das Foto der sprechenden Person von einem Projektor dargeboten. Die Gruppendiskussion wurde von 3 weißen und 3 schwarzen Amerikanern geführt. Nach dem Anhören sollten die Versuchspersonen den verschiedenen Vorschlägen die Bilder der Männer zuordnen. Die Forscher werteten die Antworten aus und legten besonders Wert auf die gemachten Fehler. Diese teilten sie in zwei Arten ein:

  • Verwechslungen innerhalb der Kategorie (d. h., eine Aussage eines weißen Amerikaners wurde einem anderen ebenfalls weißen zugeordnet; die Aussage eines schwarzen wurde einem anderen schwarzen Diskussionsteilnehmer zugeordnet) und
  • Verwechslungen zwischen den Kategorien (d. h., der Vorschlag eines weißen Mannes wurde fälschlicherweise einem schwarzen Amerikaner zugeordnet und umgekehrt).

Das Ergebnis war, dass viel häufiger Fehler der ersten Art gemacht wurden. Das bedeutet, es ist viel wahrscheinlicher, die Aussage von Männern mit der gleichen Hautfarbe zu verwechseln. Als Erklärung führen die Untersucher an, dass diese Fehler häufiger zustande kämen, weil die Versuchspersonen die Diskussionsteilnehmer nach ihrer Hautfarbe „kategorisiert“ hätten. Dies sei ein automatischer Prozess, da sie selbst kein besonderes Augenmerk darauf gerichtet bzw. die Anweisung dazu erhalten hätten. Die Autoren dieser Studie stellen die Kategorisierung keinesfalls als rassistisch dar, vielmehr ist die automatische Einordnung nach bestimmten Merkmalen (wie z. B. Hautfarbe, Alter, Geschlecht etc.) ein natürlicher und überlebensnotwendiger Prozess.

Messung über Reaktionszeiten (Affektives Priming)[Bearbeiten | Quelltext bearbeiten]

Fazio und Kollegen[17] entwickelten eine indirekte Art und Weise die automatische Verarbeitung von Stereotypen über Priming zu messen. Dazu wurden den Versuchspersonen Wörter auf einem Computerbildschirm präsentiert, die sie per Knopfdruck auf der Tastatur als positiv oder negativ bewerten sollten. Kurz vor der Wortpräsentation leuchtete außerdem ein Farbfoto eines menschlichen Gesichts auf. Einige der Fotos waren von Weißen, einige von Afroamerikanern. Sinn der Studie war es nun, zu überprüfen, ob die Präsentation der Gesichter einen Einfluss auf die Schnelligkeit der Reaktion bei der Bewertung der Wörter hat.

Wenn ein Foto eines Afroamerikaners beim Studienteilnehmer Vorurteile auslöst und diese Vorurteile automatisch sind, würden so automatisch negative Gefühle ausgelöst werden. Diese Reaktion sollte es einfacher machen, schneller auf ein anschließend negatives Wort wie „ekelhaft“, mit einem Tastendruck auf die „Negativtaste“ zu reagieren. Außerdem sollte eine negative Reaktion auf das Foto es schwieriger machen auf ein anschließend positives Wort mit der „Positivtaste“ zu reagieren. Jedoch zeigten nicht alle Studienteilnehmer diese negative Reaktion auf Afroamerikaner. Die Ausprägung des automatischen Vorurteils konnte das Verhalten der Studienteilnehmer vorhersagen. Diejenigen Studienteilnehmer, die die höchste Geschwindigkeitsdifferenz in der Wortbeurteilungsaaufgabe hatten, zeigten sich gegenüber einer afroamerikanischen Versuchsleiterin eher unfreundlich.

Zwei-Stufen-Modell der kognitiven Verarbeitung von Stereotypen[Bearbeiten | Quelltext bearbeiten]

Devine und Kollegen[18][19] postulieren ein Zwei-Stufen-Modell bei der kognitiven Verarbeitung von Stereotypen. Ihrer Meinung nach teilen Kulturen Stereotype. Die automatische Verbindung zu einem Einstellungsobjekt aktiviert stereotype Informationen, die dann von der bewussten und kontrollierten Verarbeitung zurückgewiesen oder nicht beachtet werden können. Sind Personen jedoch sehr beschäftigt oder abgelenkt, kann die kontrollierte Ebene der Verarbeitung nicht in Gang gesetzt werden. Das Stereotyp, das automatisch aktiviert wurde, wird nicht zurückgewiesen. Dem gegenüber stehen Annahmen von Fazio und Kollegen, die davon ausgehen, dass es eine automatische Komponente von Stereotypen gibt, die individuell verschieden sein kann und auf der Bewertung eines jeden Individuums beruht (also nicht kulturell geteilt ist). Automatisch aktiviert wird ihrer Meinung nach also die individuelle Bewertung eines Einstellungsobjektes.

Untersuchung von Devine[Bearbeiten | Quelltext bearbeiten]

Patricia G. Devine[20] führte mit einer großen Anzahl an Studenten zunächst einen Vorurteilstest durch und bildete so zwei Gruppen: Studenten mit starken Vorurteilen und Studenten mit wenig Vorurteilen. Danach folgte ein Test zur automatischen und bewussten Verarbeitung. Sie zeigten den Studenten auf einer Leinwand kurz (unter der bewussten Wahrnehmungsschwelle) stereotype Begriffe (z. B. schwarz, faul, feindselig) und neutrale Begriffe (z. B. was, jedoch, sagte). Nach der Präsentation der Wörter sollten die Teilnehmer eine Geschichte über „Donald“ (eine fiktive Person, deren ethnische Herkunft nicht erwähnt wurde) lesen, in der dieser als zweideutig beschrieben wurde und eine Einschätzung zu ihm abgeben.

Die Teilnehmer, die zuvor die Wörter gesehen hatten, die Stereotype über schwarze Amerikaner widerspiegeln, interpretierten Donald negativer, als diejenigen, die neutrale Wörter gesehen hatten. Ohne dass es ihnen bewusst wurde, wurde die eine Gruppe von Teilnehmern, von den negativen Wörtern beeinflusst. Da es sich hierbei um einen kulturellen Stereotyp handelt (er wird von allen Mitgliedern einer Kultur geteilt) und dieser unbewusst, ohne kognitive Kontrolle aktiviert wurde, waren weiße Studenten mit Vorurteilen gleichermaßen betroffen, wie diejenigen ohne Vorurteile.

Auswirkungen auf das Verhalten[Bearbeiten | Quelltext bearbeiten]

Implizite Bias wurden zum Beispiel als eine mögliche Erklärung für erhöhte Polizeigewalt gegenüber Schwarzen Mitbürgern sowie für die Unterrepräsentation von Frauen oder People of Color in Teilen der Arbeitswelt herangezogen.[1]

Ein weiteres Beispiel für mögliche Auswirkungen auf reales Verhalten liefert eine Studie, die behauptete, dass Geschlechterstereotype sich auch auf die Beurteilung der von einem Hurrikan ausgehenden Gefährdung auswirken. Hurrikane mit weiblichen Vornamen hätten in der Vergangenheit signifikant mehr Todesopfer gefordert. Die Autoren der Studie erklärten diese Beobachtung damit, dass Menschen Hurrikane mit weiblichem Vornamen offenbar als weniger risikoreich einschätzten und infolgedessen weniger Schutzmaßnahmen träfen. Der Effekt trat selbst dann auf, wenn die Studienteilnehmer Geschlechterstereotype explizit zurückwiesen.[21]

Die Relevanz von impliziten Bias für gesellschaftliches Verhalten wird kontrovers diskutiert. Kritiker ziehen die behauptete Korrelation zwischen gemessenen impliziten Assoziationen und dem diskriminierenden Verhalten unter realen Bedingungen in Zweifel. Entsprechende Metaanalysen zeigten dazu immer wieder nur geringe Korrelationen. Dem wird jedoch entgegengehalten, dass auch geringe Korrelationen einen signifikanten gesellschaftlichen Effekt haben können, wenn diskriminierende Situationen akkumuliert bzw. wiederholt auftreten.[4]

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Erin Beeghly, Alex Madva: An introduction to implicit bias: knowledge, justice, and the social mind. Routledge, New York, NY 2020, ISBN 978-1-138-09222-8.
  • Michael Brownstein: Implicit Bias. In: Stanford Encyclopedia of Philosophy. 2019 (stanford.edu [abgerufen am 5. August 2023]).

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b c Erin Beeghly, Alex Madva: An introduction to implicit bias: knowledge, justice, and the social mind. Routledge, New York, NY 2020, ISBN 978-1-138-09222-8, S. 1–5.
  2. a b Alex Madva, Michael Brownstein: Stereotypes, Prejudice, and the Taxonomy of the Implicit Social Mind 1: Stereotypes, Prejudice, and the Taxonomy of the Implicit Social Mind. In: Noûs. Band 52, Nr. 3, September 2018, S. 611–644, doi:10.1111/nous.12182 (wiley.com [abgerufen am 23. Juli 2023]).
  3. a b Erin Beeghly, Alex Madva: An introduction to implicit bias: knowledge, justice, and the social mind. Routledge, New York, NY 2020, ISBN 978-1-138-09222-8, S. 25.
  4. a b c Michael Brownstein, Alex Madva, Bertram Gawronski: Understanding Implicit Bias: Putting the Criticism into Perspective. In: Pacific Philosophical Quarterly. Band 101, Nr. 2, Juni 2020, ISSN 0279-0750, S. 276–307, doi:10.1111/papq.12302.
  5. Chloë FitzGerald, Angela Martin, Delphine Berner, Samia Hurst: Interventions designed to reduce implicit prejudices and implicit stereotypes in real world contexts: a systematic review. In: BMC Psychology. Band 7, Nr. 1, Dezember 2019, ISSN 2050-7283, doi:10.1186/s40359-019-0299-7, PMID 31097028, PMC 6524213 (freier Volltext).
  6. Ashwini Deshpande: Handbook on Economics of Discrimination and Affirmative Action. Springer Nature, 2023, ISBN 978-981-19-4166-5, S. 28 (google.de [abgerufen am 23. Juli 2023]).
  7. Marianne Schmid Mast und Franciska Krings: Stereotype und Informationsverarbeitung. In: Lars-Eric Petersen und Bernd Six (Hrsg.): Stereotype, Vorurteile und soziale Diskriminierung: Theorien, Befunde und Interventionen. 2., überarbeitete und erweiterte Auflage. Beltz, Weinheim Basel 2020, ISBN 978-3-621-28422-6.
  8. Geoffrey Beattie: Our Racist Heart?: An Exploration of Unconscious Prejudice in Everyday Life. Routledge, 2013, ISBN 978-1-136-23286-2, S. 94 (google.com [abgerufen am 23. Juli 2023]).
  9. Tal Moran, Jamie Cummins, Jan De Houwer: Examining Automatic Stereotyping From a Propositional Perspective: Is Automatic Stereotyping Sensitive to Relational and Validity Information? In: Personality and Social Psychology Bulletin. Band 48, Nr. 7, Juli 2022, ISSN 0146-1672, S. 1024–1038, doi:10.1177/01461672211024121.
  10. Joel T. Nadler, Elora C. Voyles: Stereotypes: The Incidence and Impacts of Bias. ABC-CLIO, 2020, ISBN 978-1-4408-6867-2, S. 11 (google.com [abgerufen am 23. Juli 2023]).
  11. Michael Brownstein, Alex Madva, Bertram Gawronski: What do implicit measures measure? In: WIREs Cognitive Science. Band 10, Nr. 5, September 2019, ISSN 1939-5078, doi:10.1002/wcs.1501.
  12. Banaji, M. R., & Greenwald, A. G. (1994). Implicit stereotyping ams prejudice. In M. Zanna & J. Olson (Hrsg.), The psychology of prejudice: The Ontario symposium (Vol. 7, S. 55–76). Hillsdale, NJ: Erlbaum.
  13. Banaji, M. R., & Greenwald, A. G. (1995). Implicit gender stereotyping in judgements of fame. Journal of Personality and Social Psychology, 68, 181–198.
  14. Nisbett, R. E., & Wilson, T. D. (1977). Telling more than we know: Verbal reports on mental processes, Psychological Review, 84, 231–259.
  15. Crosby, F., Bromley, S., & Saxe, L. (1980). Recent unobtrusive studies of Black and White discrimination ans prejudice: A literature review. Psychological Bulletin, 87, 546–563.
  16. Taylor S. E., Fiske S. T., Etcoff, N. L., & Ruderman, A. J. (1978). Categorical and Contextual Bases of Person Memory und Stereotyping. Journal of Personality and Social Psychology, 7, 778–793.
  17. Fazio, R. H.: How du attitudes guide behavior? In R. M. Sorentino & E. T. Higgins (Hrsg.): The handbook of motivation and cognition. Guilford Press, New York 1986, S. 204–243.
  18. Devine, P. G. (1989a). Stereotypes and prejudice: Their automatic and controlled components. Journal of Personality and Social Psychology, 56, 5–18.
  19. Devine P. G., Monteith, M. J., Zuwerink, J. R., & Elliot, A. J. (1991). Prejudice with and without compunction. Journal of Personality and Social Psychology, 60, 817–830.
  20. Devine, Patricia G. (1989b). Automatic and controlled processes in prejudice: The roles of stereotypes and personal beliefs. In A. R. Pratkanis, S. J. Breckler, & A. G. Greenwald (Hrsg.), Attitude structure and function (S. 181–212). Hillsdale, NJ: Erlbaum.
  21. Kiju Jung, Sharon Shavitt, Madhu Viswanathan, Joseph M. Hilbe: Female hurricanes are deadlier than male hurricanes. PNAS (online), 2. Juni 2014 doi:10.1073/pnas.1402786111