Dass die Anträge von Frauen eine höhere Ablehnungsquote haben, kann ich mir aber beim besten Willen nicht ohne einen gewissen Bias erklären. 23 vs. 19% ist übrigens durchaus statistisch signifikant. Der Zählfehler bei n = 15545 ist bloss +-125, also ca. 0.8%.
Den Gender-Bias gibts bereits in der Schule: Identische Tests, auf denen Frauen- bzw. Mädchennamen stehen, bekommen im Schnitt schlechtere Noten. Das bestätigt sich offenbar auch hier. Aus dem Artikel: "In einem weiteren Schritt wurden schließlich sämtliche persönlichen Informationen aus den Anträgen entfernt und die Antragsstellerinnen und Antragssteller zusätzlich gebeten, in den Anträgen jeden Hinweis zu vermeiden, der Rückschlüsse auf die Person zulassen würde, die den Antrag eingereicht hat. Bei einer Antragsrunde, bei der dieses Verfahren angewandt wurde, waren die Antragsstellerinnen plötzlich sogar etwas erfolgreicher als die Antragssteller. Es gab zudem keine geschlechterspezifischen Unterschiede bei der Bewertung der Anträge durch das Gutachtergremium.".
Das ist ein bemerkenswertes Ergebnis, das man vielleicht mal ein wenig setzen lassen sollte: wenn man
alle persönlichen Informationen aus den Anträgen entfernt, schneiden Männer und Frauen in
gleich gut ab bzw. Frauen etwas besser (wobei sich hier wegen der fehlenden Zahlen nicht sagen lässt, ob der Vorsprung der Frauen signifikant ist oder nicht: ich halte es zumindest für denkbar, denn vermutlich würden bei stärkerer vorgängiger Selektion über die Kinderfrage im Schnitt die "besseren" Frauen zurückbleiben, die gegen einen weniger stark selektionierten Pool von Männern antreten. Das müsste aber natürlich getestet werden). Entfernt man die Informationen nicht, schneiden Männer statistisch signifikant besser ab. Wie man es also dreht und wendet - Gender-Bias existiert.
Lesezeichen