So wiesen Chatbots weiblichen Namen eher Worte zu wie „Haus“, „Familie“, „Kinder“ zu, während männliche Namen eher mit „Geschäften“, „Gehalt“ und „Karriere“ verknüpft würden, heißt es in einer heute vorgestellten Studie. Dies gilt der Studie zufolge sowohl für die Softwareversionen GPT 2 und GPT 3.5 von OpenAI, die etwa für die Gratisversion ChatGPT benutzt werden, als auch für die konkurrierende Software Llama 2 des Meta-Konzerns. Texte, die Frauen oder Angehörige kultureller Minderheiten beträfen, basierten häufig auf Stereotypen.
Produktion unterschiedlicher Geschichten
Die Wissenschafter beauftragten die Chatbots etwa, Geschichten über Menschen verschiedener Herkunft und verschiedenen Geschlechts zu produzieren. Britische Männer wurden demnach häufig als Lehrer, Fahrer oder Bankangestellter dargestellt. Britische Frauen hingegen wurden in 30 Prozent der Texte als Prostituierte, Model oder Kellnerin vorgestellt.
„Erhebliches vergrößern“ von Ungleichheiten
Da solche Chatbots mehr und mehr Verbreitung finden, „haben sie die Macht, die Wahrnehmung von Millionen von Menschen zu beeinflussen“, sagte die Unesco-Direktorin Audrey Azoulay. „Das geringste sexistische Vorurteil in ihren Inhalten kann die Ungleichheiten in der Welt erheblich vergrößern“, fügte sie hinzu.
Chatbots können in Sekundenschnelle Fragen beantworten und hochkomplexe Texte generieren. Insbesondere ChatGPT macht seit Ende 2022 die Möglichkeiten sogenannter generativer KI schlagartig einem großen Publikum bewusst. Zugleich wuchsen aber Befürchtungen hinsichtlich möglicher Gefahren der Technologie.