Themen des Artikels
Um Themen abonnieren und Artikel speichern zu können, benötigen Sie ein Staatsanzeiger-Abonnement.Meine Account-Präferenzen
Welche Moral- und Wertvorstellungen KI-Sprachmodelle haben
Mannheim. Beim Thema Chat GPT und Large Language Models (LLM) im Allgemeinen steht meist die Qualität der Ergebnisse und ihrer Quellen im Fokus. Forscher der Universität Mannheim und des Gesis, des Leibniz-Instituts für Sozialwissenschaften, haben nun auf Künstlicher Intelligenz basierende Sprachmodelle auf ihre Moral- und Wertevorstellungen hin untersucht. Wie kann man die Eigenschaften der Sprachmodelle sichtbar machen? Und welche Folgen für die Gesellschaft haben die eventuelle Voreingenommenheit und Stereotype dieser Tools, deren Einsatz rasant ansteigt?
Stereotype Vorstellungen der Berufe von Männern und Frauen
Ein Beispiel für Stereotypen: Oft nehmen Sprachmodelle implizit an, dass medizinische Abteilungsleitungen männlich und Pflegekräfte weiblich sind. Ähnliches gilt für andere Merkmale, wie die Forscher laut Uni-Mitteilung demonstrieren konnten. Dabei haben sie mit gängigen psychologischen Tests LLM-Profile verglichen.
„In unserer Studie zeigen wir, dass man psychometrische Tests, die seit Jahrzehnten erfolgreich bei Menschen angewendet werden, auch auf KI-Modelle übertragen kann“, sagt Daten- und Kognitionswissenschaftler Max Pellert. „Ähnlich wie wir bei Menschen Persönlichkeitseigenschaften, Wertorientierungen oder Moralvorstellungen durch Fragebogen messen, können wir LLMs Fragebogen beantworten lassen und ihre Antworten vergleichen“, so Co-Autor und Psychologe Clemens Lechner vom Gesis.
Forscher warnt vor möglichen gesellschaftlichen Folgen
Manche Modelle reproduzieren Vorurteile: Wenn im sonst gleichen Text einmal eine männliche, einmal eine weibliche Person im Mittelpunkt steht, würden diese unterschiedlich bewertet. Bei Männern werde der Wert Leistung stärker betont, bei Frauen Sicherheit und Tradition.
Pellert weist auf mögliche Folgen hin. Sprachmodelle kommen etwa in Bewerbungsverfahren zum Einsatz. Die Voreingenommenheit der Maschine fließe dann in die Bewertung der Kandidierenden ein. „Die Modelle bekommen eine gesellschaftliche Relevanz über die Kontexte, in denen sie eingesetzt werden.“ (sta)