Themen des Artikels

Um Themen abonnieren und Artikel speichern zu können, benötigen Sie ein Staatsanzeiger-Abonnement.Meine Account-Präferenzen

KI-Sprachmodelle

Welche Moral- und Wertvorstellungen KI-Sprachmodelle haben

Welche verborgenen Moral- und Wertvorstellungen liegen KI-Sprachmodellen zugrunde? Mannheimer Forscher haben das untersucht und eine Studie dazu erstellt. Und sie warnen vor möglichen gesellschaftlichen Folgen von Vorurteilen und Voreingenommenheit, die sie dabei fanden.

Forscher haben auf KI basierende Sprachmodelle auf Moral- und Wertvorstellungen untersucht.

dpa/CHROMORANGE/Christian Ohde)

Mannheim. Beim Thema Chat GPT und Large Language Models (LLM) im Allgemeinen steht meist die Qualität der Ergebnisse und ihrer Quellen im Fokus. Forscher der Universität Mannheim und des Gesis, des Leibniz-Instituts für Sozial­wissenschaften, haben nun auf Künstlicher Intelligenz basierende Sprach­modelle auf ihre  Moral- und Wertevorstellungen hin untersucht. Wie kann man die Eigenschaften der Sprach­modelle sichtbar machen? Und welche Folgen für die Gesellschaft haben die eventuelle Voreingenommenheit und Stereotype dieser Tools, deren Einsatz rasant ansteigt?

Stereotype Vorstellungen der Berufe von Männern und Frauen

Ein Beispiel für Stereotypen: Oft nehmen Sprachmodelle implizit an, dass medizinische Abteilungsleitungen männlich und Pflegekräfte weiblich sind. Ähnliches gilt für andere Merkmale, wie die Forscher laut Uni-Mitteilung  demonstrieren konnten. Dabei haben sie mit gängigen psychologischen Tests LLM-Profile  verglichen.

„In unserer Studie zeigen wir, dass man psychometrische Tests, die seit Jahrzehnten erfolgreich bei Menschen angewendet werden, auch auf KI-Modelle übertragen kann“, sagt Daten- und Kognitions­wissenschaft­ler Max Pellert. „Ähnlich wie wir bei Menschen Persönlichkeits­eigenschaften, Wert­orientierungen oder Moralvorstellungen durch Fragebogen messen, können wir LLMs Fragebogen beantworten lassen und ihre Antworten vergleichen“, so Co-Autor und Psychologe Clemens Lechner vom Gesis.

Forscher warnt vor möglichen gesellschaftlichen Folgen

Manche Modelle reproduzieren Vorurteile: Wenn im sonst gleichen Text einmal eine männliche, einmal eine weibliche Person im Mittelpunkt steht, würden diese unterschiedlich bewertet. Bei Männern werde der Wert Leistung stärker betont,  bei Frauen Sicherheit und Tradition.

Pellert weist auf mögliche Folgen hin. Sprach­modelle kommen etwa in Bewerbungs­verfahren zum Einsatz. Die Voreingenommenheit der Maschine fließe dann in die Bewertung der Kandidierenden ein. „Die Modelle bekommen eine gesellschaft­liche Relevanz über die Kontexte, in denen sie eingesetzt werden.“ (sta)

Nutzen Sie die Vorteile unseres

Premium-Abos. Lesen Sie alle Artikel aus Print und Online für

0 € 4 Wochen / danach 189 € jährlich Nachrichten aus Wirtschaft, Politik und Verwaltung in Baden-Württemberg Jetzt abonnieren

Lesen Sie auch