„Artificial Worldviews“ oder wie tickt eigentlich ChatGPT?
Dr. Kim Albrecht, seit diesem Sommer Professor für Data Analytics und audiovisuelle Medien an der Filmuniversität, wollte es genauer wissen und hat ChatGPT nach seinem Wissen über die Welt befragt. Über die zugrundeliegende Programmierschnittstelle (API GPT-3.5), die Open AI Entwickler*innen zur Verfügung stellt, um ihre eigenen Anwendungen an den Chatbot anbinden zu können, formulierte er die erste Aufforderung: "Erstelle einen Datensatz im Tabellenformat über die Kategorien deines gesamten Wissens!" Von dieser ausgehend fragte er mittels eines rekursiven Algorithmus Daten über die Teilgebiete, ihre Unterbereiche und die Personen, Objekte, Orte und Artefakte innerhalb dieser Kategorien ab. Unter dem Titel „Artificial Worldviews“ hat er die Ergebnisse der 1.764 Prompts und über 18.000 Antworten von GPT kartiert und nun veröffentlicht. Und diese sind überraschend: Die von der API zurückgegebenen Daten sind weiblicher und vielfältiger als erwartet. So haben es z.B. drei Frauen, die im Bereich Umwelt und Naturschutz tätig sind, unter die fünf am häufigsten genannten Personen geschafft: Rachel Carson, die Autorin von "Silent Spring", wurde 73 Mal erwähnt – mehr als jeder andere Mensch. Jane Goodall, die Primatenforscherin, kam mit 60 Nennungen auf den zweiten Platz. Die kenianische Aktivistin Wangari Maathai, die sich zwischen Aristoteles und Isaac Newton einreiht, belegt mit 44 Nennungen den vierten Platz. Auf diese ersten fünf Plätze folgen Leonardo da Vinci, Charles Darwin, Albert Einstein, Alan Turing, Elon Musk, Galileo Galilei, Karl Marx und William Shakespeare.
Sind das nun Personen, deren Forschung sich über alle Themen und Kategorien hinweg besonders gut verbreitet? Verfügt GPT-3 über eine eigene Logik, die Umwelt- und Tierschutz besondere Relevanz zumisst? Welche Wertvorstellungen, welche Weltanschauung repräsentiert die Anwendung und welche Parameter und Perspektiven führen zu diesen Ergebnissen? Oder auf den Datensatz selbst bezogen: Wie vielfältig ist dieser und welche Verzerrungen gibt es im System? Welche Erkenntnisse können wir aus der iterativen und methodischen Abfrage von Daten aus großen Sprachmodellen und damit auch über den Umfang und die Grenzen des maschinellen Lernens gewinnen? Diesen Fragen will Prof. Dr. Kim Albrecht auf den Grund gehen: "Systeme werden immer eine Tendenz zu etwas haben, und für mich ist es in diesem Moment entscheidend, zu verstehen, was diese Tendenz ist", so Albrecht. Sein Ziel ist es, die Systeme für die Nutzer*innen besser einschätzbar zu machen, untereinander vergleichbar aber auch in der jeweils eigenen Entwicklung. "Es ist ein interessanter Moment, den wir gerade erleben, weil die Systeme z.B. noch nicht vollständig vom Kommerz oder anderen übergeordneten Interessen besetzt sind. Die Versionen, die wir jetzt durch die Abfragen und Visualisierungen widergespiegelt bekommen, sind in dieser Hinsicht vielleicht etwas objektiver als sie es in ein paar Jahren sein werden."
Weitere Informationen finden Sie unter https://artificial-worldviews.kimalbrecht.com/. Das Projekt von Kim Albrecht in Zusammenarbeit mit metaLAB (at) Harvard & FU Berlin und der Filmuniversität Babelsberg KONRAD WOLF ist Teil einer größeren Initiative zur Erforschung der Grenzen zwischen künstlicher Intelligenz und Gesellschaft.
Filmuniversität Babelsberg KONRAD WOLF
Marlene-Dietrich-Allee 11
14482 Potsdam
Telefon: +49 (331) 6202-0
Telefax: +49 (331) 6202-199
http://www.filmuniversitaet.de
E-Mail: k.albrecht@filmuniversitaet.de