One Topic, One Loop: Sune Lehmann Jørgensen
Generative KI in internationalen Allianzen gestalten
Als ChatGPT-4 herauskam, war ich von dessen Fähigkeiten überwältigt. Es fühlte sich an, als würde etwas vollständig Neues passieren. Ich erinnere mich noch daran, dass ich am ersten Abend lange damit spielte und erst spät einschlafen konnte. Ich hatte das Empfinden, dass diese Technologie die Welt verändern würde.
Es ist verrückt: Auf der einen Seite scheinen Large Language Models (LLMs) genau die Werkzeuge zu sein, die eine Art menschliche Utopie ermöglichen. ChatGPT, Claude, Bard und was auch immer als Nächstes kommt, werden in der Lage sein, uns bei der Lösung komplexer Probleme zu helfen, z. B. bei der Bekämpfung des Klimawandels, der Heilung von Krankheiten und bei der Lösung von Arbeitsaufgaben, an denen Menschen nicht interessiert sind.
Auf der anderen Seite steht die Sorge, dass die LLMs zu einer massiven strukturellen Arbeitslosigkeit führen oder dass sie für Zwecke genutzt werden, die der Menschheit nicht nutzen sondern schaden. Sie könnten die Auflösung unseres sozialen Gefüges beschleunigen, wenn sie unsere einzige Informationsquelle werden, die Rolle von Freund:innen einnehmen und eine Unterhaltung schaffen, die so fesselnd ist, dass viele von uns nicht lange wegschauen können. Ich denke, diese Sorgen resultieren daraus, dass LLMs von einer kleinen Gruppe von Unternehmen als Teil ihrer Geschäftsmodelle entwickelt werden.
Large Language Models als Open Source
Wenn Prof. Jerry John Kponyo also fragt: „Welche Datensätze brauchen wir, um eine verantwortungsvolle KI zu gewährleisten“, so lautet meine Antwort, dass wir viel mehr als nur gute Datensätze brauchen, um eine verantwortungsvolle KI zu gewährleisten. Ich glaube wirklich, dass Länder sich zusammenschließen müssen, um LLMs zu entwickeln, die als Open Source zur Verfügung stehen, für Forschende offen zugänglich sind und explizit mit Blick auf die Verbesserung des menschlichen Lebens entwickelt wurden. Ich denke, die LLMs der Zukunft werden wie Elektrizität oder Wasser sein, etwas, das jede:r braucht und für die meisten unserer täglichen Aufgaben nutzt. Aus diesem Grund müssen wir Modelle schaffen, die Transparenz und gleichen Zugang für alle gewährleisten.
Die Trainingsdaten für diese Modelle sollten natürlich möglichst umfangreich sein, wie zum Beispiel die afrozentrischen Datensätze, die vom fantastischen Responsible AI Lab von Prof. Kponyo entwickelt wurden. Es besteht kein Zweifel, dass wir Modelle brauchen, die die gesamte menschliche Erfahrung widerspiegeln und nicht nur auf westeuropäischen und nordamerikanischen Daten basieren.
Ich muss aber auch auf die Tatsache zurückkommen, dass unsere Modelle, egal wie umfangreich sie sind und wie umfangreich unsere Datensätze werden, Unzulänglichkeiten und Verzerrungen aufweisen werden. Indem wir die Kontrolle über die Modelle erhalten, können wir jedoch sicherstellen, dass wir diese Mängel in einem offenen und öffentlichen Rahmen identifizieren können – und iterativ dafür sorgen, dass das nächste Modell etwas weniger unvollkommen ist.
Nach vier Texten aus vier Ländern möchte ich nun wieder an Enkelejada Kasneci übergeben. Sie hat unseren globalen Dialog mit Gedanken über KI und das Bildungssystem begonnen – und wird diese Runde mit einem Blick auf die bisherigen Perspektiven aller Autor:innen beschließen.
Vier Personen aus vier verschiedenen Ländern und von vier verschiedenen Universitäten diskutieren ein aktuelles Thema aus Forschung und Lehre. Die Serie beginnt mit einer Ausgangsfrage, auf die die erste Person antwortet und der nächsten Person eine weitere Frage zum gleichen Themenkomplex stellt. Die Reihe endet wieder mit der ersten Person, die die letzte Frage beantwortet – und abschließend alle vorangegangenen Antworten reflektiert. Das Thema der ersten Staffel sind Large Language Models und deren Einfluss auf Forschung und Lehre.
Unsere Autor:innen sind: Enkelejda Kasneci, Professorin für Human-Centered Technologies for Learning an der TUM School of Social Sciences and Technology, Aldo Faisal, Professor für KI und Neurowissenschaften am Imperial College London, Jerry John Kponyo, Associate Professor für Telecomunnications Engineering an der Kwame Nkrumah' University of Science and Technology und Sune Lehmann Jørgensen, Professor am Department für Applied Mathematics and Computer Science an der Technical University of Denmark.
- Sune Lehmann Jørgensen ist Associate Professor an Dänemarks Technischer Universität. Als ausgebildeter Physiker haben sich seine Interessen langsam in Richtung komplexer Netzwerke und großer Datensätze verschoben, und er arbeitet derzeit an der Schnittstelle zwischen Physik, Soziologie und Informatik.