Robotik muss sicher sein
ChatGPT: Denkmaschine mit Regulierungsbedarf
Für OpenAI-Chef Sam Altman ist das von ihm als Denkmaschine bezeichnete generative KI-Modell ChatGPT der Beginn eines Paradigmenwechsels vergleichbar mit dem Launch des iPhones oder gar des Internets. „Das nützlichste, bedeutendste und begeisterndste Tool, dass die Menschheit je geschaffen hat“, so sagt es Sam Altman bei seinem Besuch an der TUM in München Ende Mai. Gilt das auch für die Robotik?
„Ich muss Codes oft nicht mehr selbst schreiben“
Reinhard Heckel ist ein Fan von ChatGPT. Der Professor für maschinelles Lernen an der TUM nutzt das OpenAI-Produkt Copilot selbst zum Programmieren. „Ich muss Teile von Code oft nicht mehr selbst ausschreiben, das übernimmt das Tool automatisch“, erläutert Heckel. Besonders bei leichten Aufgaben spart er so Zeit und kann sich mit dem Teil vom Programmieren beschäftigen, „der wirklich spannend ist“. Im Brainstorming mit ChatGPT sucht er nach geeigneten Titeln für ein Paper oder lässt es schon mal anschreiben. „ChatGPT ist ein guter Assistent für kleinere nervige Aufgaben“, meint Heckel. Sogar die Bilderkennung der Tools ist schon so gut, dass Blinde sich erklären lassen können, wie die Welt aussieht. Eine Grenze ist allerdings dann erreicht, wenn es um Roboter geht. „Als Roboter beispielsweise eine Zwiebel zu schneiden, ist komplex und im Moment schwieriger als der Umgang mit Text.“ Dennoch resümiert Heckel: „Die Vorteile überwiegen, ChatGPT und Tools wie Copilot erleichtern die Arbeit und machen sie effizienter.“
Trainingsdaten für neuronale Netze müssten da sein
Auch Klaus Diepold experimentiert mit generativer künstlicher Intelligenz. Schon vor einigen Jahren gab der Professor für Datenverarbeitung an der TUM in seinem Bachelor-Kurs „Computer und Kreativität“ Studenten die Aufgabe, Ideen zu entwickeln, wie Computer kreativ werden können. Heraus kam mit Vorläufern von ChatGPT 3 eine Glückwunschkarte „für Tante Erna“ – grafisch gestaltet und getextet von der KI. „Die Software hat ein Gedicht geschrieben und die Ranunkeln – Tante Ernas Lieblingsblumen – durch das Tool mit einbauen lassen“, erinnert sich Diepold. Praktisch Anwendungen in der Robotik gab es allerdings nicht. Heute arbeitet Doktorand Lucca Sacchetto im Rahmen des Leuchtturmprojekts KI.Fabrik beim Robotik- und KI-Institut MIRMI an einem Designgenerator auf Basis von Dalle_E, dem Bildtransformator von Altmans Unternehmen OpenAI. „Das Wissen für generative Modelle, einen Stuhl zu kreieren, ist gut, weil viele Bilder für das Training von neuronalen Netzen vorliegen.“ Soll allerdings ein Robotergreifer designt werden, ist das schwieriger, denn es gibt zu wenig Trainingsdaten. „Hinzu kommen Anforderungen an die Festigkeit des Materials und andere physikalische Eigenschaften“, so Diepold.
Robotik: Es darf kein einziger Fehler passieren
Die Herausforderungen in der klassischen Robotik sind komplex. Ein Serviceroboter beispielsweise bewegt sich im Umfeld mit dem Menschen. Er reicht einem pflegebedürftigen Menschen ein Glas Wasser oder unterstützt ihn in Reha-Übungen. „Der Roboter soll autonom, smart und schnell reagieren und darf kein Unheil anrichten“, so Diepold, „in einem sicherheitsrelevanten Umfeld darf man sich keinen einzigen Fehler erlauben“. Regulierungen sind also besonders in der Robotik vonnöten. „Verantwortungsvoll regulieren“ wolle er seine Software, versprach Altman in München. Als „sprachlich nettes Spielzeug“ (Diepold) richtet ChatGPT erstmal keinen sichtbaren Schaden an, doch hat Diepold Zweifel an dessen Intelligenz. „ChatGPT produziert Texte, die eloquent sind, aber nicht intelligent“, sagt der Professor, „das ist wie bei einem Politiker auf der Bühne: Es kann sich alles gut anhören, muss deswegen aber noch lange nicht stimmen.“ Auch Alin Albu-Schaeffer, Professor für Sensorbasierte Robotersysteme und intelligente Assistenzsysteme an der TUM, macht deutlich: „KI muss mit der physischen Welt interagieren, da reicht es nicht aus, ‚nur‘ quatschen zu können“. Das beste Beispiel dafür, was schieflaufen kann, liefert eine Hausarbeit, die Studenten von Prof. Diepold über ChatGPT haben anfertigen lassen. „Sie las sich gut, aber keine der Referenzen stimmte, die in dem wissenschaftlichen Aufsatz angegeben waren“, so Diepold. Immer, wenn Wissen fehlt, überspielt ChatGPT das mit selbst erfundenen Informationen. In der Robotik darf hingegen kein Fehler passieren.
„Eine noch nicht ausgereifte Technologie ist in die Welt gekracht“
Die Co-Direktorin der Hightech-Plattform munich_i Alena Buyx von der TUM ist eine von knapp 20 Professor:innen, die in der Taskforce für generative KI der TUM Perspektiven gegen Risiken abwägen. „Da ist ja eine noch nicht ganz ausgereifte Technologie ein wenig in die Welt gekracht und jetzt wird rapide versucht, Empfehlungen für anstehende gesetzliche Regelungen zu geben – von der technischen wie von der ethischen, sozialen und regulatorischen Seite“, erläutert die Professorin für Ethik in Medizin und Gesundheitstechnologien Buyx. Ihr geht es aber auch darum, neben den Risiken die positiven Potenziale zu erkennen und genau zu überlegen, wo man diese nutzen kann. Im Krankenhaus beispielsweise werden in den USA – kontrolliert und unter Aufsicht – bereits Social Bots eingesetzt, die ausführliche Entlassungsgespräche mit Patienten führen und Zeit haben, alle Fragen zu beantworten. Generative KI wird zudem in der Biotechnologie zur Analyse der Proteinfaltung eingesetzt, um neue Moleküle etwa für Krebsmedikamente zu entwickeln.
Ob die Entwicklung in die richtige Richtung geht? „Die ganzen Daten, die für das Training der KI-Modelle nötig sind, stammen letztlich von uns allen, und sie wurden von den Unternehmen abgesaugt und verwendet für Technologien, die bald unsere Lebenswelt stark durchwirken werden“, erläutert Buyx, „da besteht klar für Gesellschaften das Recht, die Nutzung sowie Regulierung der Technologien aktiv zu gestalten“. Auch OpenAI-Chef Altman betont bei seinem Besuch in München, die Fähigkeiten seiner Denkmaschine verantwortungsvoll regulieren zu wollen. Es gibt noch eine Menge zu tun. Auch deswegen sieht Altman für junge Leute gerade jetzt die wohl beste Chance in den vergangenen 15 Jahren, in der Technologie eine Karriere zu starten.
- Ethik-Roundtable: Krise oder Chance – Nachhaltigkeit unserer KI- und Robotik-Lösungen, Moderation: Alena Buyx; munich_i/Automatica in München am 28.6.2023 von 14:45 bis 15:30, Halle B4, 329
- Diskussion: Die Zukunft der künstlichen Intelligenz im Gesundheitswesen – weniger Papier, mehr Zeit für den Patienten! Mit Prof. Alena Buyx; munich_i/Automatica in München am 28.6.2023 von 15:45 bis 16:30, Halle B4, 329
- Roundtable „ONE Munich: Trustworthiness of Human-Centered Robotics and AI“ mit Prof. Angela Schoellig, Prof. Sandra Hirche und Prof. Stefan Leutenegger von der TUM; munich_i/Automatica in München am 28.6.2023 von 12:45 bis 13:30, Halle B4, 329.
- Auf der Messe Automatica vom 27. bis 30. Juni 2023 finden Sie über 30 Demonstrationen von Forschungsarbeiten zum Thema Robotik und KI in Halle B4 im Bereich AI-Society. Hier geht es zur Übersicht.
- In einem Presserundgang am 27. Juni 2023, von 11:30 bis 12:30 bekommen Vertreter von Medien neu entwickelt Demos aus den Bereichen Gesundheit, Mobilität, Umwelt und Arbeit zu sehen. Akkreditierung über andreas.schmitz. @tum.de
- Sämtliche Vorträge, Diskussionsrunden und Roundtable am Rande der munich_i finden Sie hier.
Technische Universität München
Corporate Communications Center
- Andreas Schmitz
- andreas.schmitz @tum.de
- presse @tum.de
- Teamwebsite
Kontakte zum Artikel:
Prof. Alena Buyx
Lehrstuhl für Medizin und Gesundheitstechnologien, Co-Direktorin munich_i
Technische Universität München
a.buyx@tum.de
Prof. Reinhard Heckel
Professur für Maschinelles Lernen
Technische Universität München (TUM)
Reinhard.heckel@tum.de
Prof. Klaus Diepold
Lehrstuhl für Datenverarbeitung
Technische Universität München (TUM)
kldi@tum.de