Carsten Roemheld: Künstliche Intelligenz übersetzt in sekundenschnelle Texte von Deutsch auf Japanisch. Sie schreibt Bewerbungsschreiben, analysiert Datenflüsse, vervollständigt Quellcodes und erschafft Bilder, die es im wahren Leben gar nicht gibt. Spätestens seit Dezember 2022 ist die künstliche Intelligenz in aller Munde, denn mit dem Start der KI-Plattform ChatCPT bekam die vorher abstrakte Technologie zum ersten Mal so etwas wie menschliche Züge. Schließlich wurde ChatGPT dazu geschaffen, eine Unterhaltung zwischen Mensch und Maschine zu führen, die sich anfühlen soll, als wäre der Gegenüber ein Mensch. Das neue Angebot des Startups OpenAI löste weltweit einen KI-Boom aus. Innerhalb von nur einem Monat verzeichnete ChatGPT bereits 100 Millionen Nutzerinnen und Nutzer. Wenig später wollten italienische Behörden das Programm sperren, aus Bedenken um den Datenschutz. Und noch ein paar Wochen danach erschien ein offener Brief, indem nicht nur der CIO von OpenAI, sondern auch Technologie-Größen wie Tesla-Gründer Elon Musk oder Apple-Mitgründer Stephen Wozniak eine Entwicklungspause für KI fordern. KI ist in ihren Augen offenbar eine schwer zu kontrollierende Waffe. Klar ist: KI verändert unsere Lebens- und Arbeitswelt und stellt uns vor moralische und ethische Herausforderungen. Zugleich wirft die Technologie mehr Fragen auf, als wir bisher beantworten können. Wir staunen, aber wir durchschauen nicht, was da geschieht. Nun, was genau ist das eigentlich, Künstliche Intelligenz? Wie wirkt sich das auf unser Arbeits- und Alltagsleben aus? Besitzen Maschinen so etwas wie Moral, und wie müsste eine digitale Datenkultur aussehen, die Gefahren abwehrt und Chancen ermöglicht? Darüber spreche ich heute mit Gitta Kutyniok. Die vielfach ausgezeichnete Mathematikerin hat unter anderem an den Universitäten Stanford, Princeton und Yale geforscht. Heute leitet sie den Lehrstuhl für mathematische Grundlagen des Verständnisses der künstlichen Intelligenz an der LMU in München. Dort beschäftigt sie sich mit den Schnittstellen zwischen Mathematik und KI und stellt sich die Frage, wie eine künstliche Intelligenz eigentlich ihre Entscheidungen trifft. Frau Kutyniok ist auch Direktorin der Konrad Zuse School für verlässliche Künstliche Intelligenz, die internationale KI-Talente zum Masterstudium und zur Promotion nach Deutschland locken will. Heute ist Mittwoch, der 28 Juni 2023. Mein Name ist Carsten Roemheld, ich bin Kapitalmarktstratege bei Fidelity, und ich freue mich sehr auf die kommenden 45 Minuten mit Gitta Kutyniok. Herzlich willkommen im Podcast, Frau Kutyniok!
Gitta Kutyniok: Dankeschön, herzlichen Dank für die Einladung.
Carsten Roemheld: Als der Chatbot ChatGPT des Startups OpenAI im Dezember 2022 seine Arbeit begann, ist eine neue Debatte um Künstliche Intelligenz entbrannt. Es gab ja diesen offenen Brief von renommierten Wissenschaftlerinnen und Wissenschaftlern, die eine Entwicklungspause für KI forderten und eben mehr Sicherheit verlangten. Wie beurteilen Sie die Diskussion, diese Debatte, und wie stehen Sie zu einer Forderung nach einem Moratorium?
Gitta Kutyniok: Nun, aus meiner Sicht ist eine Regulierung von KI, also im Sinne auch von Gesetzen, extrem wichtig und extrem sinnvoll, und man sieht ja auch schon, das wirklich sehr interessante Fortschitte in diese Richtung angestoßen wurden, einmal der EU AI Act und dann auch, wenn wir denken an den Hiroshima G7 Process, der dort auch gestartet wurde, also das, denke ich, sind zentrale Schritte in die richtige Richtung.
Eine vollständige Entwicklungspause halte ich derzeit nicht für sinnvoll, und zwar aus verschiedenen Gründen. Zum einen ist es so, dass KI derzeit noch nicht so zuverlässig ist, wie wir das wollen. Und wenn man jetzt die Entwicklung stoppen würde, würde man damit auch die Entwicklung und die Forschung stoppen in Richtung bezüglich Zuverlässigkeit von KI. Dann muss man sagen, KI an sich ist nicht gefährlich, sie kann sogar sehr vorteilhaft für den Menschen sein, Menschenleben retten. Denken Sie an Roboter, die durch KI gesteuert, zum Beispiel Verschüttete retten, oder auch im medizinischen Bereich. Also von daher denke ich, ein Stopp ist die falsche Entscheidung zum jetzigen Zeitpunkt. Und man müsste sich überlegen, was würde passieren, wenn wir das jetzt stoppen würden. Dann würden Gesetze eingesetzt werden, dann würde die Entwicklung weitergehen. Man müsste sie dann wahrscheinlich schon wieder relativ schnell stoppen, weil die Entwicklung so schnell voranschreitet. Es müssten wieder die Gesetze aktualisiert werden. Ich denke, was auf jeden Fall wichtig ist, dass in der Politik viel schneller Entscheidungen getroffen werden, dass weltweit Gesetze eingesetzt werden und auch, dass die Politik viel enger mit der Wissenschaft zusammenarbeitet, um eben diese neue Entwicklung wie zum Beispiel ChatGPT auch abzubilden, denn das ist auch zum Beispiel ein Problem bei dem europäischen AI ACT, dass diese neue Entwicklungen noch nicht auftreten und auftauchen und bedacht sind.
Carsten Roemheld: Es fällt also quasi schwer, Schritt zu halten mit den Entwicklungen, die dort stattfinden. Nehmen Sie uns mal ganz kurz vielleicht mit in Ihr Forschungsgebiet als Mathematikerin. An welchen Stellen treffen sich denn künstliche Intelligenz und Mathematik? Oder anders gefragt, was ist eigentlich die KI genau? Aus Sicht von Ihnen oder aus Sicht der Mathematik?
Gitta Kutyniok: Nun, Mathematik erlaubt erst mal ein tiefes Verständnis in die Abläufe des Trainings von KI und auch der Entscheidungsprozesse. Bisher ist es ja so, dass KI letztendlich wie eine Blackbox agiert. Man kann nicht so richtig verstehen, wie Entscheidungen getroffen werden, aber Mathematik erlaubt, dass sozusagen in der Tiefe zu verstehen, zu analysieren und dann eben auch zu verbessern. Letztendlich, wenn man genau hinschaut, ist KI reine Mathematik. Man kann das alles in mathematische Formeln fassen. Zum Beispiel, ein künstliches neuronales Netz ist nichts anderes als eine hochgradig strukturierte Funktion, die Bilder abbildet auf Zahlenwerte, und der Zahlenwert gibt uns dann die Entscheidung letztendlich an. Oder man kann es auch noch etwas “fancier” formulieren: eine hoch parametrisierte Funktionenfamilie, wobei im Trainingsprozess man diese Parameter lernt, das heißt, man kann leicht in die Welt der Mathematik eintauchen und kann dann dort zum Beispiel auch KI- Algorithmen analysieren, Fehler, Schranken aufzeigen, sodass man auf die Art und Weise dann auch Zuverlässigkeit erreichen kann.
Carsten Roemheld: Und das Intelligente daran ist eben, dass diese KI sozusagen im Verlauf lernt, eben durch diesen Prozess und durch die verschiedenen Daten, die immer mehr und mehr zugeführt werden, im Prozess ja?
Gitta Kutyniok: Genau. Es wird trainiert auf riesigen Datenmengen, und man sieht das ja auch bei ChatGPT. Da werden ja quasi riesige Teile des Internets verwendet, um es zu trainieren. Und ein Problem, was auftritt, ist natürlich, dass man wenig Kontrolle hat, welche Daten dort verwandt werden. Deswegen geht jetzt auch die Forschung in die Richtung, dass man vielleicht die Daten, die man verwendet, bei solchen “large language models” dann doch etwas mehr kontrolliert, um etwas mehr Sicherheit zu gewinnen.
Carsten Roemheld: Genau, dazu kommen wir später noch mal zu diesem Thema, aber mich würde nochmal mehr ihr Forschungsgebiet interessieren. Was können wir uns dazu vorstellen, wie Sie zur Künstlichen Intelligenz forschen? Welche Forschungsfragen liegen zum Beispiel gerade auf Ihrem Schreibtisch?
Gitta Kutyniok: Ja, also ich beschäftige mich insbesondere, wie gesagt, mit Zuverlässigkeit von künstlicher Intelligenz. Ein Aspekt, der uns sehr interessiert, sind Erklärbarkeits-Algorithmen. Also, ich habe ein KI-System. Ich möchte verstehen, wie Entscheidungen gefällt werden, und ich möchte insbesondere verstehen, was sind die Aspekte, basierend auf denen die KI dann letztendlich zu der Entscheidung gekommen ist. Was man dabei bedenken muss, ist, dass diese Algorithmen, diese Erklärbarkeits- Algorithmen selber auch zuverlässig sind. Manchmal werden Algorithmen entwickelt, die quasi nette Ergebnisse liefern, die vielleicht schön aussehen, aber der Algorithmus selber muss auch zuverlässig sein, sonst kann man darauf nicht vertrauen, dass die Erklärung auch wirklich die ist, die vernünftig ist, und von daher basieren wir das auch auf mathematischen Grundlagen. Das andere, das Zweite, was mich jetzt auch derzeit sehr umtreibt, ist die Frage, wir trainieren neuronale Netze und KI auf digitaler Hardware, und die Frage ist, wie schränkt uns das ein? Also so ein bisschen die Frage auch nach Grenzen von Künstlicher Intelligenz, die derzeit bestehen. Was wir zeigen konnten, ist, dass tatsächlich Probleme bei sehr vielen Szenarien dadurch bestehen, dass wir quasi alles auf Nullen und Einsen runterbrechen und dass man oft die Ergebnisse nicht mit beliebiger Genauigkeit bekommt, und das tatsächlich auch legale Vorgaben, wie zum Beispiel algorithmische Transparenz und das Recht auf Erklärung, was jetzt auch im europäischen AI Act festgeschrieben ist, dass man das mit solcher Hardware oftmals nicht erfüllen kann. Man kann es aber erfüllen, wenn man zu analoger Hardware übergeht. Also denken Sie zum Beispiel an Quantencomputing oder Neuromorphic Computing. Es gibt schon Neuromorphic Chips. Dort kann man so was erreichen, und das heißt, aus meiner Sicht wird eine wichtige zukünftige Entwicklung sein, dass man versucht, digitale Hardware durch analoge Hardware zu augmentieren und dann dementsprechend auch Algorithmen zu entwickeln, die quasi auf dieser hybriden Art von Plattform laufen, sodass man dann Zuverlässigkeit erreichen kann, und die legalen Vorgaben erfüllen kann. Und ein weiterer Punkt ist ja auch das Energieproblem. KI auf digitaler Hardware, benötigt derzeit extrem viel Energie. Das wissen wir alle, und durch analoge Hardware kann man auch dieses Problem lösen. Vielleicht sollte ich sagen, wir haben vor einer Woche auch gerade eine neue Firma in die Richtung gegründet, “ecologic computing”, die sich genau das zum Ziel setzt, also das Zuverlässigkeitsproblem zu lösen, das Energieproblem und auch sicherzustellen, dass man legale Vorgaben mit KI erfüllen kann oder durch KI.
Carsten Roemheld: Das klingt sehr spannend. Wie weit sind wir denn realistisch von dieser Entwicklung weg?
Gitta Kutyniok: Nun, es gibt ja schon neuromorphic Chips zum Beispiel, also es gibt schon Hardware, die analog ist. Es gibt auch sehr viele neue Startups, die solche Hardware entwickeln. Der nächste Schritt ist jetzt, entsprechende Software zu entwickeln, die quasi diese hybride Strukturen optimal nutzen. Also von daher würde ich davon ausgehen, dass innerhalb von einem Jahr zum Beispiel wir schon substanzielle Algorithmen bereitstellen können, die diese Probleme, die ich eben aufgezeigt habe, in verschiedenen Szenarien lösen.
Carsten Roemheld: Jetzt stammt ja vieles von dem, was wir über die Künstliche Intelligenz lernen, aus Empirie, aus Beobachtungen aus Erfahrungen. Warum hängt eigentlich die theoretische Forschung so weit hinterher?
Gitta Kutyniok: Nun, ich meine, man muss sich klarmachen, wie Entwicklung allgemein vonstatten geht. Normalerweise werden erst mal ja viele empirische Studien gemacht, man testet etwas. Welche Architektur von KI ist vielleicht eine bessere Architektur? Auf die Art und Weise werden dann neue Algorithmen entwickelt. Der zweite Schritt ist dann normalerweise, man versucht zu verstehen, weshalb diese neuen Algorithmen gut funktionieren. Also man versucht es mit Theorie zu unterfüttern, und das ist oft ein etwas langwieriger Prozess, wenn man das ganze eben auch in der Tiefe verstehen muss. Also in dem Sinne ist es immer ein zweistufiger Prozess, und von daher ist es natürlich, dass die Theorie immer der zweite Schritt ist.
Carsten Roemheld: Sie haben vorhin erwähnt, die KI an sich ist nicht gefährlich. Jetzt gab es verschiedene Berichte, ob die jetzt stimmen oder nicht, über Simulationen, die die US-Luftwaffe angeblich mit Drohnen gemacht haben soll. Bei der eine Drohne dann aus dem Ruder gelaufen sei und die Vorgesetzten angegriffen hätte oder ähnliches. Das kann eine Simulation gewesen sein, aber die Frage bleibt ja, was von vielen so ein bisschen auch schwarz gemalt wird: Was machen wir, wenn sich die KI verselbstständigt? Gibt es Möglichkeiten, diese Prozesse in den Griff zu bekommen, wenn die Künstliche Intelligenz nicht unbedingt in unserem Sinne handelt? Was kann man dann eigentlich tun, oder besteht diese Gefahr überhaupt aus Ihrer Sicht?
Gitta Kutyniok: Vielleicht soll ich erst mal sagen, von solchen Szenarien sind wir noch sehr weit entfernt, also ChatGPT wirkt sehr intelligent. Aber wenn man mal etwas hinter die Kulissen schaut und sieht, was passiert, ist man vielleicht nicht mehr ganz so beeindruckt. Also das, was ChatGPT quasi macht, ist, wenn es Sätze entwickelt, es sagt immer voraus, was ist das nächst wahrscheinliche Wort, und so werden die Sätze aufgebaut. Das wirkt dann letztendlich relativ intelligent, weil es trainiert ist auf riesigen Datenmengen, was auf dem gesamten Internet basiert und da stehen natürlich einige Sätze, die auch relativ intelligente Formen haben. Aber die KI versteht überhaupt nicht den Sinn von dem was sie schreibt. Die sagt immer nur das nächste wahrscheinliche Wort voraus, was sicher sehr, sehr geschickt programmiert ist. Aber das ist das Einzige, was dort passiert. Das Gefährliche daran sind immer die Menschen, die es benutzen. Man kann jetzt natürlich diese generative KI sehr leicht benutzen für fake news, für face images und kann damit natürlich großen Schaden letztendlich in der Gesellschaft anrichten. Also in dem Sinne, dass die KI sich verselbständigt, davon sind wir noch meilenweit entfernt. Die Gefahr ist eher der Mensch, der die KI anwendet.
Gitta Kutyniok: Gut, wenn man jetzt mal etwas in die Zukunft denkt, Regulierung ist extrem wichtig, und es ist natürlich auch extrem wichtig, was man in die KI einprogrammiert. Denken Sie zum Beispiel bei Robotern, also man sagt auch „Embodied AI“, dort gibt es die Asimov Gesetze - dass ein Roboter keine Menschen verletzen darf. Er muss den Befehlen von Menschen gehorchen, und er muss sich selber schützen, wenn er sozusagen die ersten beiden Gesetze dadurch nicht verletzt. Man muss natürlich bei allgemeiner KI viel weitergehen als das, weil man eben diese Mensch-Computer oder Mensch-Maschine-Interaktion mit betrachten muss. Ich denke, wir sind da auf einem sehr guten Weg. Von daher habe ich eigentlich nicht solche Sorge.
Gitta Kutyniok: Aber wenn man jetzt wirklich in die Zukunft denkt, KI würde ein Bewusstsein entwickeln, es würde quasi dieser Quantensprung entstehen: Dann muss man sagen, und man hat nicht aufgepasst in dem Sinne, dass die Algorithmen dass vielleicht auch erlauben - diesen eigenständige Handlungen den Stecker ziehen, wird nicht funktionieren. Ich meine die KI, wenn sie wirklich intelligent ist, kann sich im Internet quasi leicht ausbreiten, und das Internet kann man nicht einfach vom Strom nehmen. Also in dem Sinne ist esextrem wichtig - was jetzt auch passiert weltweit in der Politik, auch in der Wissenschaft und auch in der Industrie - man muss aufpassen, dass man quasi die Regulierung richtig aufsetzt, sowohl in den Algorithmen als auch in Gesetzen wie Menschen mit der KI interagieren.
Carsten Roemheld: Okay, da gibt's noch einiges, was an Arbeit auf uns zukommt wahrscheinlich. Jetzt schauen wir uns mal den Themenblock Arbeit an, wie sich Künstliche Intelligenz und das Arbeitsleben miteinander kombinieren lassen. Es gibt ja verschiedene Forschungen zum Thema Arbeitswelt. Wie könnte Künstliche Intelligenz unsere Arbeitswelt beeindrucken? Dass sich da Produktivitätsfortschritte wieder in deutlicherem Maße generieren lassen? Mehr als es in den letzten Jahren der Fall war, ist, glaube ich, relativ klar. Aber die Frage ist, inwieweit es einzelne Berufe vollständig ersetzen kann, zum Beispiel, inwieweit es vielleicht in anderen Berufen mehr als Ergänzung dient. Und da haben einige Forscher, vor allem aus der Schweiz, glaube ich, versucht zu untersuchen, welche Berufe besonders gefährdet sind. Interessanterweise kamen da Berufe raus, auf die man beim besten Willen nicht gekommen wäre. Zum Beispiel, dass der Metzger im Moment bedroht sei, weil Maschinen bereits fast 80 Prozent der Fähigkeiten entwickelt haben, die Metzger haben. Also, es klingt schon ganz interessant. Was ist denn aus Ihrer Sicht der Einfluss auf die Berufswelt? Glauben Sie das ganze Arbeitszweige verschwinden? Ich meine, man könnte jetzt vor allem auf kreative Berufe kommen, auf analytische Berufe kommen, die von diesen aktuellen Entwicklungen bedroht sind.
Glauben Sie, dass KI ganze Berufszweige verdrängen kann oder dass es erst mal als Ergänzung dient und auch für neue Arbeitsplätze sorgt in anderen Bereichen?
Gitta Kutyniok: Also erstmal denke ich, dass sich unsere Gesellschaft als Ganzes radikal ändert. Das sieht man jetzt schon durch ChatGPT. Eine große Gefahr, dass jetzt viele Arbeitsplätze wegfallen, sehe ich nicht. Ich möchte das mal vergleichen mit der Zeit, als der Computer eingeführt wurde. Da haben sich ja auch viele Tätigkeiten geändert. Es sind aber keine Arbeitsplätze in dem Sinne völlig weggefallen. Wenn, dann sind sie durch andere ersetzt worden, nämlich durch Arbeitsplätze wie Programmierer. Ich denke, so eine Entwicklung sehen wir jetzt auch vor uns, und der erste Schritt wird sein, dass KI ein Helfer oder eine Helferin sozusagen ist in verschiedenen Bereichen.
Gitta Kutyniok: Sie haben gerade den Metzger erwähnt. Also bei körperlichen Tätigkeiten werden sicher Roboter in gewisser Weise auch den Menschen unterstützen. Das tun ja im Moment auch schon Maschinen, Bagger, die auch schon das, was man früher alles per Hand gemacht hat, jetzt schon unterstützen, und das wird sozusagen, einen Schritt weiter gehen. Sie haben auch gerade kreative Berufe erwähnt. Dort sehen wir ja, generative KI hat dort große Erfolge, aber auch dort sehe ich es so, dass es eher eine Ergänzung zum Menschen ist, dass Menschen, die sie benutzen und dann aber natürlich auch nachbearbeiten, kontrollieren. Das ist immer noch ein extrem wichtiger Schritt.
Andere Berufe sind sicher auch Journalismus, Rechtswesen. Dort wird sicher die KI Einzug finden, aber aus meiner Sicht als Unterstützung des Menschen, und das sieht man jetzt auch, wenn man mal rumfragt, wie ChatGPT derzeit benutzt wird. Viele benutzen das als Hilfe zum Schreiben von Texten, und das würde ich erstmal als sehr positiv sehen. Es werden sicher auch neue Berufe geschaffen werden, Berufe im Bereich von KI, noch weitere Berufe auch im Bereich der Robotik. Aus der Sicht sehe ich keine Gefahr, aber einen Wandel vor uns, den man begleiten muss. Aber ich persönlich sehe den sehr, sehr positiv.
Carsten Roemheld: Das klingt ja schon mal ganz gut, also zumindest keine Welle von neuer Arbeitslosigkeit in bestimmten Bereichen, die dadurch entsteht, sondern eher vielleicht auch die Schaffung neuer Arbeitsplätze, Schaffung von mehr Produktivität. Kann man das zeitlich in irgendeiner Art und Weise eingrenzen? Jetzt ging es ja sehr schnell, also wir alle hatten wahrscheinlich von ChatGTP, also außer ihnen natürlich, aber wir hatten als Normalbürger lange nichts gehört. Dann kam es plötzlich, und dann ging alles rasend schnell. Dass sich die Arbeitswelt transformieren muss, dürfte klar sein, aber welche zeitliche, welchen zeitlichen Horizont würden Sie dem zuordnen?
Gitta Kutyniok: Na ja gut, ich meine, das findet jetzt schon Einfluss in die Arbeitswelt. Ich denke, in den nächsten fünf Jahren werden wir schon radikale Änderungen sehen. Dass wird sicher auch der Stand sein, dass erst mal Roboter und Maschinen und KI Menschen unterstützen. Inwieweit in verschiedenen Berufen dann vielleicht auch mal ein Roboter alleine agiert, wird sicher danach kommen. Man muss natürlich fairerweise sagen, im Logistikbereich ist das jetzt schon in vielen Fällen der Fall. Das sieht man vielleicht nicht von außerhalb. Aber ich denke, wie gesagt, in den nächsten fünf Jahren wird KI massiv in allen Bereichen Einfluss nehmen, die Gesellschaft in ihrer ganzen Breite verändern, das öffentliche Leben. Im Wissenschaftsbereich merken wir das ja jetzt schon. Der Wirtschaftsbereich - fast alle Industrieunternehmen investieren schon in KI. Also, das wäre der erste Zeithorizont, den ich jetzt sehen würde.
Carsten Roemheld: Wenn wir uns jetzt mal anschauen, was ChatGPT zu leisten imstande ist. Wir haben gesehen, es kann Jura-Prüfungen bestehen, auch ein Examen für angehende Mediziner in den USA hat die Software bestanden. Auf der anderen Seite ist es gescheitert am bayerischen Abitur, glaube ich, und ausgerechnet in der Paradedisziplin der Textanalyse hat es wohl eine fünf bekommen. Die Frage deswegen, was kann der Mensch, was KI nicht kann, und wie lange wird das noch der Fall sein? Wie lange braucht die KI, um in diesem Bereich noch weiter aufzuholen? Das geht ja alles rasend schnell.
Gitty Kutyniok: Mhm, ja, es sind auch sehr viele Probleme. Ein Problem ist die Robustheit. Man sieht das ja, bei selbstfahrenden Autos ist es bekannt, dass selbstfahrende Autos manchmal falsche Entscheidung treffen. Man kann zum Beispiel auf Verkehrsschilder Aufkleber in bestimmter Art und Weise kleben, sodass ein Mensch das noch als Stoppschild, sagen wir mal, erkennt. Aber die KI würde dann plötzlich eine völlig falsche Entscheidung treffen. Es ist auch bekannt, dass Tesla Autos zum Beispiel auf parkende oder stehende Wagen, die Blaulicht haben, seltsam reagieren und dann manchmal falsche Entscheidungen treffen. Da müssen Probleme sicher mit den Trainingsdaten sein. Also, das ist noch ein Problem, was man lösen muss. Ein weiteres Problem ist das Problem der Kausalität. Wir Menschen können Ursache/Wirkung sehr gut verstehen und das auch analysieren. Das kann die KI noch gar nicht. Also stellen Sie sich vor, Sie haben einen Baum, es fällt ein Apfel runter. Dann wissen wir, der Apfel fällt nach unten auf die Erde durch die Gravitation. Aber diese Schlussfolgerung, das ist etwas was KI derzeit noch nicht kann. Das ist sicher ein Quantensprung, das der KI beizubringen. Aber davon sind wir noch weit entfernt.
Gitta Kutyniok: Also das wird aus meiner Sicht vielleicht noch zehn Jahre dauern. Dann, ein weiteres Problem sind die riesigen Datenmengen. Stellen Sie sich vor, wenn Sie einem Kind etwas erklären, sagen wir mal was eine Katze ist, was ein Hund ist, würden Sie vielleicht einige Beispiele zeigen, und dann würden Sie hoffen, dass das Kind ein neues Tier korrekt erkennt. Bei KI sind das noch riesige Datenmengen, Millionen von Daten, Millionen von Bildern, auf die KI trainiert werden muss. Das sind alles Dinge, die hoffentlich in der Zukunft dann überwunden werden. Aber das sind noch signifikante Probleme, und wie gesagt, ich hatte eben auch schon erwähnt, das Hardwareproblem, Energieproblem, was damit zusammenhängt, all das ist etwas, und das menschliche Gehirn braucht ja nur sehr wenig Watt im Verhältnis zur KI. All das sind Dinge, die derzeit noch große Probleme machen und wo ich sicher einen Zeithorizont, ja im Rahmen von vielleicht mindestens zehn Jahren sehe.
Carsten Roemheld: Sehen Sie denn bestimmte Ressourcen auch als knapp? Also Sie sagen, Energie zum Beispiel ist ein größeres Problem? Auch die Chips sind sicherlich, die man braucht, die ja immer leistungsfähiger sein müssen, ein Problem. Sehen sie da gewisse Limitierungen, auch wie weit das Ganze gehen kann? Also das Energieproblem muss man sicherlich irgendwie in den Griff bekommen. Aber gibt es da Grenzen über die man im Moment nicht hinauskommt?
Gitta Kutyniok: Na ja, man merkt ja jetzt schon, dass manchmal auch die GPUs knapp warden. Derzeit ist die KI so aufgesetzt, dass es eben massive Rechenzentren braucht zum Trainieren, insbesondere bei den “Large Language Models” ist das evident. Und wenn man diese Rechenkapazität nicht hat oder nicht aufbauen kann aufgrund von Ressourcen-problemen, dann wird man die KI auch nicht in diesem Sinne trainieren können und auch nicht weiterentwickeln können. Also, das ist sicher auch ein Engpass, also einmal das Energieproblem. Wir sehen ja, wenn wir uns sozusagen die Welt-Energieproduktion anschauen, dass man eigentlich relativ schnell daran stößt, schon allein im Bereich der Kommunikation, das muss man beheben. Und hier ist es auch wichtig, und dahin geht auch die Forschung, dass man Algorithmen entwickelt, die eben nicht mehr so viel Energie brauchen, um dieses Ressourcenproblem zu lösen.
Carsten Roemheld: Gehen wir im letzten Block mal ein bisschen auf die gesellschaftlichen Konsequenzen ein. Es wird ja oftmals kritisiert, dass ChatGPT nicht transparent ist, das haben Sie ja auch schon beschrieben. Der Prozess ist nicht unbedingt nachvollziehbar, und was mit den Daten passiert letzten Endes, ist auch nicht ganz klar. Wie kann dieses Problem aus Ihrer Sicht gelöst werden?
Gitta Kutyniok: Ja, Zuverlässigkeit allgemein ist natürlich ein extrem wichtiger Punkt. Ich denke, man muss vielleicht auch etwas differenzieren. Es gibt sicher auch Anwendungen, wo diese Dinge keine so große Rolle spielen, zum Beispiel beim Design. Wenn da ein Problem ist oder sozusagen irgendwas falsches kreiert wird, ist das nicht so dramatisch. In anderen Bereichen wie Medizin oder selbstfahrenden Autos ist das natürlich extrem kritisch.
Was wichtig ist, also vielleicht kann ich einmal kurz zusammenfassen, was ich auch unter diesem Begriff Zuverlässigkeit allgemein verstehen würde. Da gibt es vier Aspekte, die wichtig sind. Der erste Aspekt ist Safety, also dass man quasi auch Fehler/ Schranken für die Aktionen von KI hat. Dann gibt es den Bereich der Security. Eine Gefahr besteht, dass man in die Systeme reinhackt und quasi die Kontrolle übernimmt. Zum Beispiel im Krankenhaus. Ein weiteres Problem ist Privacy, also welche, und wie werden Daten verwendet? Sind Datenschutzrichtlinien korrekt eingehalten worden? Und dann der Bereich der Responsibility, also Explainability - kann ich die Entscheidung erklären und folgen die Entscheidungen auch sozialen und ethischen Richtlinien? Also, das ist, denke ich, extrem wichtig, dass man auf diese Aspekte achtet. Die Forschung geht in die Richtung. Vielleicht dazu, Sie haben am Anfang schon die Konrad Zuse School of Excellence and Reliable AI erwähnt, die wir in München haben, die hat sich genau das auch zum Ziel gesetzt, auch mit den Forschungsgebieten. Einmal die theoretischen Grundlagen, um überhaupt zu verstehen, was passiert, und dann die zentralen Anwendungsgebiete, die eben hochgradig sensibel sind. Einmal der medizinische Bereich, dann der Bereich Robotik und dann auch der Bereich der algorithmischen Entscheidungsfindung, was eben auch jetzt sehr viele Unternehmen implementieren. Für alle diese Bereiche ist Zuverlässigkeit sehr wichtig. Vielleicht auch noch mal als Kommentar. Also, die Konrad Zuse School ist in München aufgesetzt, sie ist aufgesetzt zwischen der LMU und der TUM, und ich leite sie gemeinsam mit meinem Kollegen Stefan Günnemann von der TUM.
Carsten Roemheld: Prima! Dann hoffen wir, dass das alles genau in die richtige Richtung geht, wie Sie gerade beschrieben haben. Was mich nun interessieren würde: Sie haben vorhin diesen Prozess beschrieben. Ich stelle mir immer die Frage, wie es eigentlich mit dem Copyright ist. Zum Beispiel, wenn aus der künstlichen Intelligenz ein neues Bild oder ein neues Design kreiert wird, was vielleicht aus existierenden Bildern gemacht wird. Ist das dann nicht betroffen? Diese Copyright Frage, oder wie genau muss ich mir das vorstellen?
Gitta Kutyniok: Also, das ist sicher hochgradig diffizil. Ich muss sagen, ich bin jetzt auch kein Rechtsanwalt, der das in aller Tiefe erklären kann. Das ist ein Problem. Es kommt drauf an, wofür man ChatGPT letztendlich benutzt. Also wenn man es benutzt für irgendetwas, um selber Flächen, Texte zu erstellen, und das dann auch noch verändert, ist es sicher kein so großes Problem. Wenn man es natürlich für eigenes Werbematerial, für die eigene Firma verwendet, und dort entstehen Copyright Probleme, dann muss man sich natürlich schon klarmachen, was passiert. Aber es ist letztendlich derzeit auch gar nicht möglich, das nachzuvollziehen, wo diese Daten herkommen, und ich denke, das ist auch etwas, was jetzt im Moment bereits im Hintergrund diskutiert wird. Derzeit ist es Opensource, aber ich denke, da werden noch viele Diskussionen, auch rechtliche Diskussionen, als Nächstes stattfinden.
Carsten Roemheld: Sie hatten vorhin auch einen Aspekt genannt, dass vor allen Dingen die Menschen dahinter, die das nutzen oder vielleicht auch für ihre eigenen Zwecke in Anführungszeichen missbrauchen könnten, dass die zum Teil das Problem sind und nicht so sehr die Künstliche Intelligenz selbst. Es wird immer wieder angeprangert, dass die KI nicht ethisch handelt, teilweise sogar rassistisch ist. Da gibt es eine Studie vom Max Planck Institut, die gesagt hat, das ChatGPT durchaus bei ängstlichen Menschen Vorurteile verstärken kann. Wie kann man denn sozusagen die Moral implementieren oder in eine maschinelle Lösung mit einbauen? Lässt sich das überhaupt realistisch machen?
Gitta Kutyniok: Ja, interessante Frage, herzlichen Dank dafür. Vielleicht zwei Sachen möchte ich dazu sagen. Einmal, dieses scheinbar rassistische Verhalten kommt aus den Daten. Es kommt darauf an, wie die KI trainiert wird, welche Daten man verwendet. Wenn zum Beispiel die Daten, sagen wir mal, nur männliche Wesen enthält, dann wird natürlich die KI letztendlich ein Problem haben, wenn auf einem Bild eine Frau ist, und sie kann das nicht mehr korrekt klassifizieren. Also, die Daten müssen quasi ausbalanciert sein, gerecht sein in dem Sinne. Dann bezüglich Moral: Moral wird ja derzeit auch schon in einigen KI-Systemen implementiert. Denken Sie zum Beispiel an selbstfahrende Autos. Wenn es zu einem Unfall kommt und es sieht, es kann einen Unfall nicht mehr verhindern, kann es sein, dass es zum Beispiel eine Entscheidung treffen muss. Fahr ich jetzt in den letzten Zehntelsekunden in die Richtung oder in die andere Richtung? In der einen Richtung steht vielleicht ein älterer Mensch, in der anderen Richtung steht ein Kind, dann muss es quasi diese furchtbare Entscheidung treffen. Wie entscheide ich jetzt? Der Mensch macht das vielleicht intuitiv wenn er am Steuer sitzt. Aber die KI, dort muss es direkt einprogrammiert sein, und in dem Sinne ist Moral und ethisches Handeln dann direkt im Algorithmus schon drin.
Gitta Kutyniok: Von daher hat KI schon moralische Aspekte implementiert in dem Sinne. Ich denke ethische Richtlinien müssten noch viel weitergehen. Aus Sicht der Mathematik wäre es sicher eine wichtige Richtung, das Ganze auch mit etwas mehr, sagen wir, mathematischen Grundlagen zu unterfüttern und ein mathematisches Framework für die KI zu entwickeln. Ich selber habe auch schon mit einigen Kollegen mal in die Richtung gedacht. Es gibt ja schon den Bereich der mathematischen Philosophie. Den haben wir zum Beispiel auch an der LMU durch ein Zentrum verwirklicht, und allgemein für den Bereich KI halte ich es für sehr wichtig, dass man diese moralischen, ethischen Aspekte noch viel stärker betont, insbesondere wenn es dann auch in Richtung Robotik geht und dann auch sinnvoll implementiert durch eben ein umfangreiches, dann auch mathematisch fundiertes Framework.
Carsten Roemheld: Die Ethik kommt ja letzten Endes vom Menschen selbst, und alles, was wir bisher an Erfahrungen gemacht haben und in welchen Bereichen wir uns bewegen, auch zum Thema Religion oder Geschichte, ist ja von Menschen aufgeschrieben worden. Jetzt besteht ja sozusagen die Gefahr, dass die Dinge auch durch die Künstliche Intelligenz verändert werden. Dass Dinge jetzt von Maschinen in Zukunft eher kommen als das, was wir in der Vergangenheit von Menschenhand sozusagen kreiert haben. Besteht da nicht eine Gefahr, dass die Maschinen sich dann als Menschen ausgeben oder vielmehr, dass Dinge in Zukunft von Maschinen kommen, die eigentlich in der Vergangenheit von Menschenhand gekommen sind? Besteht da eine gewisse Gefahr?
Gitta Kutyniok: Zum Teil ja, aber wir möchten natürlich ohnehin, dass die Maschinen nach unseren Moralforderungen handeln. Natürlich ist es jetzt so, dass jedes Land vielleicht auch andere Moralvorstellungen hat. Das kreiert sicher weltweit auch ein Problem.
Jedes Land wird seine eigene Moralvorstellung in diese Maschinen implementieren in dem Sinne. Aber dann, wenn es implementiert ist, denn Maschinen haben derzeit ja noch keine Gefühle, werden diese einprogrammierten moralischen Regeln natürlich auch ganz strikt erfüllt werden.
Das ist aus meiner Sicht sehr wichtig und positiv. Man muss sich auch immer klarmachen, dass diese Konzepte, die einprogrammiert sind, die Maschine natürlich noch gar nicht versteht. Aber ich gebe Ihnen Recht, es gibt jetzt auch schon Roboter, die sehen menschlich aus. Da kann es natürlich sein, dass dort auch dann in dem Sinne Konflikte entstehen und vielleicht auch Menschen dann dadurch in gewisser Weise etwas eingeschüchtert werden und auch falsch beeinflusst werden, ja.
Carsten Roemheld: Sie haben eben gesagt, noch hat die Künstliche Intelligenz keine Gefühle. Halten Sie es denn für denkbar, dass das irgendwann mal der Fall sein wird?
Gitta Kutyniok: Das ist sehr schwer zu prognostizieren, genauso wie denke ich, sehr schwer zu prognostizieren ist, ob die Künstliche Intelligenz irgendwann ein eigenes Bewusstsein entwickeln kann. Es ist ja auch so, dass wir eigentlich auch noch gar nicht wissen, was überhaupt Intelligenz ist. Wenn man mal schaut, es gibt sicher 20 verschiedene Definitionen, was Intelligenz überhaupt ist. Von daher ist es ein sehr schwieriger Bereich, da wirklich substanziell darüber zu diskutieren. Aber Gefühle? Ich denke, ich will es nicht ganz ausschließen, es liegt sicher im Bereich des Möglichen, aber wir sind noch sehr weit davon entfernt. Also in den nächsten 20 Jahren könnte man in diese Richtung denken, aber jetzt, in den nächsten fünf Jahren, werden Maschinen sicher keine Gefühle entwickeln, auch kein Bewusstsein.
Carsten Roemheld: Das klingt jetzt nach einem sehr langen Zeitraum. Zuletzt hatte man eher das Gefühl es ging rasend schnell, also die ChatGPT-Versionen haben sich relativ schnell abgelöst. Man hat das Gefühl, dass immer leistungsfähigere KIs an den Start kommen. Täuscht das, oder ist es tatsächlich so, dass dieses Tempo rasant ist, und wie schätzen Sie das jetzt in den nächsten Jahren ein, wie schnell das gehen wird?
Gitta Kutyniok: Ich denke, das Tempo hat sich beschleunigt und zwar aus folgenden Gründen. Es ist natürlich so, dass im Moment auch sehr viel Geld in die Wissenschaft fließt im Bereich der KI. Also, sehr viele Wissenschaftlerinnen und Wissenschaftler beschäftigen sich mit dem Thema, forschen daran. Die Industrie investiert natürlich massiv. Auch dort geht die Entwicklung dadurch deutlich schneller vorwärts. Also in dem Sinne hat sich die Entwicklung sicher beschleunigt, weil sehr viele Ressourcen auch allgemein in Bezug auf Arbeitsstunden dort reinfließen. Wenn man dann genau hinschaut, inwieweit sich, sagen wir mal, konzeptionell etwas weiterentwickelt hat, muss man sagen, diese Entwicklung geht nicht so sehr schnell. Die Wahrnehmung, dass die Entwicklung sehr schnell geht, liegt daran, dass man derzeit auf immer größeren Datenmengen trainiert und dadurch die Ergebnisse auch immer beeindruckender sind. Die Architekturen selber und die Modelle, die dahinter stehen, haben sich nicht so sehr verändert.
Gut, man hat jetzt sogenannte Transformer eingeführt. Das ist jetzt eine neue Architektur, die vielleicht ein paar zusätzliche Aspekte hat, aber letztendlich sind neuronale Netze immer noch eine Grundstruktur, die sich in gewisser Weise etwas ändert, die etwas verbessert wird. Die Trainingsalgorithmen selber sind auch nicht signifikant anders. Also die schnelle Entwicklung geht dadurch, dass man sehr viele Ressourcen dort reinsteckt. Konzeptionell ist die Entwicklung eher langsam, aber dadurch hat man den Eindruck, dass sich, sage ich mal, der Grad der Intelligenz verbessert. Aber letztendlich ist es einfach die große Datenmenge.
Trotzdem noch mal, was ich auch vorher gesagt habe, also dass Maschinen jetzt ein Bewusstsein entwickeln. Ich denke, davon sind wir, obwohl die Entwicklung jetzt so schnell zu sein scheint, noch sehr weit entfernt. Bis das passiert, muss wirklich etwas konzeptionell völlig anderes entwickelt werden, bezüglich auch der Architektur, der Trainings, der Algorithmen. Und wenn man diesen Quantensprung nie erreicht, dann werden wir auch nie an diesen Zeitpunkt kommen.
Carsten Roemheld: Okay also, da sind wir noch ein Stückchen weg. Aber wie sieht es mit der Regulierung aus? Kann die Regulierung denn überhaupt mit dieser Entwicklung Schritt halten? Sie haben vorhin ein paar gute Aspekte genannt, an denen man dran ist, aber man hat das Gefühl, wie in vielen anderen Bereichen auch, dass die Regulierung doch immer einen kleinen Schritt hinten ansteht und nicht ganz mitkommt. Wie ist es aus Ihrer Sicht in dieser Frage?
Gitta Kutyniok: Das sehe ich schon als Problem. Ich denke, die Entwicklung muss schneller gehen. Also wenn man mal schaut, der europäische AI Act hat mehr als zwei Jahre gedauert. Bis dahin ist viel passiert. Die “Large Language Models” sind aufgekommen, die jetzt auch noch nicht so sehr bedacht sind in den Gesetzen, über die jetzt entschieden wurde. Von daher, aus meiner Sicht, was extrem wichtig ist, ist, dass den Politikern und Politikerinnen klar ist, dass man schneller handeln muss und dass man dies auch in engerer Kooperation mit der Wissenschaft tun muss. Denn nur die Wissenschaft sieht, wo die Forschung hingeht und was quasi die nächsten Schritte sind, und das muss eigentlich schon im Voraus in die Gesetze in gewisser Weise einfließen.
Nur durch diesen Schulterschluss kann man erreichen, dass man eine sinnvolle Regulierung auch weltweit erreicht, und hoffentlich dann schnell genug, um, sagen wir mal, gefährlichen Entwicklungen vorzubeugen.
Carsten Roemheld: Daraus entnehme ich, dass Sie der Meinung sind, aktuell sind doch nicht unbedingt die richtigen Experten bei der Beratung der Politik dabei, als dass das gewährleistet wäre. Sie sind also der Meinung, da müsste man noch ein bisschen aufholen. Wenn dieser Schulterschluss hergestellt werden soll, braucht man einfach noch ein paar mehr Fachleute und Experten, wie Sie zum Beispiel, die die Bundesregierung oder die Politik allgemein in diesen Fragen beraten. Das ist doch wahrscheinlich richtig?
Gitta Kutyniok: Ja, das würde ich so sehen.
Carsten Roemheld: Okay, prima, zum Abschluss vielleicht noch eine persönliche Frage. Ich habe aus Ihren Ausführungen bisher entnommen, dass Sie insgesamt etwas weniger skeptisch sind. Es gibt ja die Dystopen, die eine ganz große Gefahr für die Menschheit sehen. Aus Ihren Ausführungen hab ich entnommen, dass Sie diese Gefahr eben nicht ganz so ausgeprägt sehen. In der Summe: Glauben Sie, dass uns die Künstliche Intelligenz eher sehr stark helfen wird in den nächsten Jahren, oder glauben Sie, dass die Gefahren doch irgendwann so zum Tragen kommen, dass die Künstliche Intelligenz auch für die Entwicklung insgesamt gefährlich werden könnte?
Gitta Kutyniok: Also, ich persönlich sehe sehr viele Vorteile von KI für die Entwicklung der Gesellschaft in eigentlich in allen Bereichen, in dem Sinne, dass uns KI ein wirklich extrem wertvoller Helfer sein wird. Denken Sie zum Beispiel auch an den demografischen Wandel. Auch dort ist es so, dass zum Beispiel Roboter älteren Menschen dann helfen können. In dem Sinne sehe ich eigentlich sehr positiv in die Zukunft. Ich denke, wir leben in wirklich sehr, sehr spannenden Zeiten, wo sich Dinge sehr positiv entwickeln. Aber wie gesagt, die Regulierung, das ist etwas, was mir vielleicht auch etwas Sorgen macht auf der anderen Seite. Ich denke, dort muss die Politik jetzt agieren und richtig agieren und auch schneller agieren. Wenn das passiert, dann, denke ich, stehen wir vor einer sehr interessanten und sehr guten Zukunft, wo uns dann KI wirklich für die Zukunft in allen Bereichen helfen wird.
Carsten Roemheld: Das hört sich doch sehr gut an, ich habe das Wort positiv vor allen Dingen mitgenommen. Zum Schluss unseres Gespräches, Frau Professor Kutyniok, vielen, vielen Dank für Ihre tollen Einblicke, für das sehr spannende Gespräch. Auch Ihnen, liebe Zuhörer, vielen Dank für Ihr Interesse. Wir hoffen, dass wir Ihnen heute wieder ein paar interessante und spannende Einblicke gebracht haben. Ich habe heute eine Menge gelernt, muss ich sagen, und es ist sicherlich einer der Bereiche, von denen ich am wenigsten Ahnung habe bei meinen ganzen Gesprächen. Insofern war das wirklich sehr, sehr lehrreich, hier mal ein bisschen einen Blick in die Zukunft zu wagen. Also vielen Dank für Ihr Interesse. Wir sehen uns hoffentlich beim nächsten Mal oder bei einem der anderen Formate, die wir für Sie bereitstellen. Viele herzliche Grüße!
Ihr Carsten Roemheld