Carsten Roemheld: Spätestens seit dem Siegeszug der Chatbots und KI-Assistenten in den vergangenen Monaten von DeepL über ChatGPT bis zu Microsofts Copilot, ist eine Debatte entbrannt um die gegenwärtige Leistungsfähigkeit von KI, die künftigen Einsatzfelder, die Gefahren, den Nutzen und die Grenzen der neuen Technologie. Im Zentrum steht oft die Angst, Maschinen könnten uns alsbald mit ihrer Leistungsfähigkeit übertrumpfen oder gar ersetzen, also überflüssig machen. Garniert wird das gerne mit einem Doom-Szenario, bei dem Maschinen die Herrschaft übernehmen. Sind solche Überlegungen realistisch? Was kann die Art von KI leisten, die wir heute kennen und was nicht? Und welche künftigen Entwicklungspfade sind denkbar? Was haben wir zu fürchten, und wovor brauchen wir uns nicht zu sorgen? Darüber sprechen wir mit Ralf Otte. Er ist Professor für Industrieautomatisierung an der TH in Ulm und hat in mehreren Unternehmen in den Feldern Data Mining, Business Intelligence und Automation gearbeitet. 2021 erschien sein Buch „Maschinenbewusstsein“, indem er die möglichen Stufen der KI beschreibt. Er stellt auch die Frage, wie weit wir technisch gehen wollen und welche physikalisch-technischen Grenzen bei unterschiedlichen Technologien bestehen, wenn es um die Erzeugung eines Bewusstseins geht. Sein aktuelles Buch „KI für Dummys“ ist 2023 in der zweiten Auflage erschienen.
Seine zentrale Botschaft: Stand heute existiert keine KI mit Bewusstsein, Gefühlen oder einem Wollen. Letztlich liefert die Technik heute bloß so etwas wie kluge Mathematik. Die reicht aus, um mit maschinellem Lernen induktiv vorzugehen. Das heißt, KI kann nicht nur Hypothesen empirisch testen, also Reduktion betreiben oder logische Schlüsse ziehen. Sie kann auch aus der Beobachtung und Auswertung von Daten Muster erkennen und Theorien daraus ableiten, also von Einzelfällen auf das Allgemeine Schließen, Lernen und Schlussfolgern. Das alles aber führt laut Professor Otto bestenfalls zu Ansätzen kreativer Intelligenz. Es ist zwar möglich, neue Zusammenhänge aus den Daten herauszufinden. Doch scheitert die aktuelle KI an simpelsten alltäglichen Verrichtungen, zum Beispiel auch, weil sie nicht sehen kann. Wieso solche Fertigkeiten von reiner Software auch in Zukunft nicht zu erwarten sind, unter welchen technischen Voraussetzungen überhaupt so etwas wie ein Bewusstsein erlangen könnte und welche Grenzen wir Menschen bei der Entwicklung von Maschinen besser ziehen sollten - um all das geht es in unserem Podcast heute.
Mein Name ist Carsten Roemheld. Ich bin Kapitalmarktstratege bei Fidelity, und ich freue mich sehr auf mein Gespräch mit Professor Ralf Otte beim Kapitalmarktpodcast von Fidelity. Herzlich willkommen, Herr Otte!
Ralf Otte: Ja, schönen guten Tag! Danke für die Anmoderation. Ich freue mich auch sehr.
Carsten Roemheld: Bei der Diskussion über die Risiken von KI zeigt sich einmal mehr die Angst des Menschen vor dem Kontrollverlust an die Maschine. Es werden vielerlei Dystopien aufgebaut von der künstlichen Intelligenz, die dann die Welt kontrolliert und die Menschen dabei unterwirft. Damit das nicht passiert, kommen von allen möglichen Seiten auch Aufrufe an die Politik, nicht nur von renommierten KI-Forschern, sondern auch von anderen Intellektuellen wie zum Beispiel dem israelischen Historiker Yuval Noah Harari, der sagt: Wir müssen KI regulieren, bevor sie uns reguliert. Aber für so was bräuchte die KI wahrscheinlich erst mal einen eigenen Willen. Kann heutige künstliche Intelligenz überhaupt etwas wollen? Und wie könnte dann eine effektive Regulierung aussehen?
Ralf Otte: Ja, das sind jetzt verschiedene Fragen, die wir diskutieren wollen. Also, um es mal ganz gleich am Anfang zu sagen, die KI von heute, die will nichts. Dennoch ist es so: Neue Techniken sind immer gewöhnungsbedürftig für die Menschen. Viele Menschen haben Angst davor, aber das ist nicht neu, das gibt es seit hunderten, wenn nicht gar seit tausenden Jahren. Insofern ist das völlig verständlich, dass Menschen heute eine Art Sorge haben vor dem, was auf sie zukommen wird. Was wird denn auf sie zukommen? Na ja, wir haben vor 50 Jahren Taschenrechner entwickelt. Das kam auf die Menschen zu, und mit diesen Taschenrechnern konnten wir viele Dinge effizienter machen. Das ist die eine Seite. Die andere Seite, die wir dadurch sehen, ist: Die Menschen können immer schlechter rechnen. Also wenn ich meine Studenten angucke und das mit den Rechenfähigkeiten vergleiche, die wir früher hatten, dann ist das schon ein großer Unterschied. Und jetzt kommt eine neue KI, mit der kann man sprechen: Es ist zu erwarten, dass dadurch die Sprachfähigkeiten der Menschen zurückgehen wird, weil wir diese KI benutzen. All das sind Dinge, die sich langsam entwickeln werden. Davon geht jetzt eine disruptive Gefahr aus, wir sollten keine Sorge haben. Aber natürlich verändern wir Menschen uns durch den Einsatz der Technik. Natürlich ist es gefährlich. Das werden wir heute noch diskutieren. Aber vor der KI selber, vor diesem Taschenrechner oder was immer jetzt dahintersteht, da brauchen wir keine Angst haben. Die wird sich nicht erheben, die wird uns nicht bekämpfen und die wird auch keine Macht über uns gewinnen.
Carsten Roemheld: Ich fand diesen ersten Ansatz von Ihnen sehr bemerkenswert, weil Sie jetzt gar nicht über die KI gesprochen haben, sondern auch über den Menschen, und es klang fast so: Je mehr sich der Mensch auf die Technologie verlässt, desto dümmer wird er im Laufe der Zeit. Also ist es tatsächlich etwas, was zu einer Verkümmerung gewisser menschlicher Fähigkeiten führen kann, wenn wir uns zu viel auf die Technik verlassen?
Ralf Otte: Aber eindeutig ist das so. Also ich würde mal vermuten, dass die Menschen vor 100 Jahren körperlich etwas fitter waren als wir heute. Heute lassen wir alle Dinge für uns machen, wir tragen unsere Einkäufe nicht nach Hause, nichts. Verkümmern ist vielleicht zu negativ, wir verändern uns durch den Einsatz von Technik. Ich bin Ingenieur seit 30 Jahren, setze KI auch seit 30 Jahren in der Industrie ein, sehe, was wir positiv damit machen können, sehe aber auf der anderen Seite, dass gewisse Fähigkeiten und Fertigkeiten dadurch nicht mehr gebraucht werden von den Menschen. Und langfristig wird es dazu führen - sie sagten jetzt verkümmern -, dass die Leistungsfähigkeit des Menschen sich verändern wird. Das ist definitiv so. Also eine große Sorge, die wir haben im Bildungssystem, eine große Sorge, die Arbeitgeber haben sollten, ist zum Beispiel, dass Menschen zu uns kommen, die nicht mehr richtig rechnen und auch nicht mehr richtig sprechen können. Das sind alles Sorgen, die langfristig sind und die wir uns dann anschauen müssen - aber das ist auch etwas, was von Technik immer ausgeht, von jedem Kran und jedem Bagger. Wenn ich durch Ulm gehe, da stehen überall Bagger und baggern irgendwelche Schächte aus, das macht kein Mensch mehr. Da steht keiner mehr mit Muskelmasse, sondern dafür sind wir Ingenieure da, wir bauen sowas.
Carsten Roemheld: Aber das finde ich sehr spannend, weil dieser Aspekt bisher eigentlich in der Diskussion doch eher zu kurz kommt. Deswegen war es mir wichtig, darauf mal zu sprechen zu kommen
Ralf Otte: Sie haben jetzt schon große Leute der KI genannt wie Harari, die uns Angst machen, dass die KI die Menschheit übernimmt, eine Singularität. Das wird alles nicht passieren, und wir werden auch gleich sehen, warum. Aber dennoch verändert diese Technik die Menschen, die Menschheit. Das war schon immer so, und das wird so bleiben.
Carsten Roemheld: Jetzt nochmal zu dieser Frage der Regulierung, die ich auch eingebracht habe. Wie könnte denn eine effektive Regulierung überhaupt aussehen? Gibt es denn sowas oder könnte es sowas wie einen globalen Konsens geben, wie man diese Regulierung effektiv einbringen kann?
Ralf Otte: Ja, also das ist ja zweischneidig. Ich bin ein Freund von Regulierung, ich freue mich gerade über den europäischen AI-Act. Ich lese das genau und denke mir: Gut, dass wir da was gemacht haben. Schlecht vielleicht, wie wir es gemacht haben. Das ist das eine. Wir müssen gewisse Dinge regulieren, wir müssen auch die Atomkraft regulieren, Wir können nicht einfach irgendwo Atombomben bauen, wie wir wollen, wir müssen die Genetik regulieren. Das ist also ein positiver Aspekt: Wir haben etwas zu regulieren. Das andere ist, und da sollten wir alle hellhörig werden: Also wenn diejenigen, die etwas bauen, nach Regulierung schreien, da denke ich mir, wieso ist James Watt nicht rumgelaufen und wollte die Dampfmaschine regulieren, sondern hat eine Erfindung gemacht und hat gesagt: Ihr lieben Menschen, ihr braucht das. Und das ist jetzt anders. Und wenn man darüber nachdenkt, gibt es natürlich Gründe.
Man kann dadurch seine Technik enorm groß machen, wenn man sagt, ich habe etwas gebaut, das ist so mächtig, das kann nur noch die UNO regulieren, das ist zu groß für ein einzelnes Land. Dann hat man seine Technik sehr groß gemacht. Das ist das eine. Das andere, warum ich glaube, dass einige Leute das regulieren wollen, ist: Unsere Politiker verstehen nichts von dem, was da zu entscheiden ist. Das geht ja auch gar nicht. Also wird gesagt, Leute, wir müssen das regulieren, aber ihr lieben Politiker, ihr könnt das nicht, kein Problem - ich schicke euch mal meine Fachexperten. Und dann wird das in dem Sinne reguliert, wie diese großen Konzerne das wollen. Ich glaube, so ist es immer, und das ist auch der Plan jetzt, und dann werden die Konzerne aus der Regulierung gestärkt hervorgehen und der Mittelstand mal wieder geschwächt. Ich vermute, dass es so läuft, denn Kapitalismus läuft so. Ich will auch nicht mal sagen, dass es negativ ist. Wir müssen nur verstehen, warum gerade von den Big-Tech-Konzernen nach Regulierung gerufen wird: Weil es sie stärker machen wird.
Carsten Roemheld: Ja, das ist ein sehr spannender Punkt, der sicherlich auch vor dem Hintergrund der Aktienmarkt-Performance des vergangenen Jahres ganz interessant ist, weil KI wesentlich den amerikanischen Aktienmarkt nach vorne gebracht hat durch die großen Erwartungen, die damit verbunden werden. Jetzt noch mal zu diesem Thema, warum die Menschen davor Angst haben oder was die KI ersetzen kann? Für viele muss es ja nicht unbedingt die Apokalypse sein, sondern manche fürchten auch, dass der Mensch einfach in bestimmten Bereichen ersetzt werden kann. In vielen Tätigkeiten ist die KI einfach deutlich schneller und besser als der Mensch. Das haben Sie ja gerade schon beschrieben. Aber überzeugt sie hauptsächlich im mathematischen Raum und in bestimmten anderen Aspekten gibt es noch keine großen Gefahren, dass sie den Menschen ersetzen kann? Wie sehen Sie das?
Ralf Otte: Ich möchte das gestuft beantworten: Also die Apokalypse wird nicht kommen. Ich selber gehe in jeden Hollywood-Film, der sowas zeigt, wenn die KI die Macht übernimmt. Ich finde das einfach schön anzusehen, ich finde das spannend, aber es hat nichts mit der Wirklichkeit zu tun. Das muss man klar trennen. Das ist dann Science Fiction. Warum? Wir reden von Taschenrechnern, wir reden von intelligenten Kühlschränken, wir reden von intelligenten Autos, was auch immer. Die haben weder Gefühle noch ein Wollen noch einen Willen. Also die übernehmen da einfach gar nicht.
Das heißt aber nicht, dass von den Systemen keine Gefahr ausgeht. Das sind ja verschiedene Dinge: Also eine wirklich apokalyptische Gefahr geht überhaupt nicht davon aus, das ist wirklich eine Nebelkerze. Wenn ich jetzt KI in das System hineindrücken will, an viele Stellen, wo das die Menschen nicht wollen, dann würde ich immer woanders hinzeigen, würde sagen, guck dahin, da ist die Gefahr, und während da alle hingucken, kann ich in Zwischenzeit die da ausrollen, wo ich das ausrollen möchte. So wird es ja auch gemacht. Wir können später noch im Detail darüber reden, warum die KI als Technologie nicht gefährlich werden kann.
Das andere ist: Der Einsatz der Technologie, von dem gehen natürlich viele Gefahren aus. Also, wenn ich jetzt irgendwie lese, das jetzt propagiert wird, die KI soll verwendet werden im Gerichtssaal, das ist eine erhebliche Gefahr. Sobald sie eine Maschine einsetzen, die über die Grundrechte von Menschen entscheidet, ist etwas falsch. Eine Gesellschaft, die das zulässt, wird eine Maschinengesellschaft, und ich glaube, dass wir das nicht wollen. Also wer möchte denn langfristig, dass die Maschinen Macht über die Menschen übernehmen? Aber das kann auch die heutige dumme KI, die auf einer Skala von eins bis acht auf Stufe drei steht heute - selbst diese kann natürlich eine Macht übernehmen, wenn wir ihr diese Macht geben, indem wir einfach sagen, die kann Recht sprechen im Gerichtssaal oder die kann irgendwo bei großen Konzernen in der Personalabteilung sein. Auf einmal bekommt sie Macht. Aber nicht per se, weil die Technik so klug ist, sondern weil die Menschen sie einsetzen, geht von dem Einsatz dieser Maschine eine Gefahr für die Menschen aus.
Das andere ist: KI wird wie jede Technik Menschen freistellen. Davon können Sie ausgehen. Aber das ist ja der Sinn von Technik. Also warum baue ich denn Bagger? Weil ich nicht mehr 100 Leute haben will, die einen Kanal ausbaggern, sondern drei. Also nehme ich einen Bagger. Darum hab ich ja auch einen Computer erfunden, weil ich einfach zehnmal effizienter bin mit dem Computer, als wenn ich es mit Schreibmaschine machen würde. Also werden immer und immer, das wird immer so bleiben, Maschinen Menschen ersetzen können, an gewissen Stellen und an gewissen anderen Stellen eben nicht. Die Frage ist: Wo trifft es diesmal die Menschen in dieser Generation und wo nicht? Darüber können wir noch sprechen.
Carsten Roemheld: Also, KI sorgt für eine Verbesserung der Effizienz, insgesamt, sorgt für neue Berufsfelder, ersetzt alte, insofern ist hier ein Prozess im Gange. Aber Sie hatten gerade schon mal über verschiedene Intelligenzstufen gesprochen. Das würde mich nochmal interessieren. Können Sie diese Stufen noch mal ein bisschen einordnen und noch mal erklären, was der Mensch alles mehr kann oder wo genau die Grenze heute verläuft? Und wo sich die Grenzen vielleicht noch hin verschieben können in Zukunft?
Ralf Otte: Ja, also, das ist eine Einteilung, die ich jetzt mal für meine Studenten gemacht habe vor vielen Jahren, weil einfach gefragt wurde, wie intelligent ist das heute? Was jetzt alle fragen, das haben Studenten schon vor zehn Jahren gefragt. Ja, heute ist die KI in aller Munde, durch ChatGPT ist das irgendwie wieder aufgepoppt in der Gesellschaft. Aber die KI gibt's ja seit 1950, da ist sie entwickelt worden. Und wir Ingenieure und die Informatiker und Mathematiker und Physiker, die entwickeln das permanent weiter, und es kommen immer neue Generationen von Studenten, denen wir unser Wissen weitergeben. Da gibt es so Wellen von der KI. Wir sind heute in der dritten Welle. Jetzt ist die Gesellschaft, guckt jetzt wieder drauf, stellt viele Fragen. Ich sage übrigens voraus: In drei, vier Jahren will von keiner mehr was von KI wissen. Da kommt ein großes Tal, und dann geht es wieder hoch mit den Quantencomputern, das machen wir vielleicht später im Ausblick.
Sie haben nach den Stufen der KI gefragt. Dann würde ich sagen, wir können die Stufen der Intelligenz per se mal anschauen. Ganz unten gibt es intelligente Systeme, so eine Stubenfliege etwa hat eine relativ große Intelligenz. Die fliegt ja so durch die Gegend. Wir nennen das deduktive Intelligenz. Die können wir eben künstlich nachbauen. Die hat auch so eine Stubenfliege, und diese Art der Intelligenz, deduktiv bedeutet, logisch, korrekt schlussfolgern. Sie haben Signale von draußen, sie können sie logisch korrekt verarbeiten und kommen zu korrektem Handeln. Ja, also sagen wir, ein Mensch fasst nur einmal eine Herdplatte an, und es ist logisch korrekt, kein zweites Mal hinzufassen, wenn die heiß ist. Ein Mensch rennt aber nicht weg, wenn ein Tiger im Fernsehen erscheint. Das ist logisch korrekt, auf dem Sofa sitzen zu bleiben, und das machen sie, das machen Menschen so, und diese Art der Intelligenz können wir künstlich nachbauen. Ich nenne das die deduktive Intelligenz, die logisch korrekt schlussfolgernde Intelligenz oder die Adäquat-Intelligenz. Das ist die Grundlage von allem: Wenn ein System nicht logisch korrekt arbeitet, können sie es wegschmeißen. Wenn sie in ihr Word System „Hello World“ reinschreiben, und da steht dann was anderes drin, dann können sie es wegschmeißen. Weil sie erwarten, wenn sie was in die Tastatur eintippen, dass das auf dem Bildschirm erscheint. Also: Alle Systeme, mit denen wir uns umgeben, arbeiten logisch korrekt, sonst brauchen wir sie nicht. Das ist die niedrigste Stufe der Intelligenz.
Die Frage ist, reicht das? Bleiben wir bei der Stubenfliege? Die Stubenfliege, die also deduktiv gut schlussfolgern kann, ja, die hat Instinkte, das ist in den Instinkten hinterlegt, die kommt auf einmal in ihr Büro. Das ist für sie völlig ungewöhnlich. Da haben sie Glasscheiben, das kannte die Natur nicht, und jetzt fliegt die permanent gegen diese Glasscheibe an, bis sie tot runterfällt. Da stimmt was nicht mit ihrer Intelligenz. Also, das ist nicht gut gemacht in dem System, denn sie ist gerade tot, die Fliege. Was kann sie nämlich nicht? Die Umgebung hat sich so stark geändert, dass für die Fliege das logisch korrekte Verhalten nicht ausreicht. Sie hätte lernen müssen, dass sie dort nicht durchkommt, obwohl sie durchgucken kann. Ja, sie kann durch die Scheibe durchschauen und fliegt immer wieder dagegen, bis sie runterfällt. Da werden sie sagen, das macht doch jeder. Gar nicht! Ich habe eine Katze, andere Hunde, die stoßen einmal in ihrem Leben an die Glasscheibe an, und dann laufen die nicht mehr dagegen. Die haben also gelernt.
Und dieses Lernen nennen wir jetzt induktive Intelligenz. Also es ist die zweite Stufe. Erste ist deduktiv, zweites ist induktiv. Das können wir natürlich nachbauen, und das, was wir da künstlich nachbauen, das ist das, was heute Deep Learning heißt. Kognitive Intelligenz ist lernende Intelligenz. Der Fachbegriff ist maschinelles Lernen oder Deep Learning. Da sind wir heute. Da ist die KI. Die kann aus Daten der Umgebung lernen, so wie die Katze lernt: Da in der Umgebung ist eine Scheibe. Ich laufe dagegen, geht nicht. Ich habe es gelernt. Übrigens muss die Katze nicht tausendmal dagegen laufen. Wir werden gleich darüber reden, was die heutige KI alles nicht kann, nämlich nicht aus Einzelfällen lernen. Sie brauchen Millionen Beispiele, aber sie kann zumindest lernen. Das ist ein großer Vorteil. Das ist die zweite Stufe.
Und dann haben wir so die dritte Stufe. Das ist so ChatGPT, AlphaGo und die ganzen Systeme, die verschmelzen die Deduktion mit der Induktion, also die können logisch korrekt schlussfolgern, auch verallgemeinernd schlussfolgern. Sie können lernen aus Daten aus der Umgebung, das ist die Induktion, Und wenn sie das verschmelzen in einem System, haben wir ein kognitives System. Was machen kognitive Systeme? Der Mensch ist so was natürlich auch. Der lernt aus der Umgebung und kann das Gelernte verallgemeinern. Menschen können das. Katzen können das. Und heutige KI-Systeme können das auch. ChatGPT kann so was. Woran merkt man das? Nun: Wir können mit dem System über Dinge reden, die nicht antrainiert wurden. Wenn sie mit im System reden, was alles gelernt wurde, dann ist es rein induktiv. Wir haben ein induktives System, das hat was gelernt, darüber können sie mit dem Verhandeln und sprechen. Und wenn man aber aus diesem Raum hinausgeht in Räumen, die nicht antrainiert wurden, und die Systeme arbeiten da noch korrekt, sind das kognitive System. Die haben also aus ihrem gelernten Wissen extrapoliert in neue Zustandsräume. Das können die Systeme, und das nennen wir auch schon eine Art Kreativität, richtige Antworten geben, eben in völlig ungelernten Datenräumen.
Und jetzt sind wir beim Punkt, wie gut ist da die KI? Da ist sie eben viel, viel schlechter als der Mensch. Also wir Menschen können tatsächlich extrem gut extrapolieren. Ich gebe ihnen ein Beispiel: Ich habe zwei Töchter. Die haben in der Kleinstadt gelernt, Auto zu fahren. Und dann setzen die sich ins Auto, und dann fahren sie nach Frankfurt oder nach Wiesbaden. Völlig undenkbar für eine KI heute. Die kann dort Autofahren, wo sie trainiert wurde, und wenn sie wollen, dass sie auf 30 Straßen in München fährt, dann trainieren sie diese 30 Straßen ein, und dann fährt das System. Aber es kann nicht ablegen und nach Berlin fahren. Das heißt, in wirklich unbekannten Datenräumen zu arbeiten, ist für den Menschen gut möglich, auch für Tiere gut möglich, und für die KI heute gar nicht. Deswegen nennen wir sie auch nur pseudokreativ.
Sie können Bilder malen, sie können mit ihm Melodien machen, aber immer nur im gelernten Datenraum. Also, wenn sie einer KI Porträts Alter Meister zeigen - das ist ja verkauft worden bei Christie's, dieses Bild für 400.000 Dollar - zeigen sie dem System 15.000 Porträts Alter Meister, und dann malt es eben den 15.001ste Porträt und das zweite und das dritte und das vierte. Und dann sagen sei, die kann ja malen. Ja klar, wir haben 15.000 Bilder gezeigt, und jetzt kann die KI beliebig viele Bilder Alter Meister malen. Der Mensch könnte jetzt Formel-1-Autos malen oder Häuser. Das kann die KI nicht. Wir haben der nur antrainiert, Porträts zu malen, dann malt die KI alte Porträts. Wenn wir wollen, dass die Formel-1-Autos malt, dann müssen wir ihr Formel-1-Autos vorher antrainieren. Das sind so die Unterschiede.
Carsten Roemheld: Aber ist das nicht eine Frage der Datenvielfalt? Also: Je mehr Daten ich habe, und wir sammeln ja im Moment fleißig Daten insgesamt in der Welt. Dann ist doch nur eine Frage der Zeit, bis die genug Daten in allen Bereichen hat, um dort auch entsprechende Lernfähigkeiten aufzubauen, oder?
Ralf Otte: Ja, das wäre genau die Antwort der Logiker, der Informatiker. Wenn man da nicht tief genug darüber nachdenkt, hat man genau die These, die Sie haben. So machen das die Leute, die autonom fahrende Autos produzieren. Die sagen: Okay, wir wissen um die Problematik der Extrapolation, wir bauen ein autonom fahrendes Fahrzeug, wir trainieren das in Phoenix, Arizona und in San Francisco irgendwo, und dann wissen Sie, das reicht nicht. Wir müssen noch an den Nordpol, ah, wir müssen an den Südpol, ah, wir müssen in die Wüste. Und die Idee ist jetzt einfach, Daten aus der ganzen Welt zu sammeln, um die Autos zu trainieren. Ja, wo führt es denn hin? Jedes Auto hat ungefähr eine Million Kilometer gefahren, ob es im Simulator gefahren ist oder in echt, und zum Schluss verlieren die eine Lizenz nach der anderen. Sie haben es ja mitbekommen, Cruise darf in Kalifornien nicht mehr fahren, Tesla hat eine riesige Rückholaktion. Obwohl also die Leute wissen um die Problematik und sagen, wir müssen die Lerndatengruppe größer machen, größer machen, größer machen, funktioniert es am Ende nicht.
Warum? Weil wir nicht in der Lage sind, alle etwaigen Einzelfälle einzutrainieren. Und der Mensch braucht das nicht. Das ist ja gerade der Unterschied: Der Mensch ist so exzellent in der Extrapolation. Extrapolation bedeutet: Umgehen mit Einzelfällen, die noch nie da waren, die ihm auch nicht trainiert werden konnten, weil man nicht alle Einzelfälle trainieren kann. Und darauf richtig zu reagieren. Das können Menschen, und das können autonom fahrende Fahrzeuge eben gar nicht. Und es könnte der Ansatz sein: Trainiert doch die Systeme immer mehr mit größeren Daten, so macht man das. Trotzdem können Sie ein solches System nicht in Bereiche einsetzen, die hochkritisch sind. Wir Ingenieure würde nie eine KI einsetzen, um ein Kernkraftwerk zu steuern. Es könnte ja ein blöder Einzelfall auftreten, der noch nie war und nicht eintrainiert war, und dann gibt es eine falsche Reaktion, und dann macht das Kernkraftwerk irgendwas Blödes. Also, wo es wirklich wichtig ist, können Sie die KI eben nicht einsetzen. Wo es nicht so wichtig ist, ich sag mal, Social Media, da werden sie überall KI finden, denn dann ist es auch ein bisschen egal, ob die sich mal irrt. So muss man das unterscheiden. Also ist es wirklich richtig kritisch, vergessen sie die KI. Müssen die Antworten nur meistens korrekt sein: Da können sie die KI einsetzen. Und da wird sie auch eingesetzt.
Carsten Roemheld: Und das ist der Grund, warum Sie vorhin angedeutet haben: Es kann sein, das wir immer wieder in ein Tal fallen und die Leute jetzt nicht mehr so viel davon wissen wollen, wenn man nicht feststellt, dass das Ganze sozusagen weitergeht in der gleichen Art, wie wir es bisher erlebt haben. Ich versuche, das aus Kapitalmarktsicht zu sehen, weil so viel Fantasie auch damit verknüpft worden ist, dass man meint, das Ganze wird extrapoliert in die Zukunft, in alle Ewigkeit mit Wachstumsraten. Aber Sie beschreiben ja gerade, dass es da durchaus Schwachstellen gibt und dass es länger dauert und dass man halt bestimmte Bereiche eben im Moment gar nicht beackern kann und deswegen auch wieder ein Tal kommen wird.
Ralf Otte: Also, das ist viel schlimmer, das ist ja viel schlimmer! Es geht nicht darum, dass es da Schwachstellen gibt, sondern es gibt mathematische Beweise. Einer ist von Kurt Gödel, einer ist der Satz von Rice: Wir reden über große Mathematik des letzten Jahrhunderts, über Jahrhundertgenies. Die haben schon nachgewiesen, dass Systeme, die rein deduktiv arbeiten, an ihre Grenzen kommen müssen. Dass sich unendlich viel Wahrheiten nicht erschließen können, obwohl sie logisch korrekt sind. Das ist das Problem der Prädikatenlogik zweiter Ordnung, wenn ich einen Fachbegriff sagen darf. Das ist mathematisch bewiesen. Das heißt, die KI-Systeme von heute können gewisse Grenzen prinzipiell nicht überschreiten. Das ist keine Frage der Datenmenge, das ist keine Frage der Rechenleistung, sondern die Mathematik hat gesagt, hier ist die Grenze, solange die KI nur auf mathematischen Verfahren basiert.
Wenn Sie in so einen Computer mal reinschauen, dann finden Sie kein neuronales Netz. Da ist keins. Das sind Matrizen, Operationen mit Null und Eins, was auch immer. Da finden Sie kein neuronales Netz. Das gibt's gar nicht. Das ist wie eine Metapher, die wir benutzen, und die Menschen da draußen glauben, da laufen jetzt neuronale Netze so im Computer rum. Nein, die neuronalen Netze sind in meinem Gehirn: Und wir haben die Mathematik des Gehirns nachgebaut. Und die haben wir in einem Computer getan. Und jetzt denken alle, der Computer könnte doch dann so leistungsfähig werden, wie das Gehirn. Das geht aber nicht, denn hier oben im Gehirn läuft keine Mathematik, im Computer läuft nur Mathematik. Also unterliegt die KI heute allen Begrenzungen sogenannter formaler Systeme, und die kennen wir alle. Es ist das Paradox der Deduktion, das Paradox der Induktion, ist alles bekannt. Das heißt, diese, KI, die wir heute haben, stößt gerade an die Mauern, die sie nicht überschreiten kann. Ich sage Ihnen voraus: Autonomes Fahren wird es nie geben.
Carsten Roemheld: Das wird für einige überraschend sein.
Ralf Otte: Nicht für die, die mich kennen. Ich sage das seit 2015 auf großen Konferenzen, da sind früher die Leute aufgestanden und rausgegangen und haben mir dann zugerufen, Herr Professor Otto, nur weil sie einen Titel haben, können sie nicht so einen Mist erzählen. 2021 fahren wir voll autonom in Deutschland. Große Automobilkonzerne, wo ich sprechen durfte - oder auch noch sprechen darf. Ich bin da ja immer noch eingeladen - da steht heute keiner mehr auf und beschimpft einen. Sondern alle sagen, wie kommen sie da drauf? Wieso fahren die Dinger nicht? Das liegt daran, dass sie zum Autofahren mehr als Mathematik brauchen.
Sie haben mich ja nach den Stufen der Intelligenz gefragt. Ich bin ja erst bei Stufe drei stehengeblieben. und jetzt kommt der Punkt. Die Stufe eins, die Deduktion, die Induktion, die drei die Kognition. Das können sie komplett mathematisieren. Diese drei Stufen können sie mit Mathematik komplett aufschreiben, und weil sie das können, können wir diese Intelligenz in den Computer reintun. Und deswegen haben sie heute die KI auf der Stufe eins, auf der Stufe zwei, auf der Stufe drei. Jetzt kommt ein Riesen-Gap: Es gibt nämlich intelligente Systeme, wie zum Beispiel Menschen oder Katzen, die sind nicht nur deduktiv, intelligent, induktiv und kognitiv. Die haben noch eine neue Intelligenz: Bewusstsein. Das ist eine völlig andere Intelligenzform. Die können sie gar nicht auf dieser Geraden der Intelligenzstufen aufzeichnen. Wir sagen als Mathematiker, die sind orthogonal dazu, die sind so völlig anders. Und jetzt ist es wichtig, dass man versteht, diese Intelligenz, die bewusste Intelligenz, können sie gar nicht mathematisch bauen. Es gibt keine Mathematik, um Bewusstsein zu erzeugen. Damit kann ich ihnen jetzt schon sagen, diese ganzen Laptops und so weiter, die werden nie Bewusstsein bekommen, weil Bewusstsein ein physikalisches, chemisches und biologisches Phänomen ist und kein mathematisches. Also immer, wenn wir mit Mathe Thematik zaubern auf den Computern, was wir ja tun, da passiert Deduktion, Induktion und Kognition, und das können wir ausreizen, bis das ist ja wirklich ein intelligentes System auf Stufe drei, das ist ja toll. Aber es kann nie Bewusstsein erlangen, weil das mit Mathematik nicht geht. Das geht aber trotzdem zu bauen. Der Mensch kann es ja auch. Wir Menschen haben ein Bewusstsein, und wir müssen uns ja fragen, was im Gehirn erzeugt denn das Bewusstsein, wenn es denn keine Mathematik ist, und dann erkennen wir, das sind biologische, chemische und auch physikalische Eigenschaften. Also müssen wir in der KI die nächste Stufe nehmen, und das wird auch passieren nach dem Tal der Enttäuschung. Ich sage ihnen voraus, in zwei, drei Jahren sagen alle: Hör mir auf mit dem ganzen KI-Mist, der funktioniert nicht! Natürlich nicht.
Es funktioniert in der Industrie heute schon, und es funktioniert auch morgen in der Industrie. Aber was meint der jetzt unterstellt? Das läuft jetzt überall an die Wand? Alle werden enttäuscht sein. Lass mich mit dem Mist in Frieden, was wir in der Zwischenzeit machen, wir Ingenieure, wir entwickeln uns von den Laptops weg, von den Supercomputern weg. Wir bauen grade an sogenannten neuromorphen Computern und Quantencomputern. Das ist das, was wir tun. Ich selber arbeite auf Quantencomputern, andere arbeiten auf neuromorphen Computern.
Warum tun wir das? Weil wir sagen, die Intelligenz muss physikalisch nachgebildet werden und nicht mathematisch, und ein normaler Laptop kann nur Mathe. Auf dem laufen nur formale Algorithmen. Bei einem neuromorphen Computer, da wird die Intelligenz komplett physikalisch nachgebaut, da laufen keine mathematischen Verfahren, und auf dem Quantencomputer ist es ähnlich. Da läuft ein bisschen Mathematik und ein bisschen Physik, nämlich die ganzen Quantenoperationen, und das ist die nächste Stufe. Wir implementieren gerade die in der Hoffnung, von der Stufe drei auf die Stufe vier zu kommen, sagen ja mal 2030. Dass wir einfach aus dem Tal wieder rauskommen. Wenn alle die KI zerrissen haben, sagen, der ganze Mist geht nicht, sagen wir: Ja, das stimmt das. Bewusste Systeme, die braucht man zum Autofahren, die brauchst du zum Sehen, zum Hören, zum Wahrnehmen. Für all das brauchst du Bewusstsein, und das können die Systeme heute nicht.
Wir Menschen können noch mehr. Da gibt es ja noch eine Stufe fünf: Systeme, die ihre Umgebung wahrnehmen können, die können irgendwann sich auch selbst wahrnehmen. Das sind dann selbstwahrnehmende Systeme. Das ist dann eine Art Selbstbewusstsein, dieses Thema, das hat der Mensch, das hat der Delfin, das hat vielleicht die Eule, ich glaub, Raben können sowas noch. Das können sie völlig ausschließen bei der Technik. Und das ist erst die Stufe fünf. Dann kommt ja noch die Stufe sechs, die sagt, wenn ich was wahrnehmen kann, meine Umgebung, dann kann ich vielleicht auch Wahrnehmung qualifizieren, also feststellen, ob die Wahrnehmung mir guttut. Also: Ist das eine positive Wahrnehmung für mich, oder ist das eine schlechte Wahrnehmung? Für einen Menschen ist das sehr selbstverständlich. Ich komme irgendwo hin und nehme etwas wahr von der Umgebung, sage, hier fühle ich mich nicht wohl, ich gehe weg. Oder ich gehe irgendwohin und sage, oh, das ist toll, hier fühle ich mich wohl, hier bleibe ich.
Das heißt, Menschen können ihre Wahrnehmung qualifizieren: Ist sie gut, ist sie schlecht. Tiere können das auch. Wir nennen das beim Menschen und beim Tier Gefühle. Also, es gibt Systeme, die haben Gefühle, letztlich qualifizieren sie ihre Wahrnehmungen. Für die Technik schon völlig ausgeschlossen, die kann ja nicht mal wahrnehmen. Insofern kann sie auch keine Wahrnehmung qualifizieren.
Und jetzt kommt die nächste Stufe: Wenn die Systeme Gefühle haben, ja, was macht denn ein Mensch? Schauen Sie dann, sagt der Mensch, ich will nur positive Gefühle. Der will auf einmal etwas, der hat ein Wollen. Also, wenn Systeme Gefühle haben, dann werden sie dazu tendieren, nur positive Gefühle zu bekommen. Sie wollen ihre positiven Gefühle maximieren und ihre negativen Gefühle minimieren. Sie bilden also einen Willen aus, entweder sich oder die Umgebung so zu ändern, dass sie mehr positive Gefühle bekommen. Dann haben sie also einen Willensprozess. Das ist die Stufe sieben. Und der Mensch oben drüber, der ist ein selbstbewusstes, wollendes System mit der Stufe acht, und da kommt die KI überhaupt nicht hin. Vergessen Sie es. In 200 Jahren nicht. Keine Chance. Was wir schaffen könnten, vielleicht in den nächsten 10, 20 Jahren, ist es, von der Stufe drei auf Stufe vier zu kommen, das ist mit technischen Systemen möglich. Ich arbeite selber daran. Das ist machbar, und das hoffe ich auch. Weil ich Systeme bauen will, die wahrnehmen können.
Carsten Roemheld: Und da haben die Quantencomputer einen wichtigen Anteil daran. Das heißt also, es ist auch eine Frage der Technik, wie weit man kommt mit dem Prozess.
Ralf Otte: Ja. Das führt vielleicht in die Irre, wenn man es auf die Quanten reduziert. Es ist so: Sie müssen die Intelligenz in der Physik verankern und nicht in der Mathematik wie beim Taschenrechner und so weiter. Das ist alles nachgebaut mit Schaltkreisen, die vorher mathematisch ausgerechnet sind. Das ist schon physikalisch, aber sie müssen die Deduktion, die Induktion und die Kognition in der Physik verankern, also ein System des maschinellen Lernens bauen, was physikalisch lernt, weil das macht hier oben der Mensch auch. Wenn Sie sich die neuronalen Netze im Gehirn ansehen, gehöre ich zu den Vertretern - der britische Physiknobelpreisträger Roger Penrose war der Erste - die sagen, im Gehirn funktioniert das Bewusstsein nur über Quantenprozesse. Dazu gibt es einen riesigen Fachstreit in der Community: Die einen sagen, das Gehirn braucht keine Quantenprozesse für das Bewusstsein. Wir anderen sagen, ohne Quantenprozesse geht's nicht. Und letztlich werden wir zeigen können, dass das so sein wird. Das Bewusstsein basiert auf Quantenprozessen. Also gehe ich jetzt in die Natur und sage, wo gibt's denn Quantenprozesse, ah: im Quantencomputer. Das ist also unsere Idee. Wir gehen auf den Quantencomputer, weil die Quantenprozesse da schon da sind. Und die wollen wir nutzen, um einfache Bewusstseinsprozesse zu entwickeln. Das ist der Plan, an dem wir arbeiten.
Carsten Roemheld: Noch mal kurze Zusammenfassung. Also Sie sagen, quasi aufgrund der technischen Gegebenheiten geht von der künstlichen Intelligenz selbst momentan quasi keine Gefahr aus, sondern nur davon, wie sie eingesetzt wird, von Menschen, wenn er sie missbraucht, wie bei vielen anderen Dingen auch.
Ralf Otte: Ja, also ja, darf ich ganz kurz dazu was sagen? Ich habe jetzt ein absurdes Beispiel, aber das bringt es auf den Punkt. Ich schreibe jetzt eine Programmzeile, ich definiere das jetzt, die heißt folgendermaßen: Wenn es Montagmorgen ist, und die Temperatur ist größer 30 Grad, zünde eine Atombombe! Das ist jetzt nicht besonders intelligent. Diese Programmzeile aber, die kann ich in Python schreiben: wenn Montagmorgen, Außentemperatur größer 30 Grad, zünde eine Atombombe. Jetzt würde man sagen, wer macht denn so einen Scheiß? Das kann man ja programmieren. Die Frage, geht von denen eine Gefahr aus oder nicht? Per se nicht. Das ist ja nur ein Programm. Wenn Sie aber dieses Programm an den roten Knopf lassen, wenn das also die Handlung ausführen könnte, zünde eine Atombombe, dann würde diese eine Programmzeile sehr gefährlich sein, denn das guckt dann: Welcher Wochentag ist heute? Wie ist die Außentemperatur vielleicht in San Franzisko? Wenn A gilt und dann B gilt, dann zünde eine Atombombe? Das hat also gar nichts mit einem Programm zu tun, sondern da ist irgendein Mensch so verrückt und hat einen solchen Einzeiler an den Zündknopf der Atombombe gelassen. Von dieser Technik geht enorme Gefahren aus, hat nichts mit KI zu tun, nichts mit Deduktion, Induktion, Kognition. Also: Wenn Menschen Systeme bauen und die in Kernkraftwerke einsetzen oder an die Atombombe, dann ist das per se gefährlich, hat aber nichts mit KI zu tun. Das sollte man also nicht machen, so einen Blödsinn.
Carsten Roemheld: Am Ende steht der Mensch dahinter.
Ralf Otte: Ja, am Ende steht der Informatiker dahinter, der das dahin gebaut hat, oder der Auftraggeber, der sagt, ich gebe dir eine Million Euro, bau mir das doch bitte mal, den Einzeiler. Aber heute wird ja mit den Fingern auf die KI gezeigt, die in Social Media irgendwas tut. Was macht sie? Sie manipuliert Wahlen, manipuliert Meinungen, das ist auch schon gefährlich. Aber sie kann keine Atombombe zünden, weil wir sie nicht ranlassen. Sie kann kein Kernkraftwerk explodieren lassen, weil wir sie nicht ranlassen. Das müssen wir also unterscheiden. Die KI als wirkliche Maschine ist einfach eine Maschine, ist ein Kühlschrank. Und wenn wir die an die entsprechenden Knöpfe lassen, ist es gefährlich, und ansonsten nicht. Aber die Maschine selbst wird sich nie über die Menschen erheben können. Sie kann weder wahrnehmen, noch hat sie Gefühle, noch hat sie einen Willen. Das können Sie ausschließen, das kriegt sie auch nicht, das können Sie vergessen. Und deswegen ist es so komisch, dass die Konzerne mit dem Finger drauf zeigen und sagen: Guckt mal, da ist es gefährlich. Und wenn sie das machen, weiß ich, ich gucke genau in die andere Richtung.
Carsten Roemheld: Ich möchte nochmal einmal einen Begriff ins Spiel bringen, der jetzt hier noch nicht gefallen ist, der immer wieder auch genannt wird: die Singularität. Das ist ja etwas, was immer genannt wird, dass der Mensch irgendwie übertroffen wird von der Intelligenz her durch die KI und so weiter. Ist es das, was Sie damit jetzt quasi ausschließen?
Ralf Otte: Man muss unterscheiden. Raymond Kurzweil, ein großer Guru aus den USA der kündigt die Singularität immer in 30 Jahren an, aber das macht er schon seit 30 Jahren. Das ist ja auch schön irgendwie, man kriegt Aufmerksamkeit, kriegt die Mikrofone und sagt, in 30 Jahren geht die Welt unter, und das können sie eigentlich bis zur Rente machen, und das ist ja auch nicht prüfbar. Weil es immer in 30 Jahren passiert. Und jetzt ist für 2045 der Weltuntergang angekündigt durch die KI, der ist jetzt gerade angekündigt, und 2045 machen wir vielleicht mal ein Gespräch, und werden das dann auf 2075 verschieben. Also diese Art der Singularität, dass die KI klüger wird als wir und uns vernichten will, ist absurd. Das ist entweder ein Marketingtrick oder Leute brauchen dringend Aufmerksamkeit. Das können Sie völlig vergessen. Das können Sie ausschließen, dass das passiert.
Aber was natürlich sein kann, und das ist ja auch die Frage zur Singularität, es gibt eine sogenannte technische Singularität. Das ist der Zeitpunkt, wo die Maschine genauso viele Rechenoperationen durchführt wie das menschliche Gehirn. Da sind wir noch nicht. Aber irgendwann sagen wir, wir haben jetzt einen Supercomputer gebaut, der hat die gleiche Rechenleistung wie ein Gehirn oder zehn Gehirne oder eine Million Gehirne. Diese Singularität wird kommen. Ich habe das mal abgeschätzt. Bei den besten Supercomputern reden wir heute über Rechenleistung im Bereich sogenannter Petaflops und Exaflops. Das sind so Rechenleistungen im Bereich von Zehn hoch 18, würde man sagen. Der beste Computer Frontiers aus den USA hat gerade ein Exaflop: Wahnsinn. Der Mensch hat geschätzt ungefähr 100 Exaflops, wir wissen es nicht so genau. Da man aber schon weiß, dass durch die Verdopplung aus eins zwei wird, vier wird acht, wird 16, 32 und so weiter relativ schnell von einem auf 100 Expflops kommt, und das passiert. Wir werden also bald Systeme haben, also so in 20 Jahren, die haben dieselbe Rechenleistung wie das menschliche Gehirn.
Und jetzt könnten Sie sagen, dann ist doch bestimmt gefährlich. Überhaupt nicht, weil schauen Sie draußen ist ein Bagger, der hat sogar mehr Kraft als ich. Der Bagger hat zehnmal mehr Kraft als ich, und das Auto da draußen, das kann 100mal schneller fahren, als ich gehen kann, und diese Systeme sind natürlich gefährlich, aber die bedrohen mich nicht. Von dem geht keine Gefahr für die Menschheit aus, aber ich kann mich mit einem Porsche totfahren, Gefahren gibt's immer von Technik. Aber man will den Leuten einreden, wenn diese technische Singularität da ist, dann sind diese Systeme bedrohlich. Nö! Die haben dieselbe Rechenleistung wie das Gehirn. Da kann ich bestimmte tolle Dinge mit machen, und ich kann bestimmt auch sehr viele schlechte Dinge mitmachen. Und beides wird passieren.
Carsten Roemheld: Ich habe verstanden, da fehlen noch ein paar Stufen, eben im Unterschied zu den Menschen, die die Computer eben da nicht leisten.
Ralf Otte: Na ja, aber er ist ja immer, weil, wenn er, selbst wenn er dieselbe Rechenleistung hat wie das menschliche Gehören, dann ist der Computer ja immer noch auf Stufe drei, weil er ja mathematisch ist. Da läuft auf einem Supercomputer einfach nur Mathematik. Diese Systeme haben kein Bewusstsein, keine Gefühle, keinen Willen, kein, gar nix, und sie kriegen es auch nie. Jetzt kommt: Es sei denn. Darf ich: Es sei denn sagen?
Carsten Roemheld: Bitte, aber natürlich.
Ralf Otte: Wir haben tatsächlich da draußen Leute, die sagen, ja, wir gehen mit der KI weit über die Mathematik hinaus, weit über die Physik hinaus, was ich ja selber mache. Wir kombinieren die technischen Systeme mit biologischen Zellen. Das gibt's ja schon in den USA, auch in Australien wird es publiziert. Da haben Leute 50.000 Neuronen genommen, und die spielen dann schon gegeneinander Pingpong. Also jetzt schaffen wir komische Systeme. Wir verbinden jetzt eine technische Maschine mit einer biologischen Zelle. Obwohl wir wissen, eine biologische Zelle eine Nervenzelle, hat Schmerzen, also kann sie Gefühle ausprägen. Die hat wahrscheinlich auch einen Willen. Also wir wissen gar nicht, was wir in den Computer gerade einbauen. Jetzt kommen wir zur Regulierung: Das gehört komplett verboten!
Carsten Roemheld: Okay, Sie haben die Frage schon vorweggenommen, denn die Kombination von Computern mit biologischem Material, das könnte dann schon in eine etwas gefährlichere Richtung gehen.
Ralf Otte: Ich gebe ihnen noch mal ein absurdes Beispiel. Bei denen, die mit biologischen Systemen arbeiten, sind Pilze gern gesehen. Die können sie mit elektronischen Schaltkreisen verbinden, und dann haben sie so eine Chimäre. Also, es ist ein elektronischer Schaltkreis, der Pilz rechnet ein bisschen. Und jetzt stellen sie sich vor, sie nehmen so einen Pilz und bauen den ins Auto rein, weil sie feststellen, so ein Pilz, der rechnet einfach besser als jegliche Maschine. Der rechnet 100mal schneller, effizienter und braucht bloß ein bisschen Zuckerlösung. Die heutige KI im Auto, ich sag mal, braucht ein Kilowatt an Leistung, das ist eine Katastrophe, der Mensch braucht 50mal weniger - also nehmen wir einen Pilz. Dann können wir jetzt also einen Pilz bauen, der das Auto also regelt und steuert.
Und jetzt kommt das absurde Beispiel: Durch einen blöden Konstruktionsfehler ist es so, dass, wenn sie um die Linkskurve fahren, dann wird die Zuckerlösung nach rechts gedrückt. Der Pilz liebt es. Und wenn sie um die Rechtskurve fahren, wird die Zuckerlösung nach links gedrückt. Der Pilz mag das nicht. Der hat ja eine Wahrnehmung. Also wird der Pilz wollen, dass sie Linkskurven machen. Sowas kann man ja nicht bauen. Sie können auch kein KI-System benutzen, das eigene Gefühle hat. Sie wissen einfach nicht mehr, was sie verbaut haben. Unser Weg geht ja gerade dahin zu sagen: Baut eine transparente KI, Ingenieure. Das ist täglich Brot. Wenn ich wo hingehe, wird gesagt, ist das transparent, ist das vertrauenswürdig? Und jetzt kommen Leute und sagen, ich, baue biologische Systeme dran. Schlimmer geht's nicht! Das ist definitiv nicht vertrauenswürdig. Das ist definitiv nicht transparent. Wir wissen nicht, was der Pilz fühlt. Wir wissen nicht, wie der Pilz rechnet. Das ist absurd, das zu machen, das gehört völlig verboten da. Das würde ich weltweit regulieren und verbieten.
Carsten Roemheld: Und gibt es dafür denn einen Konsens? Wird es möglich sein, sowas zu regulieren? Oder kann es sein, dass es irgendwie dann doch zu solchen Entwicklungen kommt?
Ralf Otte: Das ist viel schlechter. Wenn Sie sich den AI-Act von Europa anschauen, und wir lesen ihn ja genau, ich verfolge das ja seit einiger Zeit, weil ich das Glück habe, auch für das Auswärtige Amt zu arbeiten und unsere Diplomaten zu beraten: Da gucken sie in AI-Act -das gibt es da gar nicht. Da hat nie jemand drüber nachgedacht, dass auch biologische Systeme mitspielen könnten. Wir regeln dort Software, wir regeln die Intelligenzstufe eins, zwei, drei. Wir regeln eventuell noch physikalische Maschinen, das ist noch nicht klar, weil das Parlament eine andere Meinung dazu hat als die Kommission. Aber wir regeln keinerlei biologische Künstliche Intelligenz. Der Begriff existiert nicht. Weil die Politiker nicht wussten, entweder nicht wussten, dass es das gibt, oder die Tech-Konzerne das nicht sagen wollten, dass es das gibt.
Carsten Roemheld: Was glauben Sie, ist eher der Fall?
Ralf Otte: Weiß ich nicht. Ich möchte gerne in Ruhe meine Fördergelder bekommen. Ich habe keine Ahnung.
Carsten Roemheld: In Ordnung, Sie haben schon so viele Fragen vorweggenommen von mir. Ich habe noch eine abschließende Frage, und Sie haben sie auch zum Teil schon beantwortet, aber ich möchte sie trotzdem nochmal stellen. Ich stelle immer wieder fest in Gesprächen oder auch in Vorträgen, dass es ganz hochrangige Experten gibt wie Sie. Und die einen sagen, wie Sie, von den Maschinen geht keine Gefahr aus, und die anderen haben apokalyptische Warnungen und haben ja auch einen stark wissenschaftlichen Hintergrund. Also, mich wundert immer, dass es so komplett gegensätzliche Meinungen gibt von Experten eines Themas, das hat mich immer umgetrieben. Weil ich mir sage, entweder das eine oder das andere ist realistisch. Sie haben schon angedeutet, dass es vielleicht ein gewisses Interesse daran gibt, so ein Doomsday-Szenario herbeizureden, damit man in anderer Art und Weise vielleicht seine Entwicklungen vorantreiben kann. Aber ist das die entscheidende Erklärung?
Ralf Otte: Nein, so können Sie das nicht sagen. Die Wissenschaft lebt vom Diskurs, wir leben von dem Streit, und dieser Streit endet nie. Und wenn ich heute höre von politischen Richtungen, die Wissenschaft hat folgende Meinung, dann brauche ich nicht mehr weiterlesen. Denn die Wissenschaft gibt es nicht, und die Wissenschaft hat nicht eine Meinung. Wir leben seit hunderten oder tausenden von Jahren vom Streit, einen nicht endenden Streit. Warum? Wir alle wollen Geld, wir alle haben Fördermittel und so weiter. Und zum Schluss setzt sich der beste Kompromiss durch, irgendwie. Es gibt Ausnahmen. Ja, vor 500 Jahren saß irgendein Theologe und hat gesagt, Leute, ich gucke in den Himmel hoch. Also, meiner Meinung nach dreht sich nicht die Sonne um die Erde, sondern die Erde um die Sonne. Ein riesiger Fachstreit, der erst 100 Jahre später entschieden wurde. Also, ich rede von Kopernikus und später Galilei, wo es entschieden wurde. Da hat man sich 100 Jahre lang wie die Kesselflicker gestritten, bis dann festgestellt wurde, na ja, es ist doch nicht die Sonne, die sich um die Erde dreht, sondern umgekehrt. Da gab's wohl mal eine richtige Wahrheit: A oder B. In dem Fall hier mit der KI ist es aber nicht so, dass wirklich A oder B wahr sein muss, sondern es ist ein bisschen A wahr, aber auch ein bisschen B wahr. Und der eine nimmt diese Position ein, hat irgendwelche Gründe, der andere nimmt jene Position, hat irgendwelche Gründe. Und wenn Sie jetzt fragen, wer hat Recht, dann sage ich: Ich habe Recht. Sonst würde ich das ja nicht so vertreten.
Was sie aber herauskriegen können ist: Gibt es finanzielle Interessen von irgendwo? Und deswegen steht unter guten wissenschaftlichen Artikeln drunter, von wem wird man gefördert. Ich würde ja niemals einen Auftraggeber in die Pfanne hauen, der mich bezahlt. Also, wenn ich jetzt für, sagen wir mal, Elon Musk arbeiten würde, der sagt jetzt zum Beispiel, autonomes Fahren geht nur mit Kameras, ohne Lidar und Radar, dann würde ich 1000 Gründe finden, warum autonomes Fahren nur mit Kameras geht. Übrigens glaube ich das. Und ich werde von Musk nicht bezahlt.
Also kriegt man es doch immer raus, für wen arbeitest du, wer fördert dich? Ich finde diese Vielfalt gerade gut. Ich bin eigentlich ein friedfertiger Mensch im privaten Leben. Im wissenschaftlichen Leben überhaupt nicht. Ich streite mich wie verrückt, denn die Wahrheit kriegen Sie nur dadurch raus. Wir hatten ja jetzt gerade Zeiten hinter uns, wo immer Konsens geherrscht haben sollte, den es aber auch nicht gab, weil es in der Wissenschaft keinen Konsens gibt. Und diese Zeiten haben wir auch wieder vor uns.
Wenn irgendeiner von oben sagt, das ist die Meinung der Wissenschaft, können Sie den Artikel wegschmeißen. Bei der KI ist es nur so, und das ist der Punkt, wo sie vielleicht hinkönnen: Wo könnte mehr Wahrheit liegen? Fragen Sie zum Beispiel, was der Mensch von Beruf ist. Ist dieser Professor Informatiker, dann tendiert er dazu, dass die heutigen Systeme und Computer sehr mächtig werden können, denn die Informatiker sind die Leute, die Algorithmen entwickeln, also KI-Verfahren auf dem Computer entwickeln. Also wird derjenige sagen, eigentlich kann ich dort auch eine Superintelligenz bauen.
Ist jemand Ingenieur wie ich, der geht über die Informatik ja hinaus. Der sagt, gut, wir haben Laptops, wir haben Supercomputer, da können wir Intelligenz ablaufen lassen. Was gibt es denn noch? Ah, es gibt Quantencomputer, ah, es gibt neuromorphe Computer. Wir haben ein größeres Bild, weil wir nicht gefangen sind in den Algorithmen, die jemand baut, sondern wir sind gefangen in technischen Systemen.
Jetzt kommt der Chemiker und sagt: Otte, total schön, was du da sagst mit deiner neuromorphen Intelligenz, aber ich glaube wirkliche Intelligenz geht erst von Proteinen aus. Du musst irgendwie Proteine nehmen, also Moleküle, und die musst du speziell falten, und dann machen wir eine KI auf chemischen Systemen. Und so hat jeder sein Weltbild. Also müssen wir doch im Prinzip die Politiker fair beraten, das mache ich gerade beim Auswärtigen Amt. Und sagen, was geht, und da sind die Grenzen, das geht nicht. Und wir müssen den Politikern sagen, bitte verbietet die Verschmelzung von Mensch mit Maschine, außer in medizinischen Anwendungen wo jemand vielleicht wieder laufen kann durch die KI und so weiter. Das brauchen wir nicht. Wir brauchen keine Verschmelzung von Mensch und Maschine.
Carsten Roemheld: Sehr gut! Sie haben zum Abschluss nochmal etwas gebracht, was ich auch sehr unterstütze, dass die Politiker nämlich noch von mehr Experten beraten werden müssen. Manchmal hat man den Eindruck, wie Sie auch am Anfang schon gesagt haben, dass bestimmte Dinge eben herauskommen, weil da völlig praxisferne Menschen in der Verantwortung sind.
Ralf Otte: Das ist ja meine große Sorge. Ich hatte das Glück, auf der World Expo in Dubai eine Konferenz zu eröffnen. Das ist jetzt zwei Jahre her. Dann ging es darum, was passiert in Zukunft, und dann durfte ich dazu sprechen. Und dann gehen sie durch die ganzen Pavillons durch und gucken sich das alles an, und dann finden sie tatsächlich Pavillons, wo sie mit den Ohren schlackern wie China, was läuft in diesem Land auch in KI-Fragen. Und dann gehen sie zu anderen Ländern und fallen vom Glauben ab, wie, wie anders die sind. Also KI spielt etwa hier in Deutschland keine Rolle, nicht wirklich. In China, in Russland, in den USA, jetzt sehe ich arabische Staaten, die gerade voll abgehen, weil die viel Geld haben, das wird hier nicht so ernst genommen. Wir haben irgendwie das Gefühl, wir sind eine ausentwickelte Gesellschaft, da muss man nichts mehr weiter machen, jetzt müssen wir alles work-life-balancemäßig machen und schön mit der Natur zusammenleben. Andere Länder sehen das anders. Und die werden den Ton angeben. Unsere Politik hat das, glaube ich, nicht geschnallt.
Carsten Roemheld: Wir hoffen, dass das in Zukunft noch passieren wird, auch wenn die Hoffnung vielleicht etwas schwindet, aber damit haben wir nochmal eine sehr schöne Formulierung zum Schluss gefunden. Herr Professor Otte, vielen Dank für dieses extrem interessante Gespräch. Ich habe heute so viel gelernt wir lange nicht mehr, und Sie haben es so toll erklärt, muss ich sagen, dass es wirklich auch unseren Hörern hoffentlich sehr eingängig war. Das soll es für heute gewesen sein. Auch ihnen, liebe Zuhörerinnen und Zuhörer, vielen Dank für ihr Interesse. Wir hoffen, dass wir ein paar spannende Einblicke und sehr interessante Inhalte heute gebracht haben. Wir hören uns hoffentlich wieder beim nächsten Mal oder bei einem der vielen anderen Formate, die wir bereitstellen. Danke nochmal, Professor Otte und viele Grüße! Ihr Carsten Roemheld.
Ralf Otte: Ich danke auch.