Carsten Roemheld: Künstliche Intelligenz kann ein Segen sein, aber auch ein Fluch. Denn dieselbe Technologie, die uns helfen kann bei der Datenanalyse, bei Übersetzungen oder auf der Suche nach neuen Medikamenten, lässt sich auch für Spionage nutzen, bei der Waffenentwicklung oder zur Desinformation. Algorithmen tun nun einmal das, was wir Menschen ihnen auftragen. Weil das so ist, und weil die Algorithmen nun mal in der Welt sind, ist es unsere Aufgabe, den Fortschritt zu nutzen. Und uns zugleich vor negativen Auswirkungen zu schützen.
Im Zentrum steht dabei die Frage, wie Menschen und Maschinen heute und in Zukunft miteinander klarkommen. Welches Selbstverständnis wir beim Einsatz von KI entwickeln. Wo wir Grenzen ziehen, wie wir das Miteinander gestalten wollen und wer eigentlich die Verantwortung für all das trägt. Sie sehen schon: Es geht hier um Begriffe wie Intelligenz, Vernunft und Handlungsfähigkeit. Es geht um Maschinenmoral und Selbstbeschränkung. Es geht darum, in was für einer Gesellschaft wir als Menschen unter Maschinen leben wollen. Und wie wir das schaffen.
Große Fragen, über die ich heute mit einer der populärsten deutschen Ethikerinnen sprechen darf: der Medizinerin und Medizinethikerin Alena Buyx. Sie war bis zum Frühjahr dieses Jahres Vorsitzende des Deutschen Ethikrats. In ihrer Amtszeit ist sie einer breiten Öffentlichkeit insbesondere während der Corona-Pandemie bekanntgeworden, als der Ethikrat Einordnungen der staatlichen Maßnahmen vornahm. Nachdem sie zuvor als Professorin für Medizinethik in Kiel tätig war, berief sie die Technische Universität München 2018 zur Professorin für Ethik und Gesundheitstechnologien. Außerdem hat sie eine Approbation als Ärztin.
Seit April 2024 ist sie Mitglied des Expertenrats Gesundheit und Resilienz der deutschen Bundesregierung, seit Mai Aufsichtsrat der Berliner Charité, und zum 1. 9. wurde sie ins Kuratorium der Bertelsmann Stiftung berufen.
Wir knüpfen heute an eine 400 Seiten starke Stellungnahme an, die der Ethikrat in ihrer Amtszeit veröffentlicht hat, und zwar im vergangenen Jahr. Das Thema: „Mensch und Maschine - Herausforderungen durch künstliche Intelligenz“. Darin geht es genau darum, die Auswirkungen digitaler Technologien auf unser Selbstverständnis und Miteinander zu beschreiben und die daraus resultierenden ethischen Fragen zu beantworten. Eine Empfehlung lautet zum Beispiel, KI sollte die Entscheidungen von Menschen unterstützen, aber nicht ersetzen.
Es geht auch um Verzerrungen, Abhängigkeiten, den Missbrauch von Technik. Und es soll heute auch um Investitionsperspektiven in ein neues Technologiefeld gehen, das mit so vielen Zukunftserwartung verbunden ist und daher in jüngster Zeit extrem viel Kapital anzieht. Mein Name ist Carsten Roemheld. Ich bin Kapitalmarktstratege bei Fidelity. Und ich freue mich sehr auf den Finanztalk mit Prof. Dr. Alena Buyx.
Herzlich willkommen, Frau Buyx.
Alena Buyx: Hallo! Freut mich sehr, dass ich hier sein darf.
Carsten Roemheld: Uns freut es auch. Bevor wir inhaltlich tiefer einsteigen, meine Frage zu diesem Dokument: Wie ist der Ethikrat eigentlich auf diese Stellungnahme gekommen?
Alena Buyx: Das ist eine echt gute Frage, das hat mich noch nie jemand gefragt. Wir sind ja ein ehrenamtliches Gremium und die meiste Arbeit geben wir uns tatsächlich selber. Dass die Politik uns beauftragt, ist eine Seltenheit. In diesem Fall war das aber tatsächlich so. Da hat uns der damalige Bundestagspräsident, der verstorbene Herr Schäuble, beauftragt, uns ganz tiefschürfend mit dem Verhältnis von Menschen und Maschine zu beschäftigen. Mehr war das nicht. Und dann haben wir am Anfang der Amtszeit 2020 gedacht, das wollen wir ein bisschen genauer und noch etwas aktueller machen und auch ein bisschen eingeschränkter. Damit man dann auch was richtig Konkretes sagen kann. Und haben gesagt, wir machen da was zur Künstlichen Intelligenz. Dass wir dann so aktuell sind, das war überhaupt nicht abzusehen. Ich meine, das ist ja eine Fachdebatte seit Jahrzehnten, aber dass dann ausgerechnet, kurz bevor unsere Stellungnahme publiziert wurde, Chat-GPT in die Welt gekracht ist und auf einmal alle irgendwie am Abendbrottisch über KI geredet haben, das wussten wir natürlich nicht. Wir haben daran zweieinhalb Jahre gearbeitet. Das Ding ist 400 Seiten lang. Das ist die dickste Stellungnahme, die wir je gemacht haben. Das war ein glücklicher Zufall. Aber dass das Thema wichtig werden würde – und wir glauben, es ist eines der größten Zukunftsthemen dieses Jahrzehnts und weit darüber hinaus: das wussten wir schon.
Carsten Roemheld: Da kann ich Ihnen nur zustimmen. Sie haben den Nagel voll auf den Kopf getroffen. Deswegen mal die Frage: Gab es denn Reaktionen auf den Bericht, die Sie überrascht, gefreut oder auch gewundert haben?
Alena Buyx: Das ist eine der erfolgreichsten Stellungnahmen, die wir je hatten. Ich glaube, das darf ich sagen, sie ist öffentlich wirklich sehr gut aufgenommen worden. Und ich glaube, wir haben ein bisschen zur Art der Debatte beigetragen. Ich weiß nicht, ob Sie sich noch erinnern: Am Anfang, als diese generative KI kam, da gab es den Papst in der Daunenjacke, Angela Merkel mit dem Hawaii-Hemd und dem Eis am Strand und solche Scherze. Da gab es fast so ein bisschen hysterische Debatten. Die einem haben gesagt, das ist das Beste seit geschnitten Brot, das wird jetzt alles lösen. Das wird die Klimakrise lösen und den Fachkräftemangel und überhaupt: Es ist das Beste vom Besten. Und die anderen haben total Panik gekriegt. Dann gab es diese offenen Briefe, teils wirklich ja auch von Fachexpertinnen und Fachexperten und denen, die das entwickelt haben: Das sei die größte Bedrohung der Menschheit, und jetzt kommt bald die autonome Killer-KI um die Ecke und löscht uns alle aus. Ich glaube, wir haben öffentlich mit dieser Stellungnahme dazu beigetragen, diese Debatten wieder in etwas ruhigeres, vernünftigeres, maßvolleres Fahrwasser zu bringen. Und ich glaube, das ist nicht falsch. Denn das schadet einer Technologie, wenn so ein bisschen überhitzt diskutiert wird. Dann kommt es viel zu häufig auch zu sehr überstürzten politischen Handlungen. Da ist immer nicht gut.
Das zweite ist, und damit bin ich wirklich sehr zufrieden, dass viele unserer Impulse tatsächlich aufgenommen wurden. Einmal, das weiß ich, weil wir viel da auch beraten haben, tatsächlich auch von Unternehmen, von großen Verbänden, von Institutionen der Zivilgesellschaft auf der einen Seite, aber auch von der Verwaltung. Wir haben das ganz breit in die Welt getragen, aber tatsächlich auch in den regulatorischen Prozess, also die KI-Verordnung. Über die können wir auch noch reden. Also man weiß nie, woher das dann ganz genau kommt, was in den Text Einlass findet. Aber da sind Impulse drin, wo wir jedenfalls sagen würden: Da hat vielleicht sogar jemand unser Papier sich danebengelegt, weil da gute Sachen drin sind.
Carsten Roemheld: Also ein sehr umfassendes Papier. Und Sie haben es perfekt beschrieben. Es gab sehr viele Reaktionen insgesamt bei der Einführung der Künstlichen Intelligenz. Jetzt wird da ein sehr breites Feld abgedeckt in dem Bericht: Über moderne medizinische Diagnostik bis zum Einsatz von KI in Lehre und Forschung und Ähnliches. Gibt es eigentlich Lebens- und Arbeitsbereiche, für die diese neue Technologie keine große Rolle spielt?
Alena Buyx: Das ist ja eine Frage. Normalerweise werde ich immer gefragt: „Was sind denn die wichtigsten Bereiche?“ Und dann fange ich an zu reden über Medizin und irgendwelche Risiko-Prädiktion und solche Sachen. Also wir machen die ersten 200 Seiten zu so ganz fundamentalen Themen, zu philosophischen Fragen und sagen: Bei allem Potenzial, das Künstliche Intelligenz hat, die uns in vielen Bereichen jetzt schon und absehbar total überlegen ist, was das Computationale anbelangt, die Datenverarbeitung, die Mustererkennung, sollten wir aufpassen, dass wir unsere menschliche Intelligenz nicht abwerten. Also dass wir da mit sehr breiten Schultern stehen und sagen: Pass mal auf, unsere kollektive humane Intelligenz ist echt noch mal eine andere Nummer als diese überragend funktionale künstliche Intelligenz. Deswegen ist auch gut, wenn man das ab und zu in Anführungszeichen setzt. Weil die so bestimmte Sachen viel besser kann als wir, aber eben in der Breite und mit Blick auf das, was menschliches Leben reichhaltig macht und ausmacht, da sind wir, glaube ich, noch sehr lange überlegen. Und daraus leitet sich ab, dass ich sagen würde: All das, wo das spezifisch Menschliche wirklich eine Rolle spielt, im Gegenüber, wo ich eine Körperlichkeit brauche und wo ich eine Emotionalität brauche, wo ich was Soziales brauche, vielleicht sogar so was Kulturhistorisches: Das sind alles Elemente menschlicher Intelligenz, die die künstliche Intelligenz nicht hat. Da werden wir wichtig bleiben.
Das heißt, es geht viel um die Auseinandersetzung mit den Menschen, mit Kunden, bei uns in der Medizin, in der Pflege, im ärztlichen Bereich, wo es um Patienten geht, in der Bildung, wo es um die Persönlichkeitsbildung geht. Wir sagen das gar nicht in dem Bericht, aber das ist meine persönliche Einschätzung: Bei all dem Tollen, was diese KI kann an Bildern und Videos und Stimmen, Musik – wo man echt denkt: „Wow, die geht jetzt richtig in diesen kreativen Bereich, Moment, das ist doch das spezifisch Menschliche.“ Da lege ich meine Hand dafür ins Feuer, dass wir da dauerhaft als Menschen menschliche Dinge sehen wollen.
Das heißt: Es gibt vielleicht KI-Kunst und KI-Romane und KI-Musik. Wenn das transparent gemacht ist, habe ich damit überhaupt kein Problem. Vielleicht gibt es Leute, die das total super finden. Ich glaube aber, insgesamt wird das die KI nie so gut können wie wir. Da fehlt so ein bisschen der Funke. Die KI verstoffwechselt ja das, was wir alles schon gemacht haben. Ich glaube also nach wie vor an die menschliche Intelligenz, eben weil sie all diese Aspekte hat, die die KI nicht hat. Da bin ich total zuversichtlich, dass sie uns da nicht den Rang abläuft.
Carsten Roemheld: Wenn wir den Arbeitsmarkt mal betrachten. Da gibt es ja viele Leute, die gewisse Befürchtungen haben, gerade weil die Künstliche Intelligenz jetzt in Bereiche geht, die akademische Berufe betreffen. Früher war es ja so, dass man vielleicht mit Fließbandarbeit eher die „niedrigeren Jobs“ abgelöst hat. Aber jetzt sind auch kreative und akademische Berufe betroffen. Glauben Sie trotzdem, dass der Arbeitsmarkt, der ja sicherlich Veränderungen erleben wird, für uns immer noch Teile bereithalten wird? Andere Bereiche, in denen wir uns weiter umtreiben können und nicht vollständig von der KI ersetzt werden?
Alena Buyx: Wir gehen sogar noch weiter. Wir sagen, KI darf den Menschen nicht ersetzen. Selbst wenn es geht. Das ist ja kein Automatismus. Wir sitzen hier in einem Studio, in einem sehr schicken Studio, hier gibt es Kameraleute und hier gibt es Leute, die sich mit Ton und all der Aufnahmetechnik beschäftigen. Und in der Branche herrscht durchaus Sorge. In vielen kreativen Branchen und, wie Sie richtig sagen, im „White-Collar“-Bereich. Das kennen wir nicht. Also gerade im Versicherungswesen, auch im Bankenwese. Wenn ich da mit den Leuten spreche, die übersehen, was so die Trends bei uns sind, dann ist ganz klar die Umwälzung in der eigenen Mitarbeiterschaft, die da kommen wird, diese Transformation ist nicht nur positiv. Da macht man sich echt Sorgen, dass man da mit einem Schlag so einen Algorithmus baut, der einen ersetzt. Viele Unternehmen bauen ja jetzt ihre eigenen Modelle, weil man nicht einfach ChatGPT nehmen kann, das wäre ja viel zu unpräzise und überhaupt nicht trainiert auf die eigenen Themen. Wenn das da ist, dann wird das sehr schnell gehen. Und deswegen sagen wir auch in diesem Bericht: Das hat ein großes positives Potenzial. Das kommt genau zur richtigen Zeit. Wir haben nicht genug Leute. Ich habe vor zwei Tagen einen Vortrag gehalten, wo ganz viele Menschen aus der Finanzbranche da waren, die gesagt haben: „Händeringend suchen wir hier Nachwuchs. Wir wissen echt noch nicht, wie wir das alles hinkriegen.“ Gerade da, wo immer noch Interaktion im Kundenbereich da ist, aber auch nach innen. Das kommt also zu einer guten Zeit: Dass wir uns das Leben leichter machen können und dass sich Berufe so verändern, dass weniger Menschen mehr schaffen können.
Gleichzeitig sagen wir, eine Ersetzung ganzer Berufsgruppen darf es nicht geben. Einmal, weil die KI eben wirklich immer noch Risiken birgt. Das sollte man im eigenen Interesse echt nicht machen. Wir sagen, da muss eine Gesamtverantwortung in der menschlichen Hand bleiben. Und das zweite: Wenn wir sozial auf die gesamte Gesellschaft gucken, dann sollten wir nicht so einen Automatismus durchrauschen lassen. Sondern wir sollten das Gute nehmen und fördern – und die problematischen Sachen einhegen.
Carsten Roemheld: Sie haben ein wichtiges Thema angesprochen, auch bei der Frage, wie Entscheidungen getroffen werden können. Das ist glaube ich ein zentraler Punkt in diesem Bericht. Welche Entscheidung kann man an die Maschine delegieren? Welche Entscheidung soll beim Menschen bleiben? Sie nennen es auch menschliche Autorenschaft. Können Sie vielleicht mal kurz beschreiben, vielleicht mit Beispielen aus Ihrem Fachgebiet, vor allem Medizin und Pflege, wie das genau funktionieren kann?
Alena Buyx: Genau das ist die Gretchenfrage. Deswegen haben wir dazu auch dieses schöne Zitat. Das bringe ich jetzt noch mal. Wir haben diese 400 Seiten zusammengefasst im Prinzip in einem Satz: „Anwendung der künstlichen Intelligenz soll menschliche Entfaltungs- und Handlungsmöglichkeiten erweitern und sie nicht vermindern. KI darf den Menschen nicht ersetzen.“ Dieses Erweitern und Vermindern, das ist ziemlich wichtig. Das sagt nämlich: Das sind tolle Instrumente. Wir müssen entscheiden, wie viel können wir delegieren? Welchen Teil so einer Verantwortungskette kannst du an die KI geben? Und wo ist der Moment, wo der Mensch noch mal drauf gucken muss?
Das kann man, finde ich, schön in der Medizin sehen. Wir haben in der Medizin ja ganz viele Entscheidungsassistenzsysteme, die inzwischen Sachen können, die Ärztinnen und Ärzte selber nicht können, oder die Ärztinnen und Ärzte zwar können, aber die Maschine kann das schon besser. Röntgenbilder befunden zum Beispiel, da sind die wirklich total gut im Vergleich mit Fachärztinnen und Fachärzten. Oder ein ganz tolles Beispiel: Es gibt einen Algorithmus, der kann auf der Intensivstation das akute Nierenversagen, was super tödlich ist, wirklich gefährlich und sehr schwer vorherzusagen, 48 Stunden im Voraus vorhersagen, mit einer sehr hohen Wahrscheinlichkeit. Das ist natürlich toll. Zwei Tage vorher sagt der Algorithmus also: „Pass auf den auf, da musst du was machen.“ Nur wenn man sich dann die Daten anguckt, wenn man sich anguckt, wie dieser Algorithmus tatsächlich zu seinen Ergebnissen kommt, dann stellt man fest: Der funktioniert sehr gut bei Männern und nicht so gut bei Frauen. Ist ein Beispiel. Und zwar deswegen, weil der Trainingsdatensatz verzerrt war. Der stammte mehr oder weniger zufällig zu 94 Prozent von Männern.
Und dann kriegt man sehr unterschiedliche Ergebnisse für unterschiedliche Populationen. Und das ist nur ein Beispiel. Da erhöht das die Trefferquote für die eine Gruppe total, vermindert aber die Trefferquote für eine andere Gruppe. Das darf natürlich nicht sein. Und das heißt, du musst immer den Moment haben, wo du sowas noch mal überprüfst. Wir sagen also, es darf sehr weitgehende Vorschläge geben von so einem System, aber man muss schauen – und das kann man auch technisch einbauen –, dass Ärztinnen und Ärzte noch mal drauf gucken. Dass sie zum Beispiel gucken: Passt das wirklich zu dem Patienten, den ich hier vor mir habe? Passt das wirklich zu dieser spezifischen klinischen Situation? Das heißt, man muss so eine Art geteilte Entscheidungsfindung haben. Und da sind wir in der Medizin total entspannt, weil wir das schon lange machen und das gewohnt sind, Technologie so einzubauen. Da glaube ich, andere Branchen tun sich damit viel schwerer. Aber ich bin echt zuversichtlich, dass man das ganz gut hinkriegt.
Carsten Roemheld: In der Finanzbranche, da geht es zwar nicht um Leben und Tod, steht man auch immer wieder vor den Frage, was ist intuitiv, was menschlich? Trotzdem hat man den Eindruck, dass die Maschinen mehr und mehr Entscheidungen übernehmen und der Mensch so ein bisschen mehr unter Druck gerät, vielleicht auch der Entscheidungsspielraum eingeschränkt wird. Wie sehen Sie das? Ist das eine Entwicklung, die so weitergehen wird? Oder sagen Sie eher, die menschliche Entscheidung wird vielleicht umso wichtiger sein am Schluss?
Alena Buyx: Noch eine Gretchenfrage. Das hängt echt von der Branche ab und wahrscheinlich sogar vom spezifischen Beispiel. Also eine der Herausforderungen ist ja, dass man sagt, was passiert denn, wenn ich jetzt nicht der Empfehlung der Maschine folge, und dann passiert irgendwas Blödes? Stehe ich dann da und muss mich rechtfertigen, warum ich jetzt der Empfehlung nicht gefolgt bin? Das ist wirklich noch eine offene Frage. Ich spiele die jetzt an Sie zurück. Denn was wir in dem Bericht sagen, ist: Das sind die Knackpunkte der verteilten Verantwortung. Das ist auch nichts ganz Neues. Diese Haftungsverteilung und so, das kennen wir ja schon, das ist nichts ganz Neues. Neu ist, dass wir den Algorithmus nicht mehr vollständig verstehen. Das heißt, die eine Anforderung ist: Wenn ich sage, du musst dem Algorithmus folgen, dann muss der Experte oder die Expertin, die normalerweise früher die ganze Entscheidung getroffen hat, den auch richtig verstehen können. Und das ist noch nicht so. Und zweitens, und deswegen spiel ich es an Sie und an Ihre Branche zurück, sage das meinen Ärztinnen und Ärzten, rede auch mit Anwaltskammern und mit den Apothekerinnen und Apothekern. Und all denen sage ich: Setzt euch jetzt hin, guckt euch eure Entscheidungsprozesse an, guckt euch eure Verantwortungsketten an. Und ihr sagt: Wo kann ich und wie weit guten Gewissens delegieren? Wo haben wir diesen Ermessensspielraum für die Bauchentscheidung und sagen klar: Dann ist mal eine Entscheidung vielleicht nicht perfekt, aber das wollen wir, weil insgesamt ist es wichtig, dass wir menschliches Bauchgefühl bei einer Risikoabwägung noch mit reinfalten. Und wo schalten wir das aus und sagen: Da verlassen wir uns auf den Algorithmus? Aber dann muss der auch wirklich tiptop funktionieren und wir müssen ihn verstehen. Das ist etwas, das kann ein Ethikrat nicht in einem Bericht so aufschreiben, sondern nur sagen: Lass das nicht zu, dass das die Politik sozusagen übergreifend entscheidet. Sie kann Rahmenbedingungen setzen und das sollte sie auch. Und da geben wir natürlich viele Empfehlungen für. Aber es ist total wichtig, dass das Hand in Hand geht mit denjenigen, die in diesen Bereichen wirklich verstehen.
In der Medizin, da müssen die Fachgesellschaften für die einzelnen Fachrichtungen sich auch hinsetzen, und manche haben das schon gemacht. Ich sag nur ein Beispiel: Die Radiologen, die so mit Strahlenmedizin arbeiten, in der Krebsmedizin zum Beispiel, die sind ganz weit vorne, was richtig technisch aufwendige Nutzung von KI anbelangt. Die haben sich schon eigene Empfehlungen entwickelt, wie und wann sie diese Algorithmen einsetzen können und wollen und wie sie ihre Leute jetzt neu ausbilden. Das sagen wir auch: Man muss das dann ja lernen, mit dieser neuen Expertise umzugehen. Das ist was, das können nur die Leute aus den Bereichen wirklich selber machen. Deswegen ist das eine Handlungsaufforderung.
Carsten Roemheld: Da bin ich auch bei Ihnen. Ich finde es auch richtig, dass die Fachleute dann sich in dem entsprechenden Umfeld darüber unterhalten, wie es im Einzelfall aussehen muss. Aich in der Versicherungswirtschaft gibt es da schon Beispiele, die sogenannte Dunkelverarbeitung. Also wo eine rein technische Abwicklung bei einem Schadenantrag zu einem Ergebnis führt. Aber nur dann, wenn es nicht zum Nachteil des Versicherten ausgeht. Die KI darf also durchwinken, aber nur der Mensch kann ablehnen. Ist das aus Ihrer Sicht eine ethisch sinnvolle Arbeitsteilung? Weil der Mensch sozusagen im Entscheidungsloop bleibt?
Alena Buyx: Wollte ich gerade sagen. Das ist eine Möglichkeit, „human in the loop“ zu machen, Ohne, dass ich das System jetzt kenne, und die Versicherungsbranche ist jetzt wirklich auch nicht unbedingt meine Baustelle, sag ich jetzt mal ins Unreine, dass das etwas ist, was unseren Kriterien tatsächlich entsprechen würde. Jedenfalls klingt es so: Weil dieses Aufpassen darauf, dass keine Nachteile und Schäden entstehen, das ist der wirklich schwierige Bereich. Und da sagen wir, muss menschliche Verantwortung drin sein. Das Zweite ist: Man muss einfach unterstreichen, das wissen viele glaube ich, die ChatGPT auch schon mal selber ausprobiert haben, es gibt ja unterschiedliche Sorten von KI. Also in den verschiedenen Branchen sind es immer noch eher die spezifischen Algorithmen, aber auch da drängt ja die generative KI rein. Die macht echt auch noch Fehler. Klar, Menschen machen auch Fehler, aber es gibt eine Besonderheit bei der KI, die ist auch in der Medizin wichtig und wäre auch für diesen Versicherungsfall wichtig.
Ich erklär das immer so: Ein KI-Algorithmus zum Beispiel, der Schnitte in der Chirurgie ziehen hilft im OP, für einen OP-Roboter, der mag vielleicht in 96 Prozent einen super präzisen Schnitt machen. Und die der Chirurgen sind nur zu 88 Prozent präzise. Aber beim Chirurgen oder der Chirurgin sind die 12 Prozent ein, zwei Millimeter daneben. Es ist eine totale Ausnahme, dass mal so richtig daneben ist, das ist wirklich absolut mega selten und dann noch ein Kunstfehler. Die 4 Prozent vom Algorithmus können aber sein: der schneidet kreuz und quer oder haut das Skalpell ganz woanders rein. Was ich damit sagen will: Die KI macht in diesen Randbereichen richtig erratische Fehler. Und das ist supergefährlich. Das heißt, das können wir uns nicht leisten. Und deswegen ist es richtig, dass man diese Art von Sicherungen einzieht und sagt, in den Fällen, wo jemand Nachteil haben könnte, muss eine doppelte menschliche Verantwortung dazukommen.
Carsten Roemheld: Wenn wir über Chat-GPT reden und den Hype, der da um die generative KI ausgelöst wurde, da gab es ja auch einige prominente Stimmen, die sich zu so einem Entwicklungsmoratorium geäußert haben. Also gesagt haben, wir müssen jetzt irgendwo mal die Entwicklung anhalten, um ein paar grundlegende Fragen tiefer zu diskutieren, bevor uns das Ganze aus der Hand gerät. Was halten Sie von der Idee?
Alena Buyx: Also jetzt werde ich ein ganz bisschen flapsig. Ich bin das viel gefragt worden und habe dann öffentlich gesagt: Prinzipiell finde ich die Idee eines solchen Innehaltens nicht schlecht. Was ich auch gesagt habe an verschiedenen Stellen, das ist natürlich total absurd: Denn das haben einige gesagt, die riesige KI-Labore betreiben und ordentlich davon profitieren, die nicht den Hauch eines Moratoriums und eines Innehaltens vertreten, sondern Volldampf vorausgehen. Tatsächlich war das ein bisschen mehr eine PR-Aktion. Das war so ein :Ho ho, ho! Die größte Bedrohung der Menschheit. Da kommt jetzt wirklich die mega bedrohliche, supermächtige Technologie.
Die hat durchaus ein so zerstörerisches Potenzial, das will ich gar nicht abstreiten. Aber das ist wirklich extrem fernliegend. Und sagen wir mal so: Da gibt es noch eine ganze Menge Schritte auf dem Weg dahin, wo man ja mal einhaken könnte. Wenn aber jemand sagt: Diese mächtige Technologie, die müssen wir jetzt stoppen, denn die kann uns alle zerstören – und wisst ihr, wer diejenigen sind, die euch retten können? Das sind die, die diese mächtige Technologie verstehen und entwickeln. Das ist das so ein bisschen ein PR-Gag, glaube ich. Das ist sicher nirgendwo aufgenommen worden, denn es weist auf etwas Interessantes und Spannendes hin, was auch in der Ethik intensiv diskutiert wird: Das ist eine Dual-Use-Technologie. Das ist eine Technologie, die hat einen ganz positiven Nutzen, fantastische Sachen. Und die hat aber auch ein zerstörerisches Potenzial. Das ist typisches Dual-Use. Aber das kennen wir.
Carsten Roemheld: Atomkraft.
Alena Buyx: Ist das klassische Beispiel. Und es ist nicht hilfreich, da nur über die Extreme zu reden. Lasst uns doch darüber reden, was jetzt schon passiert. Und so ein bisschen ist das auch eine Nebelkerze. Wenn ich sage, lasst uns über die Zerstörung der Menschheit sprechen, dann denke ich nicht darüber nach: Was passiert denn eigentlich, wenn in ganzen Branchen diese Transformation passiert? Sorry, ich mache immer medizinische Beispiele, weil die mir am nächsten sind. Ich ersetze die Psychotherapeuten in meiner Klinik mit einem psychotherapeutischen Chatbot und schwupp sind die weg. Das sind die Sachen, über die möchte ich gerne jetzt nachdenken. Die sind aus ethischer Perspektive wirklich problematisch. Aber es macht ja viel mehr Spaß, über die Gruselszenarien nachzudenken. Also da würde ich immer sagen: Kirche im Dorf lassen. Und ich finde, um den letzten Satz dazu zu sagen: Ich glaube, es ist angekommen. Das ist eine Technologie mit einem irrsinnigen Potenzial, die wir echt brauchen, Stichwort Fachkräftemangel. Die ist noch nicht ganz ausgereift und da muss man drauf aufpassen, wie auf alle Technologie, die irgendwo reinkommt, wo es wirklich wichtig ist. Aber das kriegen wir hin.
Carsten Roemheld: Und wir müssen es aber natürlich auch irgendwie regulieren. Und da gab es ja dann den AI-Act der EU. Das ist bisher ein einzigartiges Regelwerk für den Umgang mit der Künstlichen Intelligenz. Was halten Sie denn von dem AI-Act?
Alena Buyx: Also erst mal finde ich es total wichtig, dass es Regulierung gibt. Eine Dual-Use-Technologie kannst du nicht einfach so lassen. Erstens. Zweitens muss man sagen, insbesondere die generative KI, das sind ja riesige Modelle, und die gehören einer Handvoll Unternehmen. Keins davon ist in Europa. Das finde ich nicht lustig. Das sagen wir auch in dem Report relativ klar.: Da sind wir in Abhängigkeiten, die sind sehr problematisch. Und ich habe schon wirklich ganz in der Wolle gefärbte Kapitalisten gehört, die gesagt haben, sie hätten nie gedacht, dass sie so was mal öffentlich sagen: Aber wir sollten darüber nachdenken, ob da nicht Monopolstrukturen entstanden sind. Die sozusagen ganzen Kontinente dazu zwingen, eine Technologie-Plattform zu nutzen für alle Produkte in dem Bereich, denn das ist sozusagen die Infrastruktur, und das ist alles in der Hand von ein paar Playern, die nicht nur nicht in Deutschland sind, sondern nicht in Europa. Das sorgt für ein gewisses Unbehagen, und zwar zu Recht. Wir gehören also auch zu denen, die sagen, Europa sollte da bitte gucken und bestimmte Dinge einhegen. Ja, das geht einfach nicht.
Jetzt ist es so, die KI-Verordnung ist ja eine europäische Verordnung. Und wir haben das bei der DSGVO gesehen, der Datenschutzgrundverordnung: Die kann man maßvoll umsetzen und ausbuchstabieren im nationalen Recht – und weniger maßvoll. Das ist jetzt die Herausforderung. Ich finde, da sind viele gute Sachen drin. Das ist ein risikobasierter Ansatz, also nicht „Wir verbieten diesen Teil komplett“. Sondern wir sagen: Hier sind Niedrig-Risikobereiche und hier sind Hoch-Risikobereiche. Und jetzt guckt man sich mal ein paar Jahre an, wie das so mit der Selbsteinschätzung funktioniert.
Es sind relativ klare Vorgaben, all das, was wir auch sagen: Qualitätssicherung und Transparenz natürlich, Kennzeichnungspflicht, also irgendwelche Deep Fakes – das geht nicht. Also das sind alles relativ selbsterklärende Sachen, die wir aber auch schon aufgeschrieben haben. Und dann wird es darum gehen, dass, wenn man die Standards entwickelt, die nicht in der Verordnung selber drinstehen, sondern die tatsächlich in der Umsetzung entwickelt wird, dass man dann nicht das Rad neu erfindet. Meine Empfehlung, wenn ich mir das mal erlauben darf, die steht bei uns gar nicht drin, weil die viel zu nah an der Regulierung ist, sowohl in Richtung Politik als auch in Richtung Unternehmen, Industrie: Guckt, wo kann man das, was man für die DSGVO eh schon macht, nutzen. Da habe ich zusammengesessen in Runden mit Leuten aus der Kommission, die das auch sagen. Die sagen, der Gedanke der Datenschutzgrundverordnung, dass über europäische Bürgerinnen und Bürger nicht wichtige Entscheidungen einfach so automatisiert passieren dürfen, das steht ja alles schon in der DSGVO. Und viele der Schutzkonzepte, die wir wollen, stehen alle schon in der DSGVO. Dann kann man auch dasselbe Formular nehmen, um es jetzt mal platt zu formulieren.
Carsten Roemheld: Dazu wollte ich noch etwas fragen, zum Datenschutz insbesondere. Die KI ist natürlich auf Daten angewiesen. Das ist ja Big Data. Und selbst Sie haben glaube ich mal in der Corona-Pandemie gefordert, den Datenschutz an gewisse Gegebenheiten anzupassen. Damit man vielleicht einfach bessere Möglichkeiten hat, auch Pandemie Bekämpfung zu betreiben usw. Wie sehen Sie das Thema denn in puncto Datenschutz? Es kann ja auch sein, dass es zu einer gewissen Strangulierung der Technologie kommt im Verlauf.
Alena Buyx: Mir geht es darum, dass wir ganz wichtige Sachen nicht machen, denn das schadet Menschen. Also im Gesundheitswesen ist das so, dass wir Daten viel zu wenig nutzen. Das wird jetzt besser, aber wir haben insbesondere in Deutschland eine gewisse Unausgewogenheit. Datenschutz macht man ja nicht, um Daten zu schützen. Wir schützen die Interessen von Menschen, von denen die Daten stammen oder die durch eine Datennutzung irgendwie in irgendeiner Weise berührt werden. Und man hat hier und da den Eindruck, dass das verlorengegangen ist, dass der Datenschutz nur ein Instrument ist für eine sichere, verantwortliche, gute Datennutzung. Wir sind in Deutschland, was die Digitalisierung anbelangt, das ist ja nun nichts Neues, nicht gerade weit vorne. Wir lassen da wahnsinnig viel Gutes und sehr Positives liegen. Und das ist aus ethischer Perspektive echt ein Problem. In der Pandemie war das am offenkundigsten, aber es stimmt nach wie vor und immer noch. Das heißt nicht, dass man sagt, Datenschutz ist unwichtig. Der ist total wichtig. Das ist ein wichtiges Grundrecht - die informationelle Selbstbestimmung. Aber man muss ein bisschen maßvoll sein.
Das bedeutet auch mit Blick auf die KI: Viele Sachen können wir gar nicht machen, wenn nicht der Zugriff möglich wird auf gut kuratierte und sichere Trainingsdaten, gerne auch eigene. Wir können etwa in der Medizin nicht allein mit chinesischen Trainingsdaten arbeiten, das geht einfach nicht. Und das meint anpassen. Das heißt nicht, den Datenschutz eliminieren, sondern eine sichere und gute Datennutzung ermöglichen. Damit befördert man natürlich auch diese Technologie. Damit das passiert, was das Gute für Menschen ist, das Positive, das Gemeinwohlorientierte. Du kannst ja KI als Wunderwaffe für gesellschaftlich positiv Dinge nutzen. Und zwar nicht nur in der Gesundheit, sondern in vielen anderen Bereich. Im Bereich von Umweltschutz, im Bereich von Sicherheit, im Bereich von Verkehr, überall gibt es die tollsten Ideen. Dann muss man das aber möglich machen, verantwortlich und gut. Ich sehe da echt Fortschritte. Da möchte ich mal was Positives sagen, dass dieses Bewusstsein echt auch so ein bisschen in der Bevölkerung angekommen ist. Wir sitzen auf solchen Schätzen, die muss man nutzen. Da bin ich im Moment auch recht zuversichtlich.
Carsten Roemheld: Eine Sorge der Bevölkerung ist nach wie vor, dass wir nicht unbedingt immer nachvollziehen können, warum ein Algorithmus so handelt, wie er handelt. Das verstehen sowieso die wenigsten. Aber gewisse Leute sagen, man darf einem Algorithmus nicht unbedingt vertrauen, wenn man nicht nachvollziehen kann, wie er zu seinen Entscheidungen kommt. Würden Sie dem zustimmen?
Alena Buyx: Absolut. Das sagen wir auch, das ist das sogenannte Blackbox Problem. Darf ich dazu noch ein Beispiel, auch wieder aus der Medizin, erzählen?
Carsten Roemheld: Gerne.
Alena Buyx: Es gibt einen Algorithmus, der Tuberkulose diagnostizieren soll auf Röntgenbildern. Die ist superschwer zu diagnostizieren. Da haben also Kollegen von mir so einen Algorithmus programmiert, der war besser als Fachärztinnen und Fachärzte, die in der Klinik drübergucken über so einen Bildsatz. Und dann stellt sich raus, als wir den Datensatz aufgemacht und geguckt haben, wie die KI ihre Entscheidung getroffen hat: Der Algorithmus hat sich die Ränder der Röntgenbilder angeguckt und hat festgestellt: Aha, Tuberkulose. Die KI erkennt Muster und bringt sich selber die Regeln dazu bei, das ist ja das spezifisch Neue an dieser Form von maschinellem Lernen, das ist Künstliche Intelligenz. Und nun hat die KI erkannt bei Röntgenbildern, bei denen ich sehen kann, dass die von einem mobilen Röntgengerät stammen, kommt häufiger Tuberkulose vor. Mobile Röntgengeräte gibt es häufiger in tropischen Regionen, die nicht so eine Hightechmedizin haben. Da fährst du sozusagen ein rumpeliges Röntgengerät durch die Gegend, und da gibt es häufiger Tuberkulose. Das heißt, zum Schluss hat die KI nur noch die Ränder von den Röntgenbildern angeguckt, ein komplett nichtmedizinisches Kriterium. Da kriegst du natürlich Gänsehaut, denkst, um Gottes Willen. Übertragen Sie das in andere Bereiche.
Das ist ein ganz bekanntes Problem, das Black-Box-Problem. Und dazu gibt es aber wirklich echt gute Vorschläge und technische Lösungen aus der Wissenschaft. Wie kann ich eine sogenannte erklärbare KI machen, die ich ausreichend verstehe. Ich muss sie nicht komplett verstehen, ich verstehe auch nicht, wie meine Mikrowelle funktioniert. Ich verstehe nicht, wie mein Fernseher funktioniert, was weiß ich. Darum geht es nicht. Aber: Bei wichtigen Entscheidungen muss ich wissen, wie dieses Entscheidungs-Assistent-System grob funktioniert. Nach welchen Kriterien der Algorithmus entscheidet. Damit ich im Zweifel hinterfragen und verstehen kann, wie es zu einer Entscheidung gekommen ist. Da gibt es inzwischen viele tolle Vorschläge, das werden wir hinkriegen. Genauso übrigens wie mit diesen Verzerrungen von Daten. Dass ich also nicht irgendwelche diskriminierenden Ergebnisse kriege. Das ist alles inzwischen gut erkannt.
Carsten Roemheld: Das bringt mich zum letzten Block sozusagen, bei dem wir über soziale Medien sprechen wollen und KI-gestützte Plattformen, die der Kommunikation und Meinungsbildung dienen. Da gibt es ja viel Missbrauch. Es gibt Hass und Hetze, Desinformation und mangelhaften Datenschutz. Wie denken Sie darüber. Werden wir es als Gesellschaft noch mal schaffen, diese Plattformen in irgendeiner Art und Weise einzuhegen? so dass die sozialen Netzwerke, die ihren Namen vielleicht nicht ganz verdient haben, weil sie vielleicht gar nicht so sozial sind, dass die dem Namen auch gerecht werden? Glauben Sie, dass das möglich ist?
Alena Buyx: Dazu sagen wir sehr viel in unserer Stellungnahme. Das ist tatsächlich das Kapitel, in dem wir auch darauf hinweisen, dass diese sogenannten sozialen Netzwerke und digitalen Plattformen wieder einer Handvoll Player gehören, die auch wiederum nicht in Deutschland und Europa sitzen. Man sieht das ja bei ehemals Twitter, jetzt X. Das gehört einer einzelnen Person. Und der nutzt das als politische Kommunikationsplattform.
Vor wenigen Tagen ist ein neuer FBI-Bericht veröffentlicht worden zur Beeinflussung beispielsweise der amerikanischen Wahlen, aber eben auch deutscher und europäischer Wahlen durch Desinformationskampagnen, die klar geopolitisch motiviert sind. Also das ist ein ganz, ganz wichtiges Thema. Und ich würde jetzt mal so antworten: Ich glaube, das haben wir ein Stück weit als Gesellschaften verschlafen. Wir haben gedacht: Das ist alles so bequem und das macht so einen Spaß, das ist so unterhaltsam, das klingt alles so schön und unser Dopaminhaushalt wird so schön damit gefüttert. Und haben vergessen dabei, dass diese Daten genutzt werden. Und zweitens, dass das eben gerade auch mit Blick auf die junge Generation, die zum Teil überwiegend aus den sozialen Medien ihre Informationen und ihre Nachrichten bezieht, ein unglaublich riesiges Spielfeld ist für Fake News, für Desinformation, für Manipulation. Das ist erkannt. Das ist politisch und gesellschaftlich erkannt, glaube ich. Also jeder kennt irgendwelche krassen Sachen von TikTok oder sonst wo.
Ich finde das sehr richtig, das auf europäischer Ebene zu klären. Da gibt es ja den Digital Services Act, der jetzt mal ein bisschen muskulöser auftritt. Das ist aber auch was, das kann man nicht nur regulatorisch machen, weil diese Plattformen halt riesig sind und mächtig. Die sagen: „Wir sind woanders und ihr könnt uns mal.“ Das ist auch was, wozu wir als als Einzelne eine neue Kompetenz entwickeln müssen. Unsere Realität hat sich verändert. Wir müssen unsere Kinder und Jugendlichen ertüchtigen und ermächtigen, das besser zu verstehen, es besser einzuordnen. Einfach zu wissen: Nicht alles, was du siehst und was echt aussieht, ist noch echt. Das ist echt neu. Also das hatten wir bisher kaum.
Carsten Roemheld: Das wollte ich gerade fragen, wie kann man denn überhaupt das in den Griff bekommt? Bilder und Videos. Heutzutage muss man sich bei jedem fragen: Ist es tatsächlich echt, oder nicht? Gibt es da eine Möglichkeit mit Wasserzeichen?
Alena Buyx: Also ich bin großer Fan davon und das steht auch in der Verordnung drin: Es soll eine Kennzeichnungspflicht geben. Da werden sich auch die großen Player verpflichten, das weiß ich tatsächlich ganz direkt von denen. Und das ist auch gut und richtig so. Ja, es wird immer schwarze Schafe geben, die es nicht machen, es wird immer die Algorithmen geben, die die Kennzeichnungen wieder herausnehmen. Also ist es ein technisches Wettrüsten. Das kennt man, das ist halt einfach so.
Wenn die großen Player das machen, wird aber immerhin mal die Spreu vom Weizen getrennt, das brauchen wir unbedingt. Also: Wir brauchen das regulatorisch und da muss man auch kernig sein. Auf der anderen Seite müssen wir alle unsere Nutzerkompetenz aufbauen und stärken. Das ist ein wirklich breites Feld. Deswegen war ich gerade so ein bisschen zurückhaltend bei dieser Frage: Wie hoffnungsvoll ist man denn da? Das ist eines der dicksten Bretter, das wir haben. Wir brauchen eine gemeinsame neue Sicht auf die Realität im digitalen Raum. Und die können wir nur gemeinsam aufbauen. Ich sehe da durchaus positive Projekte. Ich habe Kinder, und ich rede mit denen darüber ganz viel. Viele sind da ja echt sehr viel klüger als man so gemeinhin denken könnte. Die glauben schon lange nicht mehr, dass da irgendwie alles echt ist. Aber das ist eine Herausforderung. Noch mal: Deswegen will ich uns alle ermutigen, das auch nicht als etwas zu sehen, das man jetzt allein so der Regulierung überlassen kann. Das ist etwas, wo ich selber in meinem Umfeld, in meinem Medienkonsum gucken muss: Gerate ich da gerade in einen Strudel von Bullshit? Bullshit ist übrigens ein philosophischer Fachbegriff, den darf ich benutzen. Oder ist das hier etwas, wo ich sagen muss, ich gleiche das noch mal mit etwas anderem ab.
Carsten Roemheld: Jetzt sprechen Sie natürlich aus einer Perspektive eines Menschen, der so eine gesunde Kritikfähigkeit besitzt, der die Dinge einordnen kann. Aber es gibt ja genug Leute, die das nicht tun. Die vielleicht einfach die Dinge für bare Münze nehmen, die diese Fragen nicht stellen. Und es ist eine große Schicht, würde ich mal sagen, auch gesellschaftlich. Deswegen sehe es schon als Risiko an.
Alena Buyx: Ein totales Risiko. Ich habe auch nicht gesagt, dass das easy-peasy wird. Ich halte das für das Brett, das wir zu bohren haben. Alles andere kriegen wir hin. Wir kriegen das hin, auch risikoreiche Technologien in die verschiedenen Gesellschaftsbereiche einzutakten. Das haben wir oft genug gemacht, das kriegen wir diesmal wieder hin. Aber das da: Das kann wirklich sehr bösartig benutzt werden. Und es wird. Deswegen habe ich den FBI-Bericht erwähnt. Das ist ja nur einer von ganz vielen, die das zeigen in der letzten Zeit. Es gibt einfach Regionen, Staaten und Akteure weltweit, die ein Interesse daran haben, das in unseren Gesellschaften bösartig zu nutzen, das muss man sich klar machen. Ich bin da nur verhalten optimistisch. Es ist immerhin mal erkannt und es gibt so was wie die Wasserzeichen. Aber das wird nicht ausreichen. Deswegen muss man, und das tun wir in dem Bericht auch, alle aufrufen: Politik, Öffentlichkeit, Zivilgesellschaft, auch Unternehmen, Arbeitnehmerinnen und Arbeitnehmer, Arbeitgeber usw. Dass man neue Konzepte dazu entwickelt, wie man dem begegnen kann.
Carsten Roemheld: Der Ethikrat hat ja auch den Aufbau einer öffentlich-rechtlichen Kommunikationsinfrastruktur empfohlen. Das klingt schon gut, gemeinwohlorientierte Datennutzung usw. Aber ist das auch realistisch?
Alena Buyx: Das ist total nett, dass Sie das so sagen. Meistens kommt die Frage, das ist doch total naiv, ihr Witzbolde. Nein, das hat eben diesen sehr ernsthaften Hintergrund, dass wir sehen, seit 10, 15, 20 Jahren haben wir das halt geschehen lassen als Gesellschaften, dass da diese riesigen Konglomerate gewachsen sind, die diese Plattformen kontrollieren, die zum Teil die wichtige digitale öffentliche Infrastruktur ausmachen. Das ist einfach so. Unsere öffentlichen Debatten finden auf diesen Plattformen statt zum Teil, der Wahlkampf, die Meinungsbildung, Diskussionen. Und wir zeichnen seitenweise nach, was das für Herausforderungen hat, wie die Qualität des Diskurses abnimmt, wie sie Fake ist. Und deswegen sagen wir, das mag naiv klingen, aber man muss Gegengewichte aufbauen. Deswegen reite ich auf diesem Punkt mit „Die sind alle nicht in Deutschland und Europa so rum“. Wir brauchen hier eigene Sachen, die wir selbst als Gemeinschaften, als Gesellschaften kontrollieren können. Wo unsere Gesetze gelten. Es gelten formal ja die Gesetze auf diesen Plattformen. Aber wenn sie da unterwegs sind, dann wissen Sie, das fühlt sich jetzt nicht gerade so an.
Und da darf ich sagen, da habe ich relativ viel Erfahrung inzwischen: Die Rechtsdurchsetzung ist wirklich schwierig. Wir brauchen also Gegengewichte, eigene Plattformen und das ist wahnsinnig naiv, weil das bisher noch nie gut funktioniert hat. Natürlich sagen alle: Ja, genau, ein hausgemachtes öffentlich-rechtliches Twitter, Ihr seid ja lustig, das wird ja niemand machen. Aber darüber jetzt nicht nachzudenken und damit jetzt nicht anzufangen, das kann es auch nicht sein. Dann rollen wir uns sozusagen und sagen: Hier ist unsere Halsschlagader, bitte feste rein. Das geht nicht. Also: Wir müssen da ran, wir sollten wirklich darüber nachdenken, wie man die Regeln, die wir uns gegeben haben, in unseren Gesellschaften richtig durchgesetzt kriegt auf diesen Plattformen, Denn die sind zum Teil echt Wilder Westen. Und wie man alternative Räume bauen kann, wo dann von vornherein die Regeln gelten. Ethikerinnen und Ethiker sollen ja auch Impulse setzen. Wie kann es besser sein, wie kann es gut sein? Und viele andere schlaue Köpfe können mit uns gemeinsam darüber nachdenken, wie man es dann tatsächlich auf den Boden bringt.
Carsten Roemheld: Sie haben es schon mehrfach angesprochen: Die großen Konzerne sind alle in den USA. Und für die Kapitalmarktteilnehmer, für die Investorinnen und Investoren ist das vielleicht eine schöne Sache, dass die Renditen sehr schön sind. Aber auf der anderen Seite sagen Sie natürlich auch, da entstehen schon sehr starke monopolartige Strukturen in gewissen Bereichen, die vielleicht aus Investorensicht gut sind, aber aus gesellschaftlicher Sicht vielleicht auch ein bisschen kritisch. Erst recht dann, wenn die Europäer daran bisher keinen großen Anteil haben.
Alena Buyx: Das ist genau der Punkt. Ich bin Ethikerin, ich habe ja keinen Investmentblick, überhaupt nicht. Aber ich schau, was das Beste für die Gesellschaft ist, für verschiedene Gruppen in der Gesellschaft. Das ist sozusagen der Blick, den man hat für diejenigen, die am meisten gefährdet sind, die die Schwächsten sind. Man kann einfach festhalten, da ist gesellschaftlicher Mehrwert abgezogen und konzentriert worden, weil das aufgebaut worden ist auf Daten, die wir alle schön durch unsere Nutzung beigetragen haben. Und die jetzt irrsinnig viel wert sind. Das ist eine Umverteilung, die aus ethischer Perspektive hochproblematisch ist. Es kann nicht sein, dass die Gewinne dieser Datennutzung bei diesen großen Akteuren liegen und nur den Investoren zugutekommen. Das freut mich für die total, aber es ist gesellschaftlich ein irrsinniges Problem. Wir haben jetzt diese ganzen gesellschaftlichen Probleme, wir gucken uns um und sagen: Moment mal! Was passiert mit unseren Wahlen? Was passiert mit Wahlkämpfen? Was passiert mit unseren Kindern und Jugendlichen? Das geht nicht. Und da werden wir natürlich ein bisschen unrund und sagen relativ deutliche Dinge, sogar immer noch recht vorsichtig, denn Monopolrecht ist nun wirklich nicht unsere Baustelle. Aber wir weisen darauf hin, dass das ein enormes ethisches und gesellschaftliches Problem entstanden ist. Dass man da tatsächlich ran muss.
Carsten Roemheld: Die Daten sind tatsächlich die wichtigsten Dinge heutzutage. Zum Abschluss noch mal kurz zusammenfassen, vielleicht mit Blick auch nach vorn. Überwiegt bei Ihnen jetzt eigentlich die Freude bei dem Fortschritt durch diese Technologie oder sind es eher die Bedenken, die Sorgen vor dem, was wir jetzt gerade eben diskutiert haben, auch schleichende Machtübernahme der Maschinen. Wenn Sie es abschließend noch mal ausführen würden, wie wäre Ihr Statement?
Alena Buyx: Bei mir überwiegt eigentlich fast immer die Freude, dass ist mehr so eine Einstellungsfrage. Mit Blick auf einzelne Branchen, beispielsweise die Medizin und viele andere überwiegt total die Freude. Weil ich nämlich glaube, da kriegen wir das ganz toll hin. Da sind die Vorteile so eklatant und da kriegen wir auch diese Transformation mit Arbeitsmarkt und so, das kriegen wir alles hin.
Es gibt diesen einen Bereich, über den wir eben sprachen, wo ich mir Sorge mache. Und der trübt meinen insgesamten Optimismus. Und das kann ich auch nicht verhehlen, das halte ich für eine der großen Herausforderungen und tatsächlich auch Bedrohungen. Und da möchte ich uns alle ein bisschen aufwecken, fast wachrütteln und sagen: Das ist was, das für uns alle echt total wichtig ist, als Bürgerinnen und Bürger gesprochen. Deswegen kann ich jetzt nicht aus vollem Herzen sagen: Das Positive überwiegt für mich. Fast in allen Fällen, ja. Aber es gibt eben diese eine ganz wichtige Sache, die wir in den Griff kriegen müssen.
Carsten Roemheld: Das tun wir. Wir nehmen den Optimismus als positives Schlussstatement mit. Leider ist die Zeit schon wie im Flug vergangen. Deswegen müssen wir uns schon verabschieden. Vielen Dank Frau Buyx für Ihre Mitwirkung. Das hat mir sehr viel Spaß gemacht. Danke, dass Sie da waren, für Ihre Zeit und für die spannenden Ausführungen natürlich auch. Ein Thema, das uns wahrscheinlich weiterhin sehr stark beschäftigen und sehr stark umtreiben wird. Und daher bleiben wir natürlich für Sie am Ball. Auch Ihnen, liebe Zuschauerinnen und Zuschauer, herzlichen Dank für Ihr Interesse. Ich würde mich sehr freuen, wenn wir uns bei der nächsten Ausgabe oder bei einem der vielen anderen Formate von Fidelity wiedersehen. Von uns herzliche Grüße aus dem Studio und bis demnächst!