Künstliche Intelligenz – zwischen Hype und Hysterie

Ein Gespräch mit dem Jülicher Wissenschaftler Prof. Bert Heinrichs, Leiter der Forschungsgruppe „Neuroethik und Ethik in der KI“ am Institut für Neurowissenschaften und Medizin – Gehirn und Verhalten.

Es vergeht kaum eine Woche, in der nicht vor den dramatischen Auswirkungen der rasanten Entwicklung im Bereich der künstlichen Intelligenz (KI) gewarnt wird. Zuletzt hat eine Gruppe renommierter Persönlichkeiten um den Chef des Unternehmens Open AI, Sam Altman, medienwirksam gefordert: „Die Minderung des Risikos der Auslöschung durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“

Herr Heinrichs, worum geht es bei der aktuellen Debatte um die Gefahren der KI im Wesentlichen?

Bereits vor fast zehn Jahren hat der Philosoph Nick Bostrom, der an der Universität Oxford lehrt und dort das Future of Humanity Institute leitet, in seinem Buch Superintelligence: Paths, Dangers, Strategies eindringlich vor einer globalen Katastrophe gewarnt. Bostrom hatte das Szenario entworfen, dass eine KI, die mit der Aufgabe betraut ist, möglichst effizient Büroklammern herzustellen, schließlich die Menschheit auslöscht, weil sie alle verfügbaren Ressourcen für das vorgegebene Ziel aufwendet. Auch gegen Versuche, den Prozess zu stoppen, wehrt sich die KI, weil sie mit ihrer ursprünglichen Aufgabenstellung unvereinbar sind. Man ist unweigerlich an HAL 9000 erinnert, den Computer des Raumschiffs Discovery aus Stanley Kubricks Film 2001: Odyssee im Weltraum aus dem Jahr 1968. Auch HAL wehrt sich gegen die Abschaltung durch die Besatzung, die eine Fehlfunktion vermutet, und beginnt sie zu töten. Schließlich gelingt es einem Crewmitglied, HAL zu überlisten und zu deaktivieren.

Das Motiv im Film wie in der Wirklichkeit ist das selbe: Kontrollverlust. Drohen wir nicht eine übermächtige Technologie zu entwickeln, die wir schließlich nicht mehr kontrollieren können?

„Nüchtern betrachtet ist solch ein Schreckensszenario in näherer Zukunft eher unwahrscheinlich“

Und, teilen Sie eine solche Einschätzung?

Nüchtern betrachtet ist solch ein Schreckensszenario in näherer Zukunft eher unwahrscheinlich - gleiches gilt übrigens auch für allzu euphorische Heilsutopien, wie sie beispielsweise der Erfinder und Publizist Ray Kurzweil beschreibt. In seinem 2005 erschienen Buch The Singularity Is Near: When Humans Transcend Biology fabuliert er über die bevorstehende Verschmelzung von Technologie und Biologie und prophezeit das baldige Auftreten der Singularität – einer techno-biologischen Superintelligenz, die alle irdischen Probleme lösen wird. Der Angst vor dem Kontrollverlust und der Auslöschung der Menschheit wird die Hoffnung auf das technologische Paradis entgegengesetzt.

Warum halten Sie diese Szenarien für unwahrscheinlich?

Dazu müssten KI-Systeme gänzlich neue Eigenschaften entwickeln, die sie zumindest bislang nicht haben, wie etwa eigenständige Ziele und Wünsche oder Bewusstsein. Natürlich ist nicht auszuschließen, dass es irgendwann einmal gelingt, künstliche Systeme mit diesen Eigenschaften auszustatten, oder auch, dass sie ohne gezielte Programmierung „emergieren“, wie kritische Stimmen warnen. Der ehemalige Google-Mitarbeiter Blake Lemoine hat im vergangenen Jahr für Aufsehen gesorgt, als er behauptete, das Google-KI-System LaMDA habe Bewusstsein. Unabhängige Überprüfungen konnten seine Behauptung allerdings nicht bestätigen. Was viel wichtiger ist: Wir verstehen Eigenschaften wie eigenständige Ziele, Wünsche und Bewusstsein bislang noch viel zu wenig, als dass wir verlässliche Voraussagen machen könnten. Wir benötigen daher mehr interdisziplinäre Grundlagenforschung, um Entwicklungspfade besser abschätzen zu können.

Auch wenn es weit weniger unterhaltsam ist als es die überspannten Szenarien à la Bostrom und Kurzweil sind, zu einer fundierten Einschätzung von Risiken gelangt man nur, wenn man sich die Details der aktuellen Forschung und Entwicklung genauer ansieht. Man wird schnell feststellen: Es gibt eine ganze Reihe erstzunehmender Probleme, denen man mit politischen Maßnahmen begegnen sollte.

An welche denken Sie dabei konkret?

Ein erster wichtiger Schritt besteht darin, sich begriffliche Klarheit zu verschaffen. Die Rede von „der KI“ ist irreführend. Tatsächlich werden heute unter dem Begriff „künstliche Intelligenz“ eine Vielzahl von unterschiedlichen Ansätzen der Informatik vereint. Besonders relevant ist aber das sogenannte Deep Learning, das drei der weltweit führenden Forscher in diesem Bereich, Yann LeCun, Yoshua Bengio und Geoffrey Hinton, folgendermaßen beschrieben haben: „Deep Learning ermöglicht Computermodellen, die aus mehreren Verarbeitungsschichten bestehen, das Erlernen von Repräsentationen von Daten mit mehreren Abstraktionsebenen.“ Man merkt, hier wird es schnell sehr technisch. Man merkt aber auch, hier ist nicht die Rede von einem künstlichen Wesen, das über Bewusstsein und, dem Mensch vergleichbar, über eine sehr allgemeine Fähigkeit des Problemlösens verfügt. Es handelt sich um eine Klasse von Techniken der modernen Informatik – nicht mehr und nicht weniger. Diese Feststellung darf nicht darüber hinwegtäuschen, dass Deep Learning sehr leistungsfähig sein kann und oft überraschende Ergebnisse produziert.

Welche Relevanz hat KI überhaupt für das tägliche Leben?

Tatsächlich begegnet uns KI bereits heute auf Schritt und Tritt im Alltag. Ob in Internetsuchmaschinen, in den Empfehlungssystemen von Anbietern wie Amazon oder Netflix, bei teilautomatisiertem Fahren und Navigationshilfen oder Smart-Home-Systemen – überall kommt KI zum Einsatz. Dem einen oder der anderen mögen diese Dienste unheimlich sein, wirklich bedrohlich sind sie aber nicht. Es gibt aber auch andere Kontexte, in denen KI längst Einzug gehalten hat, und wo der Einsatz womöglich dramatischere Konsequenzen haben kann als eine unpassende Filmempfehlung. So etwa in der Medizin. KI ist oder wird hier sehr bald genutzt werden, um Diagnosen und Therapieentscheidungen zu unterstützen. Was aber, wenn ein KI-basiertes Diagnosesystem einen gefährlichen Hirntumor übersieht oder eine fatale Therapieentscheidung trifft? Das sind reale Probleme, mit denen man sich befassen muss. Mittlerweile besteht in der Fachwelt ein weitreichender Konsens, dass bei wichtigen Entscheidungen die Automatisierung von Prozessen nicht zu weit getrieben werden darf. Konkret bedeutet das etwa, dass Diagnosesysteme zwar zur Unterstützung verwendet werden können, die Entscheidung eines Arztes oder einer Ärztin aber nicht vollständig ersetzen darf. Als Werkzeug in menschlichen Händen können KI-Systeme aber ohne Zweifel zu erheblichen Verbesserungen führen.

Sie sehen also auch ein großes Potenzial?

Natürlich, aber KI wird die Welt nicht in ein Paradies verwandeln. Es handelt sich um eine Technologie, die, wie alle Technologien sicher dabei helfen kann, einige Probleme der Menschheit zu lösen, aber nicht alle. Zudem droht sie, neue Probleme zu schaffen oder zumindest einige bestehende Probleme zu verschärfen. Dazu zählt u.a. der hohe Energiebedarf von Deep Learning-Anwendungen, über den erst seit kurzem intensiv diskutiert wird, der aber angesichts des Klimawandels sehr ernst genommen werden muss.

„Statt über Auslöschungsszenarien sollten wir mehr über Implementierungsregeln sprechen“

Welche Herangehensweise empfehlen Sie bei der Einordnung und Bewertung dieser Technologie?

Der kanadische Philosoph Jocelyn Maclure hat vor einiger Zeit in einem Fachbeitrag zu einer „deflationären Sichtweise“ auf KI geraten, die auf eine realistische Einschätzung der Chancen und Risiken abzielt. Darüber hinaus hat er davor gewarnt, dass „inflationäre Sichtweisen“, die Chancen oder Risiken einseitig dramatisieren, von den eigentlichen Problemen ablenken. Hierin scheint aktuell eine wirkliche Gefahr zu bestehen. Statt über Auslöschungsszenarien sollten wir mehr über Implementierungsregeln sprechen und uns auf sehr reale Nachteile von KI-Anwendungen für einzelne Gruppen unterhalten. Was, wenn Verzerrungen in den Trainingsdaten dazu führen, dass medizinische Diagnosesysteme für ethnische Minderheiten nicht funktionieren? Was, wenn vollautomatisierte Prozesse dazu führen, dass einige Menschen keine Bankkredite mehr bekommen, ohne zu wissen warum? Was, wenn die geschickte Nutzung von KI dazu führt, dass Fake News nicht mehr erkennbar sind? Das sind reale Gefahren, denen wir durch politische Maßnahmen tatsächlich dringend entgegenwirken müssen.

Ein aktuelles Editorial in der renommierten Fachzeitschrift Nature argumentiert ähnlich: „Hört auf, über den KI-Untergangstag von morgen zu reden, wenn KI heute Risiken birgt“ heißt es dort. Die Schreckensszenarien erlaubten es einer kleinen Gruppe von sehr einflussreichen Tech-Firmen, den Diskurs über KI zu dominieren. Tatsächlich ist es aber gerade diese Gruppe, die dafür verantwortlich ist, dass ihre Produkte sicher sind, und zwar in jeder Hinsicht. Sollte es tatsächlich Hinweise auf emergierende Eigenschaften in Systemen wir GTP4 oder LaMDA geben, dann sind es die Hersteller dieser Systeme, die effektive Maßnahmen ergreifen müssen, statt sich in medienwirksamen Warnungen zu ergehen.

Wie könnten solche Maßnahmen aussehen?

Die oft kritisierte Europäische Union hat im April 2021 einen Gesetzgebungsprozess angestoßen, an dessen Ende die weltweit erste umfassende Regulierung für KI stehen wird. Am 14. Juni 2023 haben die Abgeordneten des EU-Parlaments ihre Position zum KI-Gesetz verabschiedet. Es folgen nun Verhandlungen mit den EU-Mitgliedsländern im Rat. Im Zentrum des Entwurfs steht eine Differenzierung nach Risikoklassen. Abhängig davon, wie risikoreich eine KI-Anwendung ist, greifen unterschiedliche Maßgaben, die bis zu einem vollständigen Verbot reichen. Unabhängig davon, ob man alle Einzelheiten des Entwurfs für überzeugend hält oder nicht, der EU-Ansatz beschreitet den richtigen Weg, indem er weder dem Hype noch der Hysterie um KI folgt. Er betrachtet KI als das, was es ist: Eine facettenreiche, neue Technologie, die Chancen und Risiken bietet, die man nüchtern analysieren muss, um geeignete regulatorische Maßnahmen in Geltung zu setzen. Statt blumiger Warnungen sind konkrete Regelungen erforderlich, die Diskriminierung und sozialer Ungerechtigkeit durch KI entgegenwirken, fatale Fehlentscheidungen ausschließen, Desinformation sowie Manipulation verhindern und den selbstbestimmten Umgang mit dieser Technologie fördern.

Ansprechpartner

Prof. Dr. Bert Heinrichs

Arbeitsgruppenleiter

  • Institut für Neurowissenschaften und Medizin (INM)
  • Gehirn und Verhalten (INM-7)
Gebäude 14.6 /
Raum 301/302
+49 2461/61-96431
E-Mail

Letzte Änderung: 25.10.2023