MP3-DOWNLOAD (02:10 h)

00:02:30 Dr. Radermacher und der Baukran – Funktionale Intelligenz
00:13:30 Verstehen – Konstruieren und Generalisieren
00:35:00 Tiere und Intelligenz
00:52:35 Ins Politische reingehen
01:00:00 Wie relevant ist die schwache Intelligenz für die Politik
01:05:00 Was kommen musste: Das Panoptikum
01:25:30 Würden KIs etwas ändern?
01:32:00 Wie kommen KIs an Normen und Werte?
01:53:00 Die übermenschliche KI

Steht die Übernahme der Weltherrschaft oder gar die Vernichtung der Welt durch künstliche Superintelligenz (Nick Bostrom) bevor? Diese alte bange Frage der Science-Fiction-Fans bewegt neuerdings sogar Philosophie – stellvertretend in diesem Podcast Dr. Alexander Wiehart – und Computerwissenschaft. Anlass bieten Fortschritte vor allem im Maschinenlernen. Die Vorstellung einer Good Old-Fashioned Artificial Intelligence (GOFAI), die lediglich genauer und schneller als der Mensch rechnen kann und nur das ausgibt, was aufgrund der Programmierung zu erwarten war, gehört der Vergangenheit an. Heutige neuronale Netze erweisen sich als durchaus kreativ und kommen auf Weisen zu ihren Ergebnissen, die der Mensch grundsätzlich nicht vorweg nehmen kann. Künstliche Intelligenz (KI) scheint uns zu entgleiten, was nicht nur Go-Großmeister, jüngst von dem Google-Produkt AlphaGo geschlagen, beunruhigt. Berühmtheiten aus Wissenschaft und IT (Bill Gates, Elon Musk) erheben medienwirksam die warnende Stimme: „Success in creating AI would be the biggest event in human history. Unfortunately, it might also be the last…“ (Stephen Hawking).

An dieser öffentlich geführten Debatte verwundert allerdings, dass wir offenbar gar nicht wissen, was genau Intelligenz überhaupt ist und uns der Maßstab fehlt, Intelligenz zu messen. Überhaupt nicht geklärt ist, wie sich KIs jemals selbständig Ziele setzen könnten. Bislang stagnieren sie auf dem Niveau eines spezialisierten instrumentellen Verstandes und es ist nicht abzusehen, wie und wann eine nicht auf vorgegebene, eng begrenzte Aufgaben reduzierte generelle KI (Artificial Genral Intelligence, AGI) entstehen könnte. Good-story bias (Nick Bostrom) verleitet uns beständig beim Nachdenken: Tatsächlich entwickelt sich Realität aber wohl nicht nach den Genregesetzen von Hollywoodfilmen.

Als sozialwissenschaftlich und philosophisch ergiebig erweist sich immerhin die Diskussion, wie einer KI Moral und Verantwortlichkeit vermittelt werden könnte und welche politische Ansprüche sie berechtigterweise erheben dürfte. Wären Politik und Gesellschaft, wie wir sie kennen, obsolet? Basale ethische und politiktheoretische Positionen prallen in der Debatte aufeinander.

Jenseits solch grundlegender Fragen bedrängen uns die ganz handfesten Befürchtungen. Wie ebenso von prominenter Seite in offenem Brief publik gemacht, werden uns in nächster Zukunft bereichsintelligente autonome Überwachungs- und Waffensysteme bedrohen.

Diese Folge steht unter einer CC BY 4.0 Lizenz.

Musik:

“Off to Osaka”
Kevin MacLeod
Creative Commons Namensnennung Lizenz

Advertisements