Künstliche Intelligenz ist ein Thema, das die Welt umkrempeln kann. Mit ihrer Hilfe entstehen täuschend echt aussehende, aber gefälschte Bilder und Videos. Künstliche Intelligenzen können Texte schreiben. Und sie können manch einen Arbeitsplatz überflüssig machen. Wird künstliche Intelligenz (KI) also demnächst die Herrschaft über die Welt übernehmen und Menschen versklaven – so wie im Science-Fiction-Film „Matrix“?
Wohl kaum, schätzt Philip Häusser. „Es ist alles eine Frage davon, wie viele Hebel ich der KI in die Hand gebe“, sagt er. Häusser ist promovierter Physiker, forscht als Wissenschaftler zu KI, arbeitet damit in einem Medizintechnik-Startup und tritt immer wieder als Wissenschaftserklärer im Fernsehen und in verschiedenen Formaten bei der Videoplattform YouTube auf. Und Häusser ist als Hauptredner bei der Abendveranstaltung des Wirtschaftsforums in der Singener Stadthalle am Donnerstag, 18. April, zu Gast.
Der Abend fürs breite Publikum beginnt um 19.30 Uhr, nach Häussers Vortrag gibt es eine Podiumsdiskussion mit Publikumsbeteiligung. Der SÜDKURIER ist Medienpartner des Wirtschaftsforums, Chefredakteur Stefan Lutz wird den Abend moderieren.
KI ist ein Teil der digitalen Welt, der sehr schnell wächst. Der KI-gesteuerte Chatbot Chat GPT ist ein Beispiel dafür. Laut dem Finanz-Blog Finantio wurde Chat GPT am 30. November 2022 vorgestellt. Und schon im Februar 2023 habe es mehr als eine Milliarde Aufrufe für das digitale Sprachwerkzeug gegeben.
Dass Maschinen über Menschen herrschen könnten, diese Gefahr schätzt Häusser allerdings als nicht sehr groß ein. Und auch, dass es jetzt besser gemachte Fälschungen gibt, auch als Deepfakes bekannt, sei eigentlich eher eine Weiterentwicklung von früheren Fälschungen. Jetzt könne es durch KI allerdings viel mehr davon geben.
Um diese Flut zu filtern und echte von gefälschten Bildern und Videos zu unterscheiden, brauche es neue Medienkompetenz. Häusser stellt in diesem Zusammenhang auch den Wert von Journalismus und klassischen Medien heraus. Denn diesen klassischen Medien würden die Menschen vertrauen.
Ein Risiko von KI, das Häusser für das wahrscheinlichste hält, ist, dass die Gesellschaft sich stärker spalten könnte. In diesem Fall in diejenigen, die sich mit KI auskennen und mithilfe der Technik ihre Position an der Spitze der Gesellschaft weiter ausbauen können, und in diejenigen, die mit der Technik nicht umgehen können und abgehängt werden. „Das würde zu einer unfairen Verteilung von Wissen führen“, erklärt der Physiker. Und da könne es passieren, dass Menschen ihre eigene Position abschaffen.
Ein Weckruf, damit Menschen wieder selbst kreativ werden
KI sei in diesem Zusammenhang ein Weckruf für Menschen, sich wieder auf das typisch Menschliche zu konzentrieren: „Kreativ sein, das kann KI nicht wirklich“, sagt Häusser. Die Begründung: Künstliche Intelligenzen werden mit bereits existierenden Daten gefüttert, damit die Maschinen lernen können. Eine KI würfele also zusammen, was bereits da ist. Etwas komplett Neues zu schaffen, sei aufgrund dieser Systematik nicht möglich.
Doch was sich leicht automatisieren lasse, werde auch automatisiert – auch diese Botschaft vermittelt Häusser im Vorfeld des Wirtschaftsforums. KI schafft in seinen Augen eine neue Stufe der Automatisierung. Denn wenn die Maschine etwas selbst lernen kann, dann gehe das über die bisherigen Techniken mit starren Arbeitsanweisungen und Algorithmen weit hinaus.
Frage, wie Lernen funktioniert
An diesem Punkt kommt Häussers Faszination mit künstlicher Intelligenz und maschinellem Lernen ins Spiel. Das Schlüsselerlebnis trug sich während seines Masterstudiums 2013 und 2014 in Kalifornien zu, wie er erzählt. Es sei um ein Implantat im Auge gegangen, das die lichtsensiblen Zellen, die Stäbchen und Zapfen, ersetzen sollte – um Menschen mit einer bestimmten Art von Blindheit sehen zu lassen. Um herauszufinden, wie der Computerchip in dem Implantat neuronale Signale erzeugt, habe es Versuche an Ratten gegeben. Und diese habe er auswerten müssen.
Allerdings seien die Messdaten sehr verrauscht gewesen, weshalb er sich Rat bei Computerwissenschaftlern geholt habe. Die hätten dann erklärt, dass ein Computer selbst lernen könne, solche Daten auszuwerten: „Das hat mich fasziniert.“ Man frage sich bei der Arbeit mit KI auch immer, wie das eigene Lernen funktioniert.
Alles eine Frage des Trainings
Wie gut eine KI funktioniert, hänge auch davon ab, wie sie trainiert wurde. Deswegen tritt Häusser auch der Vorstellung entgegen, dass KI nicht so wichtig sei, weil sie ja nicht wie menschliche oder tierische Intelligenz funktioniere. „Das muss sie nicht“, erklärte er schon im Pressegespräch zum Wirtschaftsforum. Man müsse als Mensch vorgeben, wie die Ergebnisse aussehen sollen, und schauen, an welchen Stellschrauben man drehen kann, damit sinnvolle Ergebnisse herauskommen. Und wenn eine KI dann funktioniere, könne sie beispielsweise dabei helfen, mit weniger Arbeit produktiver zu sein oder Bürokratie zu bewältigen.
Und was erwartet die Besucher beim Wirtschaftsforum? Auf jeden Fall keine Formeln, verspricht Philip Häusser. Ihm sei wichtig, dass mehr Menschen über KI Bescheid wissen und fundiert darüber sprechen können. Dazu soll sein Vortrag beitragen.