Lernen

Dossier: „Künstliche Intelligenz mit eigenem Bewusstsein kann es gar nicht geben“

Foto: Elvira Eberhardt (Portrait)
Was sind die Potenziale und die Grenzen künstlicher Intelligenz? Susanne Biundo vom Institut für Künstliche Intelligenz der Universität Ulm kennt die Antwort.

Frau Biundo, was genau ist eigentlich künstliche Intelligenz?

[SUSANNE BIUNDO] Als man begann, sich mit künstlicher Intelligenz auseinanderzusetzen, hat man sich darunter Systeme vorgestellt, die Dinge tun können, für die ein Mensch Intelligenz benötigt: Schach spielen, mathematische Sätze beweisen, natürliche Sprache verstehen, Bilder und Muster erkennen. Man hat sich lange damit beschäftigt, Computerprogramme zu entwickeln, die solche Aufgaben lösen können. Diese Systeme haben wir heute. Es gibt aber keine wirklich stichhaltige Definition, was künstliche Intelligenz genau sein soll. Das liegt auch daran, dass es nicht einmal eine wirklich stichhaltige Defini­tion gibt, was beim Menschen Intelligenz ausmacht.

Künstliche Intelligenz, Machine-Learning, Cognitive Computing – in der Debatte schwirren sehr viele unterschiedliche Begriffe umher. Bezeichnen die alle dasselbe?

[BIUNDO] Grundsätzlich unterscheiden sich künstlich intelligente Systeme erst einmal von anderer Software, weil bei ihnen eine Trennung herrscht zwischen dem Wissen, über das sie verfügen, und der Methode, wie sie dieses Wissen verarbeiten. Nun kann man das Wissen selbst ständig ändern und anreichern, ohne aber die Verarbeitungsmethode ebenfalls ändern zu müssen. Das Tolle daran ist, dass die intelligenten Systeme auf diese Weise aus neuem Wissen quasi selbstständig Schlussfolgerungen ziehen können. Und genau dafür gibt es verschiedene Methoden, Machine-Learning – manche nennen das auch Cognitive Computing – ist eine davon.

„Venus und Adonis“ von Rubens, gesehen vom Algorithmus des Künstlers Quayola.

Wie können denn Maschinen lernen? Wie bringt man ihnen etwas bei?

[BIUNDO] Beim Machine-Learning werden neuronale Netze, wie man sie in organischer Form aus der Biologie kennt, künstlich nachgebaut. Die sind extrem gut darin, Muster zu erkennen. Man kann mit solchen Systemen aus rie­sigen Datenmengen Analysen und Lösungen für Probleme ziehen. Das Komplizierte dabei ist, dass diese Netze ihr Wissen assoziativ aufbauen. Das heißt, dass man über die Ergebnisse, die so ein System liefert, staunen kann – wie kürzlich, als ein Computer einen Menschen in dem chinesischen Brettspiel Go besiegt hat –, aber man kann nicht nachvollziehen, wie das System darauf gekommen ist, welchen Lösungsweg es gegangen ist. Im Grunde wissen wir nicht einmal genau, was so ein System weiß. Wir müssen daran arbeiten, und auch dafür gibt es Methoden, dass die Maschinen uns zukünftig besser erklären, was genau sie machen.

Kein Wunder, dass es Menschen gibt, die vor einer Superintelligenz warnen, die uns einmal übertrumpfen und unterjochen könnte.

[BIUNDO] Da wäre ich ganz vorsichtig. Natürlich gibt es große Fortschritte im Feld der künstlichen Intelligenz, und es gibt immer autonomere Roboter, die sich mittlerweile in natürlichen Umgebungen bewegen können und ganz bestimmte Aufgaben erfüllen. Aber eine allumfassende Intelligenz, wie wir sie haben – oder gar so etwas wie ein Bewusstsein – kann man in einer Maschine nicht realisieren. Man kann keinen Menschen nachbauen, das will man ja auch gar nicht. Das ist alles Unsinn.

Und die ebenfalls verbreitete Angst, dass die immer smarteren Maschinen das Ende der menschlichen Arbeit einleiten? Ist das auch Unsinn?

[BIUNDO] Sicherlich kann man viele einfachere Dinge zukünftig automatisieren. Deshalb sollten wir in Bildung investieren. Wir sollten Menschen befähigen, komplexere Jobs zu übernehmen. Aber davon abgesehen, würde ich eher die riesigen Möglichkeiten sehen, die die künstliche Intelligenz bietet. Wenn etwa ein Arzt ein System hätte, das über sämtliches medizinisches Wissen verfügt, in das er Befunde eingeben kann, um dann von der Maschine Dia­gnosen vorgeschlagen zu bekommen, wäre das doch wunderbar. Das Risiko, dass der Arzt eine seltene Krankheit übersieht, weil er schlicht nicht alles wissen und kennen kann, wäre reduziert. Dennoch wird der Arzt immer nötig sein, um zu prüfen, ob das, was die Maschine vorschlägt, plausibel ist, und um dann die endgültige Entscheidung zu treffen.


Dieser Beitrag ist Teil des Dossiers „Machine-Learning“.

Hier geht’s zurück zur Übersicht >>>


biundoSusanne Biundo ist seit 1998 Professorin für Informatik an der Universität Ulm. Dort leitet sie das Institut für Künstliche Intelligenz. Auch wenn man nicht so ganz genau weiß, wie die Maschinen lernen – Angst müsse man vor ihnen nicht haben, sagt sie.