Medien

Fokus: Zeitalter der Superhirne

Mensch – Maschine

Faktor Mensch – Thesen zum neuen Verhältnis von Mensch und Algorithmen.

23. Februar 2018

Medien

Mensch – Maschine

Künstliche Intelligenz – was bedeutet das? Und welchen Einfluss hat sie auf uns Menschen? Vier Thesen zum neuen Verhältnis von Mensch und Algorithmen.

Was ist Künstliche Intelligenz und was kann sie leisten?

15,7 Billionen $

soll das zusätzliche Wachstum für die Weltwirtschaft durch KI bis 2030 betragen.

Faktor Mensch – Thesen zum neuen Verhältnis von Mensch und Algorithmen.

 

1 | Algorithmen sind auch nur Menschen: Der trügerische Schein der Objektivität

Daten durch Software analysiert. Damit gewinnen solche Algorithmen an Macht. Doch diese agieren so subjektiv und selektiv, wie sie ihre menschlichen „Schöpfer“ programmiert haben. Bewusste oder unbewusste Vorurteile und Lebenserfahrungen der Programmierer fließen in Algorithmen ein. Kredite werden verweigert oder erschwert, weil die Software den Schuldner in einem problematischen Wohnviertel verortet, dieser aber durchaus solvent ist. Scheinbar objektive Software zur Vorhersage von Verbrechen („predictive policing“) kann wie ein Verstärker für bereits bestehende Diskriminierung wirken. Kontrolliert die Polizei dadurch etwa besonders viel in sozialen Brennpunktvierteln, erfasst sie dort möglicherweise mehr Kriminalität. Dies fließt dann wieder stärker gewichtet in digitalisierte Zukunftsprognosen ein.

 

2 | Die Welt wird erzählt – und nicht gezählt: Die wirkliche Wertschöpfung resultiert aus einer Kombination von Datenanalyse und menschlicher Expertise

Schon 2008 rief Chris Anderson das „Ende der Theorie“ aus. „Die Datenflut macht das wissenschaftliche Verfahren obsolet“, schrieb der Chefredakteur der Zeitschrift „Wired“. Algorithmen könnten dank Big Data Muster finden, die Forschung und Wissenschaft mit ihren Methoden niemals entdecken würden. „Mit genügend Daten sprechen die Zahlen für sich selbst“, so Anderson. Doch knapp zehn Jahre nach Andersons Artikel ist die Euphorie der Ernüchterung gewichen. Zurückzuführen ist das auf Fehlschläge der Datensammler wie etwa Google, deren Programm Flu Trends 2012/13 eine Grippeepidemie im Anmarsch sah, die es dann nie gab. In komplexen Situationen können Korrelationen keine Kausalität, Annahmen keine Beweise ersetzen. Hier ist menschliche Expertise gefragt.

Hinter den Leistungen Künstlicher Intelligenz stecken Programmierer.

3 | Der Mensch lenkt, der Rechner denkt: Wir müssen die Kontrolle über die Technologie behalten

Systeme der Künstlichen Intelligenz (KI) entwickeln sich bereits eigenständig weiter. Sie lernen nach mathematischer Logik aus Fehlern und erschließen sich eigenständig Entscheidungen. Wie genau etwa neuronale Netze der KI jeweils zu ihren Schlüssen kommen, lässt sich für den Menschen kaum noch nachvollziehen. Ein Punkt, an dem dringend nachgebessert werden müsse, fordert Informatik-Professor Alan Bundy aus Schottland. Politiker und Verbraucherschützer verlangen indes für die immer smarter agierenden KI-Algorithmen anerkannte Standards. Zudem solle deren Funktionsweise von unabhängiger Stelle überprüft werden – besonders, wenn die KI in gesellschaftlich relevanten Bereichen agieren. Außerdem müssten KI-Maschinen warnen, bevor sie außerhalb ihrer Kompetenzen agierten, damit der Mensch ihnen beispringt – oder wieder vollständig die Kontrolle übernimmt.

Ein selbstlernender Computer spielt in Tokio japanisches Schach auf Profiniveau.

4 | Supercomputer sind nicht automatisch die besseren Menschen: Menschliche Erfahrungen und Werte lassen sich nicht delegieren

Durch KI und selbstlernende Algorithmen machen Maschinen rasante Lernfortschritte. Forscher halten eine Superintelligenz, also Maschinen, die dem Menschen in vielen oder allen Gebieten überlegen sind, in wenigen Jahrzehnten für möglich. Hier ist ein rationaler Blick auf die Grenzen und Möglichkeiten der neuen Technologien gefragt. Künstliche Intelligenz kann in bestimmten Bereichen auf der Basis solider Daten objektiv bessere Entscheidungen treffen als der oft intuitiv handelnde Mensch. Bei komplexen Entscheidungen, die den Kern menschlichen Zusammenlebens betreffen, wie etwa Armutsbekämpfung, gibt es indes weder richtig noch falsch: Hinter ihnen stehen Menschen, die je nach ihren Erfahrungen, Werten und Zielen eine Wahl treffen. Diese Essenz einer humanen und demokratisch verfassten Gesellschaft lässt sich nicht an smarte Maschinen delegieren.

Überholt uns die künstliche Superintelligenz?

Pro und Contra: Die Eigendynamik der Künstlichen Intelligenz lässt Raum für beides: Skepsis wie Hoffnung.

Klaus Mainzer
Professor für Philosophie und Wissenschaftstheorie und Experte für Künstliche Intelligenz, TU München

Pro

Systeme Künstlicher Intelligenz (KI) sind heute schon zu Leistungen in der Lage, die wir mit Lernerfahrungen und Intuition erbringen. Sie schaffen das allein mit großer Rechenpower plus raffinierter Mathematik. Das ist – ohne Wenn und Aber – eine beachtliche Innovation, die wir nutzen sollten. Künstliche Intelligenz schlägt jeden Pokerexperten – ohne Emotionen, ohne jedes Bewusstsein, und das, obwohl das Spiel als Inbegriff von Intuition gilt. Und Poker ist nur der Prototyp für Situationen, in denen Menschen sich bei unvollständiger Information entscheiden müssen. Über kurz oder lang werden diese Algorithmen auch bei Entscheidungssituationen in Wirtschaft und Politik zur Anwendung kommen. Sie könnten uns zum Beispiel bei komplexen Verträgen unterstützen, aber nicht ersetzen. Meinungsbilder spezieller Gruppen lassen sich dank Big Data mittlerweile sehr genau feststellen. Technisch ist durch KI so etwas wie eine Regierung des „perfekten Populismus“ denkbar. Manch Autor sieht gar die Demokratie durch hochintelligente Algorithmen gefährdet. Diese Debatte könnte man als „Science Fiction“ abtun. Ich nehme sie ernst. Daher müssen wir darauf achten, dass KI-Systeme unsere Dienstleister bleiben.

Contra

Dass intelligente Maschinen die Weltherrschaft übernehmen – davon sind wir noch extrem weit entfernt. Wenn ein Google-Computer ein sehr komplexes Spiel besser beherrscht als ein Mensch, dann heißt es ehrfurchtsvoll: „Oh, diese Maschinen sind schlauer als wir.“ Aber so ein Programm kann eben nur das. Selbst KI-Systeme wie beim autonomen Fahren haben nach wie vor einen sehr engen Fokus. Die Künstliche Intelligenz wird sich nicht sagen: „Hm, die Art und Weise, wie ich agiere, ist jetzt vielleicht nicht besonders sicher.“ Der Mensch hingegen kann einen Schritt zurücktreten – und die Dinge aus einer breiteren Perspektive betrachten. Die echte Gefahr liegt nicht in einer zu smarten Technologie – sondern darin, dumme Maschinen zu überschätzen, ihnen Aufgaben zu geben, die sie überfordern. Etwa, wenn sich Ärzte bei Diagnosen zu sehr auf KI verlassen. Aber das sind Bedrohungen für einzelne Menschen, nicht für die Menschheit.

Alan Bundy
Professor für Automated Reasoning, School of Informatics, University of Edinburgh/Schottland