TECHNOLOGY
Gefahr: „Künstliche Dummheit” © Chris Haderer

Donald Farmer, Evangelist und Vice President Innovation and Design beim Business Intelligence-Lösungsanbieter Qlik.

© Chris Haderer

Donald Farmer, Evangelist und Vice President Innovation and Design beim Business Intelligence-Lösungsanbieter Qlik.

CHRIS HADERER 12.06.2015

Gefahr: „Künstliche Dummheit”

Interview Donald Farmer, Design-Evangelist beim BI-Anbieter Qlik, hält „artificial stupidity” für eine Gefahr bei datenbasierenden Entscheidungen

Auf künstlicher Intelligenz basierende Maschinen-Systeme sind nur zur Bearbeitung von simplen Problemstellungen geeignet.

Mainz. Business Intelligence, Datenanalyse – und künstliche Intelligenz. Die Auswertung massiver Datenberge wird für den Geschäfts-alltag immer wichtiger, gleichzeitg stoßen klassische Systeme durch Volumen und Komplexität der Informationen immer öfter an Grenzen. Wie weit können nun Maschinen Menschen bei der Entscheidungsfindung helfen oder sie ihnen abnehmen? Über dieses Thema sprach Donald Farmer Evangelist und Vice President Innovation and Design beim BI-Anbieter Qlik, mit medianet.technology im Umfeld der kürzlich in Mainz gestarteten „Visualize Your World”-Roadshow des Unternehmens.

Einfache Maschinen

medianet: Die Datenanalyse gewinnt an Stellenwert. Wie können Maschinen Menschen bei der Entscheidungsfindung unterstützen? Ist ‚künstliche Intelligenz' hier ein Thema?
Donald Farmer: Menschen können Entscheidungen treffen – und Maschinen auch. Maschinen können allerdings nur ‚einfache' Entscheidungen treffen. Künstliche Intelligenz ist gut, wenn es um simple Problemstellungen geht, bei denen man Inputs und Outputs kennt. Dann kann man mit kontinuierlichen, wiederholbaren Ergebnissen rechnen. Solche Systeme können Menschen eine Menge Arbeit abnehmen. Was wir Menschen den Maschinen aber voraushaben: Wir können Komplexität verstehen.

medianet:
Künstliche Intelligenz meint durchaus ein breites Feld – vom Schachcomputer bis zum ‚Terminator' im Kino. Was verstehen Sie darunter?
Farmer: Aus meiner Sicht beschreibt künstliche Intelligenz ein maschinelles System, das Entscheidungen für sich selbst treffen kann. Diese Definition ist für meine Arbeit im Softwaredesign wichtig.

medianet:
Sind KI-Systeme in ihrer Fähigkeit, komplexe Entscheidungen zu treffen, durch zu wenig leistungsfähige Hardware limitiert oder ist das ein Softwareproblem?
Farmer: Es sind die Algorithmen; sie kommen nicht mit Veränderungen und Unsicherheiten zurecht. Menschen können das hingegen schon. Wir können beispielsweise eine Schätzung machen – Maschinen nicht. Menschen können Situationen auch mit Erfahrungen vergleichen und Schlüsse ziehen. Maschinen haben keine Erfahrungen.

medianet:
Die IBM-Chefin Ginni Rometty hat einmal gesagt, dass im Zeitalter von Big Data Entscheidungen nur mehr auf Basis von Fakten getroffen werden und nicht mehr intuitiv vom Management. Teilen Sie diese Ansicht?
Farmer: Das ist nicht ganz wahr. Es hängt davon ab, um welche Art von Entscheidung es sich handelt. Wenn es darum geht, etwa Preise zu vergleichen oder Termine zu koordinieren, können Entscheidungen rein auf Daten basieren. Wenn es aber um komplexe Entscheidungen geht, wie etwa darum, in welches Land investiert werden oder eine Niederlassung eröffnen soll, sind Maschinen überfordert. Große Entscheidungen – big ­decisions – werden immer von Menschen getroffen. Die IBM-Aussage hat etwas Ironisches: Ginni ­Rometty müsste sich dann selbst gleich durch eine Maschine ersetzen …

medianet:
Birgt die intensive und tiefe Datenanalyse Ihrer Meinung nach auch Gefahren in sich?
Farmer: Die größte Gefahr ist nicht künstliche Intelligenz, sondern künstliche Dummheit – artificial stupidity. Mehr Daten zu verarbeiten, bedeutet nicht intelligentere Systeme. Auch wenn immer mehr Dinge des Lebens von Maschinen gesteuert werden – es handelt sich genau genommen um ‚dumme' Geräte; ihre Fähigkeit, komplexe Entscheidungen zu treffen, wird durch die Datenmenge nicht besser. Das ist eine Gefahr. Die andere sehe ich darin, dass Menschen verschiedene Entscheidungen einfach Maschinen überlassen – wie etwa blind den Befehlen eines Navis zu folgen. Die dritte Gefahr sehe ich darin, dass wir zu viele ­Informationen über uns selbst preisgeben.

BEWERTEN SIE DIESEN ARTIKEL

TEILEN SIE DIESEN ARTIKEL

Ihr Kommentar zum Thema