September 2016
Entscheidungsfindung und AI

Am 21. September haben wir bei Liip über Entscheidungen und AI diskutiert.

Für das Fällen von Entscheidungen kommen zunehmend mehr Algorithmen zum Einsatz. Sie sortieren Suchresultate nach Relevanz und erstellen Datenvisualisierungen. Als unsichtbare digitale Helfer sind sie schon weit verbreitet. Im Vergleich zu Menschen, haben Algorithmen kein Problem, mit viel Information um zu gehen. AI, insbesondere Deep Learning konnte in den letzten Jahren bemerkenswerte Fortschritte erzielen mit verschiedenen kognitiven Fähigkeiten.

Sascha Corti hat eine Übersicht der Tools von Microsoft gegeben, die Machine Learning einem breiterem Publikum zugänglich macht. Systeme mit Machine Learning können aufzeigen, wo man ein Prozess optimieren kann. Dazu nutzen sie eine grosse Menge von Datensätze. Aus den Daten der in der Vergangenheit aufgetretene Ereignisse können sie mit einer Wahrscheinlichkeitsrate das Eintreten eines Ereignis in der Zukunft vorhersagen. Eine Ausprägung von Predictive Software wird als Predictive Maintenance bezeichnet und wird schon jetzt in der Airlines Industrie und bei Liftherstellern eingesetzt.

Kevin Mader von 4Quant hat einen kurzen Überblick über den Stand von AI Technologie gegeben. Das Feld begann um 1951, als Christopher Strachey ein Programm entwickelte, das ihn in Dame schlagen konnte. Computer beherrschten zunehmend kompliziertere Spiele. Vor einigen Monaten konnte das Programm Alpha Go die besten Go Spieler schlagen; Go ist ein Spiel, das eine hohe Komplexität hat und Intuition erfordert, um es zu spielen. Die grossen Player wie Google und Facebook stellen ihre AI Systeme als Open Source für Entwickler bereit, in der Hoffnung die best-trainierten AI Systeme zu besitzen. An sich sind die Algorithmen selbst nicht sehr wertvoll, das wirklich wertvolle sind die Daten. Kevin zeigte dann, wie AI Technologie heute in der Medizinforschung eingesetzt wird. Es ist ein Bereich, wo die Fehlertoleranz praktisch null ist. Lernende Bilderkennungs-AI kann auf praktisch jede beliebiges Aufgabe trainiert werden. Mit genügenden Iterationen erzielt sie konsistent bessere Resultate als menschliche Mediziner. Doch bei der Wahl der richtigen Therapie treffen die Mediziner noch die besseren Entscheidungen.

Rechtlich ist im Bereich AI noch einiges offen. Martin Steiger hat aufgezeigt, wie zu eruieren ist, wer die Verantwortung trägt, falls ein Unfall passiert. Nach dem heutigen Recht kommt beispielsweise das Produktehaftpflichtgesetz in Frage. Hierbei haftet der Hersteller, oder, falls man ihn nicht ermitteln kann, der Lieferant für ein fehlerhaftes Produkt – grundsätzlich unabhängig vom Verschulden. Eine solche Kausalhaftung ist vor allem dort sinnvoll, wo Produkte auf den Markt gebracht werden, die gefährlich sind. Aber wie stuft man Software und AI ein? Ist sie autonom, lernfähig, aber nicht urteilsfähig oder zurechnungsfähig? Ist sie wie ein Haustier, zum Beispiel ein Hund, nach dem heutigen Recht? Oder ist sie wie eine Sklavin nach historischem, römischen Recht? Und was ergeben sich für ethische Fragen, wenn man AI ähnlich wie einen Hund, eine römische Sklavin oder einen modernen Lohnsklaven behandelt?

René Pfitzner, Lead Data Scientist bei der NZZ, hat erklärt wie er AI in Zukunft bei der NZZ einsetzen will. Er will einen Algorithmus für Lese-Empfehlungen entwickeln. Ein Filterbubble wird erzeugt, wenn ein Algorithmus so konzipiert ist, dass immer mehr vom Gleichen angezeigt wird. Darum will er den Algorithmus so entwickeln, dass er einem Leser hilft, Neues zu entdecken. Dieser ist dennoch aber nicht komplett zufällig, denn ein lernfähiger Algorithmus kann erkennen, was den Leser sicherlich nicht interessiert.

In der Diskussion warf Harald Taglinger die Frage auf, wie weit es AI gebracht hat. Genau betrachtet ist der Begriff Künstliche Intelligenz noch nicht wirklich zutreffend. Die aktuellen Systeme können zwar selbständig Regeln lernen, doch sind sie nicht bewusst, was diese überhaupt bedeuten. Die Grenzen, was ein AI System leisten kann, ändern sich momentan sehr schnell.

Wie Matthias Aeby anfügte, sind wir heute noch nicht in einer Welt, in der AI Systeme selbständig von A bis Z Entscheidungen selbständig fällen. Maschinen sind mittlerweile besser als Menschen bei der Analyse grosser Datenmengen. Sie überzeugen jedoch noch nicht vollständig in den Bereichen, alle Informationen wieder zu einer Synthese zusammenzufügen und eine Entscheidung zu treffen.

Beim Apero wurde bemerkt, dass das zukünftige Gehalt von jedem davon bestimmt wird, wie gut er oder sie mit solchen Systemen zusammenarbeiten kann. So ist AI schon jetzt ein mächtiges Werkzeug für den, der es einzusetzen weiss. Offensichtlich werden AI Systeme zunehmend monotone Arbeiten dem Menschen abnehmen. Mit selbstfahrenden Autos wird der Lastwagenfahrer kein Zukunftsjob mehr sein. Aber bei jeder neuen Technologie geht es nicht ein Mensch oder Maschine, sondern um eine Fusion der beiden. Kasparov spielt noch besser Schach, wenn er mit Hilfe eines Schachprogramms spielt.

Die Demo von Hans-Ruedi Früh (F&P Robotics AG) mit seinem Roboter Arm P-Rob war auch faszinierend. Gezeigt wurde wie der Roboter schnell neue Handlungen lernen kann und dank diverser Sensoren Objekte erkennt und rechtzeitig hält, falls er einen Menschen berührt. Fp-Robotics nutzt die diversen AI Plattformen für Objekterkennung, Sprachausgabe, etc. Da diese Plattformen sich rasant weiterentwickeln, erweitern sich die Fähigkeiten des Roboters laufend.





Weitere Quellen
Präsentation und Weblinks von Martin Steiger
Fortune, Why Deep Learning Is Suddenly Changing Your Life
The Guardian ‘Partnership on AI’ formed by Google, Facebook, Amazon, IBM and Microsoft
Ted, How to use data to make a hit TV show
Amazon Alexa
Facebook Torch
Google Tensor Flow
IBM Watson
Open AI