10 Take-aways von der ML Conference 2019: Emotionale Roboter, lebensrettende KI & die Voice-Revolution

Die Machine Learning Conference 2019 in Berlin ist vorüber. Was haben wir von der Konferenz mitgenommen? Unsere 10 Take-aways greifen einige der Highlights heraus – von Roboterethik über menschenlebenrettende ML-Projekte bis hin zur Revolution durch sprachgesteuerte (Ro)Bots.

Take-away #1: Die Moral von der Geschicht

Was haben Roboter mit Ethik zu tun? Mit dieser Frage eröffnete Dr. Janina Loh (Universität Wien) die Machine Learning Conference 2019 in Berlin. In ihrer Keynote sensibilisierte sie das technisch orientierte Publikum, bestehend vornehmlich aus Machine-Learning-Entwicklern und Data Scientists, für die moralischen Konsequenzen ihres Tuns. Denn menschliche Aktionen seien immer normativ, so auch die Produkte, die menschlichen Aktionen entsprängen – beispielsweise Technologien ausgestattet mit künstlicher Intelligenz, z.B. Roboter.

Der Begriff „Roboter“ wurde im Jahr 1921 von den tschechischen Schriftstellern Karel und Josef Čapek im Theaterstück „Rossum‘s Universal Robots“ geprägt. Aus der ursprünglichen Bedeutung, dem tschechischen Wort „robota“, das soviel wie „Zwangsarbeit“ bedeutet, leiten sich bereits etliche Fragen ethischer Natur ab:

  • Sind Roboter technische Sklaven?
  • Welche Art von menschlicher Arbeit sollen Roboter übernehmen?
  • Wer entscheidet, welche Arbeiten Roboter übernehmen sollen?
  • Welchen Wert hat Arbeit generell für uns Menschen?
  • Wie sieht eine Gesellschaft aus, in denen DDD-Arbeiten (dull, dangereous, dirty) gänzlich von Maschinen übernommen werden?

Nun sind Roboter längst mehr als künstlich geschaffene Arbeiter. Bereits heute sind zahlreiche weitere Domänen von Robotern bevölkert:

  • Militär
  • Gesundheitswesen
  • Automotive
  • Haushalt
  • Unterhaltungsindustrie
  • etc.

Jede dieser Domänen wirft sicherlich ihre eignen, speziellen ethischen Fragestellungen auf. Doch stellt sich grundlegend für alle das Problem, auf welche Art und Weise ethische Systeme in Roboter eingebettet werden können bzw. sollten. Klassisch ist hier der Top-down-Ansatz, bei dem gewisse Regeln fest implementiert werden, nach denen Robotersysteme handeln – die drei Asimovschen Robotergesetze sind hierfür ein Beispiel.

Dem gegenüber steht der Bottom-up-Ansatz. Hier werden moralische Verhaltensweisen erlernt. Trial and Error, Lernalgorithmen, Reinforcement Learning lauten  die Stichworte. In der Praxis kommen oft hybride Ansätze zum Einsatz, bei denen vorgegebene Regeln mit Lernprozessen kombiniert werden. Dabei muss Lernen nicht vollständig autonom vonstatten gehen, menschliche „Roboter-Pädagogen“ können die Lernprozesse beschleunigen bzw. verbessern: Roboter lernen durch die Imitation ihrer menschlichen Lehrkräfte (Imitation Learning – IL).

Nach diesen Ausführungen zog Loh das Fazit, dass wir im Umgang mit Technologie auf mindestens fünf Ebenen Verantwortung tragen:

  • Auf der Ebene persönlicher, individueller (moralischer) Handlungen
  • Im Ethik- und Informatik-Unterricht an Schulen
  • An Universitäten und Schulungseinrichtungen der technischen Wissenschaften
  • In Form obligatorischer Training-Kursen von Unternehmen
  • In Form ethischer Komitees und ähnlichen institutionellen Körpern

Im Interview vertiefen wir das Thema Roboterethik weiter – schauen Sie rein:

Take-away #2: Deep Learning kann Leben retten

Die zweite Keynote des ersten Hauptkonferenztages hielt Dr. Yonit Hoffman vom Unternehmen Windward. Sie zeigte dem interessierten Publikum, wie Daten dabei helfen können, Schiffsunglücke vorherzusagen und zu vermeiden. Weshalb Schiffe? Die Antwort ist erschreckend einfach: Eines von zehn Schiffen verunglückt pro Jahr, oft mit fatalen Folgen.

ml
Mögliche Risiken für Schiffe können durch Anomalie-Erkennung aufgespürt werden – etwa wenn ein Schiff ins Driften gerät oder unerlaubterweise von seiner Route abweicht. Zudem ist Behavior Modeling in schlechtem Wetter essentiell, um möglicherweise verheerende Unglücke zu vermeiden, da die Routen zur Vermeidung von Stürmen angepasst werden müssen.

Temporal Convolutional Networks erwiesen sich als gut geeignet, mit den Daten umzugehen, die im Fall von Schiffen als Zeitreihendaten vorliegen. SHAP Values (SHapley Additive exPlanations) werden verwendet, um die Modelle zu erklären.

Spannende Einsichten in einen echten ML-Use-Case, bei dem Leben gerettet werden. Sie können die gesamte Keynote im unteren Livestream nachverfolgen:

Take-away #3: Voice Revolution – gekommen, um zu bleiben

Die MLcon fand im Konferenzduo mit der VoiceCon statt. Besucher konnten die zahlreichen Sessions besuchen, die sich mit der nächsten großen Revolution beschäftigten: Spracherkennung und Steuerung von Technologie durch Sprache.

Francisco Rivas (Navteca) etwa zeigte, wie sich in Python ein Alexa Skill programmieren lässt. In der Alexa Developer Console können im Handumdrehen Utterances, Intents und Endpoints angelegt werden. Via Python werden Lambda-Funktionen mit Permissions und Zugriffsrechten auf benötigte Ressourcen wie Logs oder Datenbanken geschrieben.

Die eigentliche Herausforderung bestehe allerdings darin, einen sinnvollen Use Case zu finden und diesen so intuitiv wie möglich umzusetzen; so, dass er dem Nutzer tatsächlich einen Mehrwert bietet. Die Krux liegt in der User Experience, wie Francisco Rivas betont:

Eine der Herausforderungen beim Design von Voice-Diensten ist, wie man mit der Frustration eines Nutzers umgeht, der etwas richtig gesagt hat, vom Voice-Dienst aber nicht verstanden wurde. Wie kann man Alexa helfen, bestimmte Vokabeln besser zu verstehen, z.B. Nischenbegriffe oder Jargon.

Dass das Thema Voice gekommen ist, um zu bleiben – darüber waren sich alle Experten einig. VoiceCon-Kurator Ralf Eggert (Travello):

Wir stehen noch am Anfang einer Entwicklung, die gerade erst begonnen hat. Einige Leute würden das Thema „Voice“ gerne mit früheren Flops wie Second Life gleichsetzen, aber ich bin überzeugt, dass das Thema bleiben wird. Eine Sprach-Schnittstelle ist einfach der natürlichste Weg, einem Computer zu sagen, was er tun soll.

Take-away #4: Tool-Tipp BERT

Kennen Sie BERT? Dabei handelt es sich nicht (nur) um die schlecht gelaunte Puppe aus der Sesamstraße, sondern auch um ein Natural Language Processing Model von Google. Christoph Henkelmann (DIVISIO) stellte in seiner Session die Möglichkeiten vor. Sein Fazit:

BERT ist ein System, das für praktisch alle NLP-Aufgaben genutzt werden kann. Es ist sehr vielseitig, aber auch sehr mächtig.

Wir haben ihn nach seiner Session zum Interview geladen, in dem wir ihn auch nach seiner Meinung zu OpenAIs GPT-2 befragten. Was können die aktuellen KI-Algorithmen, was noch nicht? Wo liegen die Chancen und Gefahren?

 

Take-away #5: Menschliche Intelligenz ist (noch) einzigartig

Nahezu alle Forschung in Bezug auf ML-Intelligenz beschäftigt sich mit dem “Wie”, doch Srividya Rajamani (Siemens Healthineers) zufolge ist das nicht die Kernfrage, die wir uns stellen sollten. Darauf ging sie in ihrer Session “Building Emotionally Intelligent Machines” ein.

Das Hauptmerkmal menschlicher Intelligenz sei die Fähigkeit, nach dem “Was” und “Warum” zu fragen. Menschen seien dazu in der Lage, ihre eigenen sowie die Emotionen anderer zu erkennen, zu verstehen und zu kontrollieren. Die Herausforderung sei demnach, Maschinen mit den Fähigkeiten auszustatten, Emotionen zu erkennen, darzustellen und zu interpretieren.

Werden emotional intelligente Maschinen in der Lage sein, mit menschlicher Exzellenz mitzuhalten? Der Einschätzung Srividya Rajamanis zufolge wird das in naher Zukunft nicht der Fall sein. Menschen werden Maschinen in Bezug auf Verhandlungen, Konfliktmanagement, Teamwork und Networking sowie bezüglich des Verstehens und Motivierens menschlicher Wesen weiterhin übertreffen.

Die Frage ist nicht, ob wir einer intelligenten Maschine Emotionen beibringen können. Die Frage ist, ob wir eine Maschine intelligent machen können, OHNE ihnen Emotionen beizubringen.

Take-away #6: Reinforcement Learning – zu viel Intelligenz ist auch nicht gut!

Dr. Christian Hidber, bSquare AG und Oliver Zeigermann, embarc gaben in ihrem Workshop dem Thema „Reinforcement Learning“ Gestalt. Mithilfe von TensorFlow-Agents zeigten Sie praxisnah, wie echte Fragestellungen aus dem Alltag in Reinforcement-Learning-Tasks übersetzt werden können. Welche  Stolpersteine gilt es dabei zu vermeiden?

Christian berichtet aus seiner Praxis:

Eine große Versuchung beim Reinforcement Learning ist es, möglichst viel Intelligenz in die Belohnungsfunktion zu stecken. Die Belohnungsfunktion ist dafür verantwortlich, zu definieren, welches Ergebnis als „gut“ und welches als „schlecht“ gilt. Die Algorithmen sind allerdings unglaublich schlau darin, Abkürzungen und Schlupflöcher zu finden, was zu hohen Belohnungen für Verhaltensweisen führen kann, die definitiv „schlecht“ sind. Es scheint, dass je mehr Cleverness man in die Belohnungsfunktion steckt, desto mehr Überraschungen man erhält.

Zu viel Intelligenz kann also auch schädlich sein!

Take-away #7: TensorFlow – Low-level oder High-level?

Googles Projekt TensorFlow begegnet einem im Kontext des maschinellen Lernens überall. Seit TensorFlow 2 ist dort ein Low Level API integriert, mit dem sich Schritt für Schritt neuronale Netze aufbauen lassen. Oliver Zeigermann (embarc) demonstrierte genau dies in seiner Session “Understanding how Neural Networks work.” Von dort aus wurde sichtbar, welche Abstraktionsleistung das High Level API Keras vollbringt.

Im Interview klären wir, welches API für welche Zwecke sinnvoll ist, welche Rolle Python, JavaScript und Java im ML-Kontext spielen und wie TensorFlow-Projekte in Produktion gebracht werden können.

Take-away #8: Zeitreihenanalyse mit Deep Learning

Im Rahmen des Tracks „Advanced ML Development” ging Oleksandr Honchar (Neurons Lab / Mawi Solutions) auf Time Series Analysis mit Deep Learning ein.


Zeitreihendaten werden meist mit standardmäßigen mathematischen und algorithmischen Routinen durchgeführt, doch neuronale Netze können Vorteile wie Anomalie-Erkennung bieten. Und sie sind in der Lage, generierte Zeitreihendaten zu erstellen, die laut Oleksandr Honchar realistischer als statistische Modelle sein können.

Zu den weiteren Fähigkeiten neuronaler Netze gehören Matching- und Ähnlichkeitsanalysen, wie anhand von EEG-Mustern und biometrischer Identifizierung gezeigt wurde.

Take-away #9: Intelligente Chatbots erfordern Teamwork

Weshalb sollten wir Chatbots bauen? Die Antwort ist simpel, wenn es nach Hans-Peter Kuessner und Jens Polster (adesso AG) geht: Sie sparen Kosten. Das Problem an der Sache ist, dass viele Chatbots schlecht trainiert und daher schlichtweg “dumm” seien.

Das kann entweder an den Trainingsdaten liegen oder am Training selbst. Vielleicht gibt es weder Continuous Training noch ein klares Anwendungsgebiet. Und viele Bots bieten den Nutzern keine Vorteile. Diese problematischen Chatbots führen zu frustrierten Usern, weil sie nicht die erwarteten Antworten liefern.

Wie geht es also besser? Die Speaker zeigten im Detail, dass die Chatbot-Entwicklung Teamwork und viel Planung erfordert. Das erweiterte Chatbot-Team sollte aus Data Scientists, Textern und Chatbot-Mentoren bestehen. Die Data Scientists kümmern sich um die Analysen, Testing-Prozeduren etc., während die Texter sich den Dialogen und der UX widmen.

Und dann, selbst wenn man denkt, dass man fertig sei, wird man den Bot auf Basis der Nutzereingaben weiter trainieren müssen – denn Chatbots müssen ständig überwacht und verbessert werden.

Take-away #10: Online-Verkäufe durch automatische Bildausschnitte verbessern

Ist das Zuschneiden von Bildern für Onlineverkäufe zu mühsam? Dagegen könnte Deep Learning Abhilfe schaffen. Alexey Grigorev (OLX Group) erklärte, wie in seiner Firma Deep Learning zu diesem Zweck eingesetzt wird. Ziel war es, ein System für Saliency Detection zu entwickeln, um Bilder auf das Wesentliche zu reduzieren.
mlml
Es zeigte sich, dass das auf Deep Learning basierende System besonders für Kategorien wie Tiere, Autos und Schuhe (90 % und höher) sowie für Elektronik, Mobiltelefone und Kleidung (80 % und höher) geeignet war. Immobilien dagegen wurden eher schlecht erkannt (50 % oder weniger).

Wie könnte man sich nun das automatische Zuschneiden zunutze machen? Autoverkäufe wurden als zu wichtig für diese Aufgabe angesehen, während der Geschäftsnutzen von Tierbildern unklar war. Und so wurde die Entscheidung gefällt, das automatische Zuschneiden auf Modeartikel anzuwenden.

 

Weitere Stimmen zur Konferenz: