Künstliche Intelligenz: Schluss mit dem Horror!

Kürzlich war ich auf dem IHK-Sommerempfang. Da ich sehr zeitig dort war, kam ich mit einem Teilnehmer ins Gespräch. Ich erzählte ihm, dass ich gerade beim Waterkant Festival in Kiel einen Vortrag zu Künstlicher Intelligenz und Machine Learning gehalten hätte. Seine prompte Reaktion kam etwas überraschend, aus meiner Sicht aber nicht verwunderlich: „Gibt es da etwas anderes zu erzählen, als Horrorgeschichten?“

Eine fatale Einstellung

Auch, wenn es sich bei dieser Antwort erstmal nur um eine Einzelmeinung handelt, zeigt meine Erfahrung, dass in Deutschland das Thema Künstliche Intelligenz (KI) eher überkritisch betrachtet wird. Dabei ist das Thema hier noch nicht einmal wirklich angekommen. Es gibt kaum Berichte in der Presse oder eine ernsthafte öffentliche Auseinandersetzung. Und es gibt bereits Anzeichen in der Politik, die befürchten lassen, dass neues Recht geschaffen wird, welches die Anwendung von KI einschränkt, ohne zu verstehen, was dies genau bedeutet. Hierzu zählen die neue EU Datenschutzverordnung und die Diskussion um die Algorithmen der Internetkonzerne.

Aber wie soll man bei einer grundsätzlich ablehnenden oder überkritischen Haltung die Chancen und Risiken gegeneinander abwägen? Wie soll man Unternehmen, Verbände und die öffentliche Verwaltung dazu bewegen, sich ernsthaft und unvoreingenommen mit dem Thema auseinander zu setzten?

Klar ist: Die Anwendung von KI wird die Automatisierung beschleunigen. Ohne Frage wird dies über die Zeit Arbeitsplätze kosten. Gleichzeitig werden neue Arbeitsplätze entstehen. Aber: Wenn wir einseitig auf die negativen Aspekte von KI schauen, werden wir auch nur die negativen Aspekte erfahren. Die Arbeitsplätze werden woanders entstehen.

Es geht mir nicht um einen unkritischen oder fortschrittsgläubigen Umgang mit dem Thema. Es geht mir darum, ein solides Fundament und ein Verständnis zu schaffen, worum es sich bei KI handelt.

KI ist mit vielen Ängsten und Missverständnissen behaftet. Hier möchte ich versuchen, etwas Aufklärung zu leisten.

Woher rührt die Angst?

Leider ist einer der wesentlichen Gründe für Ängste der Name – Künstliche Intelligenz oder Artificial Intelligence auf Englisch. Wir haben kein Problem damit, dass Maschinen oder bestimmte Tiere stärker sind oder ein Taschenrechner schneller addieren kann als wir. Dies sind keine Attribute über die wir uns definieren. Aber Intelligenz ist etwas, was wir bisher nur Menschen zuschreiben. Dabei gibt es nicht mal eine eindeutige Definition von Intelligenz. Aber es umfasst viele Aspekte von dem, was uns zu Menschen macht: Bewusstsein, Denkvermögen, Emotionen, sozialer Umgang, Kreativität. Der Begriff KI wird daher unweigerlich als Bedrohung empfunden, etwas, das mit uns konkurriert. Verstärkt wird diese Empfindung, da es heute praktisch keinen Beitrag in der Presse gibt, der nicht das Bild des futuristisch anmutenden humanoiden – also menschenähnlichen – Roboters benutzt, wenn es um das Thema KI geht.

Der heute dominierende Zweig der KI nennt sich Machine Learning – maschinelles Lernen. Dieser viel treffendere Begriff setzt sich aber ausserhalb der entsprechenden Community nicht durch. Persönlich mag ich den Begriff KI überhaupt nicht, aber es ist müssig, sich gegen diesen etablierten Begriff aufzulehnen.

Mensch - Maschine

Menschen sind gut darin, Objekte zu erkennen, auch wenn sie eine andere Farbe haben und nur angedeutet sind. Maschinen hingegen sind viel besser im Rechnen.

Die Anfänge der KI-Forschung reichen in die 1940er Jahre zurück und entspringen der Hirnforschung. Es ging darum, die Vorgänge im Hirn zu verstehen. Hierzu hat man Modelle von Neuronen – den Schaltbausteinen im Hirn – entworfen und untersucht. Gleichzeitig stand die Frage im Raum, warum die Menschen einige Dinge extrem gut können – sehen und Objekte identifizieren, Sprache hören und verstehen – die mit klassischen Programmiertechniken praktisch nicht auf Maschinen übertragbar waren.

Über fast 70 Jahre hat es dieser Forschungszweig nicht über ein Nischendasein hinaus gebracht. Es gab zwar immer wieder Phasen mit kleineren Durchbrüchen und erhöhter Forschungstätigkeit, aber der eigentliche – explosionsartige – Durchbruch kam erst vor wenigen Jahren.

Dies hatte zwei wesentliche Ursachen:

  • Für das maschinelle Lernen benötigt man große Mengen (digitalisierter) Daten. Die Internetkonzerne wie Google und Facebook hatten diese Daten gesammelt und ein Interesse, aus den Daten Mehrwert zu generieren.
  • Man hat bemerkt, dass leistungsfähige Graphische Prozessoren (GPUs), die bis dahin nur für Spiele benutzt wurden, genau für die mathematischen Operationen des maschinellen Lernens optimiert sind.

Heute gibt es natürlich noch universitäre Forschung, aber die anwendungsorientierte Forschung wird ganz eindeutig von den großen Internetkonzernen in den USA und China dominiert. Da es in Europa keinen entsprechenden Konzern gibt, ist das Thema auch zwangsläufig weniger präsent. Die Entwicklungsgeschwindigkeit ist derart rasant, dass darüber diskutiert wird, ob die klassischen Veröffentlichungswege von Forschungsergebnissen noch zeitgemäß sind. Es stellt selbst bei gutem Willen eine Herausforderung dar, die ständigeren Neuerungen, die über Twitter und andere Kanäle verbreitet werden, alle mit zu bekommen.

Die Informationslücke

Neben der Entwicklungsgeschwindigkeit gibt es noch ein zweites bemerkenswertes Phänomen. Praktisch alle benötigte Software und alle Modelle sind frei verfügbar. Google, Facebook und andere stellen ihre Programmierbibliotheken unter Open Source Lizenz frei ins Netz. Dazu gibt es endlose frei verfügbare MOOCs, Onlinetrainings, Tutorials und Diskussionsforen. Einen Server mit entsprechender GPU kann man für 1€ pro Stunde mieten. Abgesehen von der notwendigen Zeit und mathematischem Wissen auf Oberstufenniveau besteht praktisch keine Hürde, sich mit der Thematik des maschinellen Lernens auseinander zu setzen.

Es zeigt aber auch: Das wertvollste sind die Daten und die Idee, was man mit ihnen anfangen will. Der Rest sind im wahrsten Sinne des Wortes nur ein paar Zeilen Code.

Trotz dieses freien Zugangs zu allen notwendigen Ressourcen gibt es eine bedeutende Informationslücke: der interessierte Laie hat nur wenig Möglichkeiten, sich unvoreingenommen über das Thema KI zu informieren und deren Grundzüge zu verstehen. Schon gar nicht auf Deutsch.

So stehen sich in der öffentlichen Wahrnehmung zwei Lager gegenüber. Die zuweilen unkritische und technologiegetriebene Tech-Szene des Silicon Valley betont einseitig die Vorteile von KI, und übertreibt oftmals deutlich bei der Leistungsfähigkeit von KI-Systemen. Ich selbst habe lange gebraucht, diese Art des amerikanischen Marketings zu verstehen, bei der man getrost 50 – 80% der Aussagen als Übertreibung streichen kann. Auf der anderen Seite stehen Politiker und andere Meinungsmacher, die im Gegenzug die Schreckensszenarien beschwören, mit denen sich gut Aufmerksamkeit gewinnen lässt.

Sheldon Cooper und die Singularität- das Horrorszenario

Bevor ich versuche zu erläutern, wie Maschinen lernen, möchte ich noch auf eines der wesentlichen Horrorszenarien eingehen, welches immer wieder gerne bedient wird: die sog. Singularität. Es gibt eine Reihe sehr intelligenter Leute – darunter Stephen Hawking, Elon Musk und Bill Gates -, die davon ausgehen, dass Maschinen in absehbarer Zeit ein eigenes Bewusstsein erlangen werden, uns an Intelligenz weit übertrumpfen, und selbst weitere Maschinen bauen, die dann noch intelligenter sind. Der Mensch wird dadurch obsolet.

Der eine Punkt ist, dass dieses Szenario mit aller Wahrscheinlichkeit nicht eintreten wird. Eine gute Abhandlung findet man hier. Wir müssen also nicht in Panik verfallen. Es gibt keinerlei Anzeichen, dass Maschinen irgendeine Art an Bewusstsein erlangen.

Der andere Punkt ist aber: es sind ernst zu nehmende Personen und keine Spinner, die die Idee der Singularität propagieren. Es sind keine Aluhüte, die von Chemtrails schwafeln. Das verleiht der Geschichte über die Singulatität eine ungemeine Glaubwürdigkeit.

Ich habe keine allgemein gültige Erklärung für diesen scheinbaren Widerspruch. Ich kann nur sagen: als theoretischer Physiker habe ich mit solchen Menschen zusammen gearbeitet. Bei ihnen trifft eine sehr hohe, rationale Intelligenz auf eine Vorliebe für Science Fiction. Ihre Gedankenwelt ist den meisten von uns fremd. Aber es gibt die Chance, sich ihr zu nähern: der Charakter des genialen theoretischen Physikers Sheldon Cooper aus der Serie „The Big Bang Theory“ lässt uns unmittelbar an dieser Gedankenwelt teilhaben. Wer den Ursprung solch verstörender Szenarien verstehen will, muss sich mit Sheldon Cooper auseinander setzen. Das ist kein Scherz.

Was ist jetzt eigentlich KI?

Nachdem der Pulverdampf hoffentlich bereits etwas verzogen ist, möchte ich den Blick auf das richten, was KI wirklich ist. Wie bereits erwähnt, haben heute eigentlich nur Systeme aus dem Bereich Machine Learning (ML) praktische Relevanz. Daher beschränke ich mich auf sie. Wer schon einmal den Begriff Deep Learning gehört hat, dies ist lediglich eine speziellere Variante des Machine Learning.

Die Grundidee hinter einem fertigen ML-System ist relativ einfach zu verstehen. Wie und warum sie lernen ist aber selbst für Experten noch immer faszinierend und erstaunlich.

Alle diese Systeme funktionieren nach dem gleichen Prinzip: Mustererkennung. Um dies zu verstehen, schauen wir uns einige aktuelle Anwendungen an:

  • Ein autonom fahrendes Auto muss erkennen, wo es lang fährt. Dazu macht eine Kamera durchgehend Aufnahmen der Umgebung. Diese Bilder werden nach bekannten Objekten analysiert. Erst werden im Bild einfache Elemente wie Kanten gesucht. Diese werden schichtweise zu komplexeren Objekten zusammengesetzt (Kanten -> Ecke -> Rahmen -> Räder -> Fahrrad). Dies geschieht in Wirklichkeit viel feingranularer, aber das System hat gelernt, nach welchen kleinen Mustern es schauen muss, um komplexere Objekte zu identifizieren.
  • Spracherkennungssysteme wie Apples Siri, Google Speech oder Amazons Alexa funktionieren nach demselben Prinzip, nur nicht ganz so anschaulich. Die aufgenommene Sprache wird auch hier nach kleinsten Mustern untersucht. Es wird nicht nach ganzen Wörtern gesucht, sondern nach kleinsten Soundfetzen, die Stück für Stück zu vollen Wörtern zusammen gesetzt werden. So ist es möglich, dass die Spracherkennung unabhängig vom Nutzer funktioniert (d.h. ich muss z.B. Siri nicht auf den einzelnen Nutzer trainieren.)
  • Recommender Systeme analysieren das Nutzerverhalten auf bestimmte Muster und empfehlen daraufhin bestimmte Produkte. Wenn ich bei Amazon neue Produkte oder bei Netflix neue Filme vorgeschlagen bekomme, liegt dies daran, dass mein Nutzungsverhalten dem anderer Nutzer entspricht, die die entsprechenden Produkte oder Filme gekauft bzw. gesehen haben.
  • Spam-Filter durchsuchen Emails nach bestimmten Mustern, die auf Spam hindeuten. Dies können bestimmte Wörter, Phrasen oder Links sein.
  • Systeme zur Netzwerküberwachung können den Datenstrom nach besonderen oder ungewöhnlichen Mustern analysieren, um mögliche Hackerangriffe zu identifizieren.

Wie lernen ML-Systeme?

Wie erklärt, suchen ML-Systeme die Daten nach bestimmten Mustern ab. Der Unterschied zu einem klassisch programmierten System ist, dass das ML-System selbst herausgefunden hat, nach welchen Mustern es schauen muss. Dies geschieht aktuell überwiegend über das sog. überwachte Lernen (supervised learning). Wenn ich z.B. einem System beibringen möchte, Bilder von verschiedenen Obstsorten zu unterscheiden, muss ich es mit tausenden entsprechend kategorisierter Bilder füttern. D.h. man gibt dem System tausend unterschiedliche Bilder von Bananen und sagt dem System, dies sind „Bananen“. Entsprechend Äpfel, Birnen, Trauben …

Es ist dann dem System überlassen, herauszufinden, welche Muster und Strukturelemente relevant sind, um eine bestimmte Obstsorte zu identifizieren. Dazu bestehen die ML-Systeme aus Millionen von Parametern – Zahlen -, die in künstlichen Neuronen gruppiert und hierarchisch geordnet sind. Jedes dieser künstlichen Neuronen ist dafür zuständig, ein bestimmtes Muster zu erkennen. Dabei sei daran erinnert: egal ob Bild, Ton oder Text, für den Computer sind alles nur Zahlen und in diesen Zahlen wird nach bestimmten Mustern geschaut. Mathematisch werden dafür die Parameter (Zahlen) der Neuronen mit denen der Lerndaten multipliziert und addiert (ohne darauf im Detail einzugehen). Wenn ein Neuron sein Muster in den Daten gefunden hat, liefert es den Wert „1“ (man sagt auch, es feuert) an die nächste Schicht, ansonsten „0“. Die Neuronen in der nächsten Schicht schauen dann auf andere Muster. Z.B. könnte ein Neuron der zweiten Schicht schauen „ah, da ist ein Neuron der ersten Schicht, dass eine waagerechte Kante entdeckt hat, und eines, was eine senkrechte Kante gefunden hat. Dann ist das eine Ecke.“ (außer, dass künstliche Neuronen nicht denken können …)

Lernen künstlicher Neuronen

Aus einer anfänglichen Zufallsverteilung der Parameter eines künstlichen Neurons bilden sich durch den Lernprozess Muster heraus. Beispiel eines Neurons zur Erkennung handgeschriebener Ziffern.

Anfangs sind alle Neuronen mit Zufallszahlen besetzt. Dann gibt man die Lerndaten in das System. Hinten kommt für jede Kategorie eine Wahrscheinlichkeit raus, d.h. jedem Bild wird eine Wahrscheinlichkeit zugeordnet, dass es sich um einen Apfel, Birne, etc. handelt. Natürlich kommt am Anfang kompletter Unsinn raus, weil das System ja noch nichts gelernt hat und aus Zufallszahlen besteht. Aber jetzt kommt das eigentlich Erstaunliche: Man kann ganz einfach berechnen, in welche Richtung jeder der Millionen Parameter verändert werden muss, um das Ergebnis etwas besser zu machen. So wird wiederholt über die Lerndaten iteriert, bis die Parameter so eingestellt sind, dass der Großteil (z.T. 95% und mehr) der Lerndaten richtig klassifiziert sind. Das System hat selbst gelernt, welche Muster (in Form der Parameter der Neuronen) relevant sind.

Erklärungsbedürftige Aspekte selbstlernender Systeme

Selbstlernende System besitzen einige Eigenschaften, die erklärungsbedürftig sind, da sie Quelle von Verunsicherung und Diskussion sind.

Grenzen

Was aus dem oben Gesagten indirekt hervorgeht, ist, dass selbstlernende Systeme nur das erkennen können, was sie gelernt haben. Wenn ich das System trainiert habe, nur Äpfel und Birnen auseinander zu halten, kann es mit einer Banane nichts anfangen. Da es nur Äpfel oder Birnen kennt, wird es die Banane als Apfel oder Birne klassifizieren. Dieses Problem wurde dem Tesla-Fahrer zum Verhängnis, dessen Autopilot einen weissen Laster als Himmel klassifizierte. Volvo musste gerade feststellen, dass seine selbstfahrenden Autos nicht mit springenden Kängurus in Australien zurecht kommen. Offensichtlich gibt es davon zu wenige in Schweden …

Im Unterschied zum Menschen benötigt die Maschine hunderte oder tausende Beispiele, um die Eigenschaften einer neuen Kategorie zu identifizieren und zu lernen. Bei Menschen reicht häufig ein einziges Beispiel (z.B. wenn wir eine neue exotische Frucht kennen lernen). Der Mensch ist extrem gut darin, von diesem einen Beispiel zu abstrahieren und z.B. verschiedene Entwicklungsstadien der Frucht richtig zu erkennen. Maschinen sind hierzu (bisher) nicht in der Lage.

Wie bei anderen neuen Technologien auch, wird es eine Lernphase geben, in der man – auch durch unerwünschte Nebeneffekte – erkennt, an welcher Stelle ML-Systeme durch weitere Maßnahmen abgesichert, und ihre Schwachstellen kompensiert werden müssen.

Abstrakte und unerwartete Muster

Bei der Bildanalyse können wir noch relativ gut verstehen, welche Arten von Mustern das ML-System gelernt hat und wie die Objekterkennung funktioniert. Wir verstehen auch die möglichen Anwendungsfelder, sei es beim autonomen Fahren, oder bei der Identifikation von Personen bei der Videoüberwachung. Hier ist es auch auf politischer Ebene einfach zu diskutieren, ob eine bestimmte Art der Anwendung gewünscht ist, oder nicht.

Aber in vielen Bereichen lernen ML-Systeme Muster, die abstrakt und für uns nicht offensichtlich sind. Wie gesagt, für das System sind es alles nur Zahlen.

So ist Facebook heute in der Lage, genauer als jede andere Methode, vorher zu sagen, welche Person gefährdet ist, demnächst Selbstmord zu begehen. Dies ergibt sich aus dem Netzwerk der Person und der Art von Beiträgen, die diese Person postet oder teilt. Dieselben Verfahren können genutzt werden, um z.B. die politische oder sexuelle Orientierung der Nutzer, oder aber auch mögliche Attentäter zu identifizieren.

An dieser Stelle wird es deutlich, dass es nicht so einfach ist, die Welt in Gut und Böse zu teilen. Diese Anwendungsfälle müssen wir diskutieren, basierend auf dem Wissen, was mit ML-Systemen möglich ist, und was nicht. Es nützt nichts, die Systeme einseitig zu verteufeln und zu verbieten.

Selbstlernend ist nicht gleich selbständig

Eine der kürzlich vielbeachteten Erfolge im Bereich der KI war der Sieg von AlphaGo – einem von Google entwickelten System – über einen der besten Go-Spieler der Welt. Lange hatte man auf Grund der Komplexität des Spiels nicht damit gerechnet, dass ein Computersystem in absehbarer Zeit das Spiel erfolgreich meistern könnte. Indem das System tausende von Go-Partien analysiert und entsprechende Muster identifiziert hat, war es letztlich doch möglich. So hat das System selbst gelernt, was eine erfolgreiche Strategie ausmacht.

Eine Quelle für Missverständnisse ist immer wieder, was eigentlich „selbst lernen“ bedeutet. Nach dem Erfolg von AlphaGo hat Google angekündigt, das System in Rente zu schicken. Offensichtlich hat man die gesteckten Ziele erreicht. Da wird sich also AlphaGo denken „Jetzt habe ich Zeit, Go kann ich schon, aber eine Fremdsprache kann ich noch nicht. Aber Rentner spielen ja auch gerne Boule …“

Nein. Weder AlphaGo noch ein sonstiges (heutiges) KI-System kann denken. AlphaGo weiss auch nicht, dass es Go spielt. Ein KI-System weiss auch nicht, was ein „Problem“ ist, oder welches Problem wert ist, gelöst zu werden. Das System addiert und multipliziert Zahlen. Es sind immer Menschen, die entscheiden, welches Problem ein System lösen soll. Und das System ist immer auf eine bestimmte Aufgabe spezialisiert.

Nachvollziehbarkeit

Der abschließende Punkt bezieht sich auf aktuelle Diskussionen Rund um die neue EU Datenschutzverordnung und die Algorithmen der Internetkonzerne. Hierbei geht es um die politische Forderung, dass die Algorithmen der Internetkonzerne und die darauf basierenden Entscheidungen nachvollziehbar sein müssen. Diese (An)forderung soll Diskriminierung verhindern.

Für klassische Algorithmen ist dies auch kein Problem. Z.B. kann man bestimmte Bedingungen bei einer Kreditvergabe (Alter, Einkünfte, Zahlungsmoral in der Vergangenheit, etc.) über „wenn … dann…“ Abfragen nachvollziehbar im Programm abbilden. Die definierten Kriterien sollen das Ausfallrisiko für den Kreditgeber minimieren. Es ist sichergestellt, dass jeder Kreditnehmer transparent gleichbehandelt wird.

Nun hat das Kreditinstitut das Interesse und die Pflicht, seine Kreditrisiken zu minimieren. Dabei sind die gängigen Vergabekriterien nicht unbedingt die, anhand derer das Ausfallrisiko minimiert werden kann. Nutzt man ein ML-basiertes System, um Ausfallrisiken zu analysieren, kann es durchaus sein, dass sich ganz andere Faktoren als relevant heraus stellen. Das Problem ist: es ist nicht nachvollziehbar, welche Faktoren relevant sind. Diese Information ist versteckt in den Millionen von Parametern des Systems. Wir wissen nicht, nach welchen Mustern das System schaut. Es könnte durchaus sein, dass das System aufgrund öffentlich zugänglicher Daten des Facebook-Profils feststellt, dass ein Antragsteller ein erhöhtes Ausfallrisiko hat.

Ob und wie man mehr Nachvollziehbarkeit in ML-basierte System hineinbekommt, ist Gegenstand der aktuellen KI-Forschung. Auch mag es sein, dass wir uns bei dem obigen Beispiel schnell einig sind, dass man so etwas gar nicht erst zulassen möchte.

Was aber, wenn es um Situationen geht, in denen wir ein eigenes Interesse an einer besseren Einschätzung haben? Wenn ein ML-basiertes System herausfinden kann, welche Hilfsorganisation am sinnvollsten mit Spenden umgeht. Wenn es hilft, Geldwäsche oder Steuerhinterziehung zu identifizieren. Wenn es hilft Korruption oder Misswirtschaft aufzudecken. Wenn es hilft, sozial verantwortliche und ökologisch vorbildliche Unternehmen zu identifizieren. Ist es dann noch immer so wichtig, dass alle Schritte des Systems nachvollziehbar sind?

Auch hier benötigen wir eine Einzelfallbetrachtung basierend auf einem soliden Verständnis, was ML-basierte System leisten können, und was nicht.

Was ist zu tun?

Wir dürfen uns keinen Illusionen hingeben, Deutschland spielt im Bereich Künstliche Intelligenz heute keine Rolle. Solange die Horrorszenarien die öffentliche Diskussion dominieren, ist auch keine Änderung absehbar. Ich kann nur an die unterschiedlichen Akteure appellieren:

  • Die großen Internetkonzerne wie Google, Amazon, Apple oder Facebook werden bei uns aus verschiedenen Gründen kritisch betrachtet. Zunehmend werden Gesetze erlassen, um unerwünschte Verhaltensweisen der Konzerne zu reglementieren. Gleichzeitig sind diese Unternehmen die führenden Kräfte in der KI-Entwicklung und -Anwendung. Trotzdem ist hier die Politik gut beraten, die Themen sauber zu trennen und sich gesondert vor allem mit den Chancen von KI auseinander zu setzen.
  • Experten dürfen sich nicht weiter nur in Fachkreisen bewegen. Sie müssen sich der Verantwortung stellen, das Thema KI der Öffentlichkeit zu erklären. Wer einen Experten kennt, sollte ihn hierzu ermuntern und auffordern. Ich selbst nutze jede Gelegenheit, wie beim Barcamp Flensburg, dem Waterkant Festival oder der Digitalen Kieler Woche.
  • Ich weiss, dass es nicht realistisch ist, aber ich sehe keinen anderen Weg. Unternehmen müssen Mitarbeiter abstellen, die sich in die Materie einarbeiten und sich ein eigenes Bild über diese Technologie machen. Material gibt es genug hierfür.

Die Horrorgeschichten helfen uns jedenfalls nicht weiter. Ein realistischer Blick auf Künstliche Intelligenz und Machine Learning ist nötig.

Share on FacebookTweet about this on TwitterEmail this to someoneShare on Google+Share on LinkedInPin on Pinterest