Künstliche Intelligenz hat noch einen langen Weg vor sich

Die Kerntechnologie wird von den Hauptakteuren der Branche in Open-Source-Toolsets und Frameworks bereitgestellt.

Künstliche Intelligenz (KI) unterscheidet sich von anderen Megatrends wie Blockchain, IoT oder FinTechs. Der gravierendste Aspekt ist, dass die eigene Wertvorstellung des Menschen in Gefahr erscheint. Werte als Entscheider und Kreative werden bedeutsam. Das ruft eine emotionale Reaktion hervor. Man weiß schlichtweg nicht mehr, wie und wo man sich zu positionieren hat.

Es gibt eine sehr begrenzte Anzahl von Basistechnologien, von denen die meisten unter dem Überbegriff „Deep Learning“ (maschinelles Lernen) zusammengefasst werden können und die Grundlage für fast jede Anwendung sind: Neurowissenschaften, LSTM, (wiederkehrende, neuronales Netzwerk, also Netzwerke mit Schleifen, sodass Informationen erhalten bleiben) Auto-Encoder, (künstliche neuronale Netzwerke), die für nicht-überwachtes Lernen effizienter Codierungen verwendet werden) Gradientenverstärkung (maschinelle Lerntechnik) und ein paar wenige andere.

Die Künstliche Intelligenz bietet viele andere Ansätze, aber diese genannten Kernmechanismen haben sich in letzter Zeit als überwältigend erfolgreich erwiesen. Eine Mehrheit der Forscher glaubt, dass Fortschritte bei der KI von Verbesserungen dieser Technologien (und nicht von fundamental unterschiedlichen Ansätzen) ausgehen werden. Aus diesem Grund wird sie „Mainstream-KI-Forschung“ genannt.

Jede reale Lösung besteht aus diesen Kernalgorithmen und einem nicht-künstlichen Gehäuse, um Daten vorzubereiten und zu verarbeiten, z. B. Datenaufbereitung oder Feature-Engineering (der Prozess, bei dem Domänenwissen über die Daten verwendet werden, um Funktionen zu erstellen, mit denen Algorithmen für maschinelles Lernen funktionieren).

Konkret: Jede Verbesserung der Künstlichen Intelligenz macht es wahrscheinlicher, dass dieser Wettbewerbsvorteil für alle offen und verfügbar ist. Mit verheerenden Folgen. Wie Frederick Jelinek einmal sagte: „Jedes Mal, wenn ich einen Linguisten feuere, steigt die Leistung der Spracherkennung“.

Maschinelles Lernen hat im Grunde die nächste Phase der verringerten Redundanzen (Redundanzreduktion) eingeleitet, nämlich: Der Code wird auf Daten reduziert. Fast alle modellbasierten, wahrscheinlichkeitsbasierten und regelbasierten Erkennungstechnologien wurden in den 2010er Jahren durch die „Deep-Learning“-Algorithmen unterspült.

Domain-Expertise, Feature-Modellierung und hunderttausende Zeilen Code können jetzt mit ein paar hundert Zeilen Scripting (plus einer anständigen Datenmenge) überboten werden. Wie oben erwähnt: Das bedeutet, dass ein proprietärer Code nicht länger ein zu verteidigendes Gut ist, wenn er auf dem Pfad des „Mainstream-KI-Zuges“ unterwegs ist.

Innerer Kreis sehr klein

Signifikante Beiträge sind sehr selten. Echte Durchbrüche oder neue Entwicklungen, sogar eine neue Kombination der grundlegenden Komponenten, ist nur für eine sehr begrenzte Anzahl von Forschern möglich. Dieser innere Kreis ist viel kleiner, als angenommen – es sind sicherlich weniger als 100 Entwickler.

Warum das? Vielleicht ist der Grund im Kernalgorithmus verwurzelt: Backpropagation. Fast jedes neuronale Netzwerk wird mit dieser Methode trainiert. Die einfachste Form der Backpropagation kann im Anfangssemester vermittelt werden – nicht gerade raffiniert, aber auch kein Grundschul-Wissen. Trotz dieser Einfachheit – oder gerade deshalb – in mehr als 50 Jahren einer interessanten und bunten Geschichte haben nur wenige Menschen hinter den Vorhang geschaut und ihre Hauptarchitektur in Frage gestellt. Wäre die Backpropagation damals schon erkennbar gewesen, könnten wir jetzt 10 Jahre voraus sein – Rechenleistung einmal beiseite.

Die Schritte von einfachen neuronalen Netzwerken der 1970er Jahre zu wiederkehrenden Netzwerken bis hin zu LSTM (wie oben erwähnt) von heute waren nachgerade Erdbeben für den KI-Raum. Und doch braucht es nur ein paar Dutzend Zeilen Code! Generationen von Studenten und Forschern durchdrangen die Mathematik, kalkulierten Gradientenabstiege, (Verfahren, um allgemeine Optimierungsprobleme zu lösen) und bewiesen ihre Richtigkeit. Aber schließlich nickten die meisten, und indem sie „nur eine Form der Optimierung“ sagten, machten sie weiter. Analytisches Verständnis ist nicht genug. Sie brauchen eine Form von „Erfinder-Intuition“, um etwas zu bewegen.

Weil es sehr selten ist, auf dem neuesten Stand der Forschung zu sein, ist für 99,9 Prozent aller Unternehmen ein Passagiersitz alles, was sie bekommen können. Die Kerntechnologie wird von den Hauptakteuren der Branche in Open-Source-Toolsets und Frameworks bereitgestellt. Um auf dem neuesten Stand zu sein, verschwinden proprietäre Ansätze im Laufe der Zeit. In diesem Sinne sind die überwiegende Mehrheit aller KI-Unternehmen Konsumenten dieser Kernprodukte und Technologien.

KI (und die erforderlichen Daten) wurden mit vielen Dingen verglichen: Elektrizität, Kohle, Gold. Es zeigt, wie begierig die Tech-Welt ist, Muster oder Trends zu finden.
Aufgrund der „Maschinerie“, die bereits auf den Spuren des Geschäfts dahin rast, gibt es ein paar Szenarien, die es zu beachten gilt.

In der ersten Phase wird der Mainstream-KI-Forschungszug deutlich langsamer oder bereits gestoppt. Dies bedeutet, dass keine weiteren Problemklassen angesprochen werden können. Das heißt, wir steigen aus dem Zug aus und müssen den „letzten Kilometer“ für unsere Kunden gehen. Dies wäre eine große Chance für Start-ups, da sie die Möglichkeit haben, proprietäre Technologie mit der Möglichkeit zu schaffen, ein nachhaltiges Unternehmen zu schaffen.

KI belebt andere Forschungsgebiete

Schließlich gibt es das „Black Swan“-Szenario. Jemand in einer Garage entdeckt die nächste Generation von Algorithmen abseits des Mainstreams. Wenn dieser einsame Reiter es für sich selbst benutzen kann, könnten wir den ersten selbstgemachten Milliardär sehen. Aber woher sollte das kommen? Es kann eine Kombination aus Mainstream-Techniken und verlassenen, modellbasierten Algorithmen sein. In den 2010er Jahren verlor der Aufstieg neuronaler Netze und einiger ehemals vielversprechender Ansätze (symbolische Ansätze usw.) Teile ihrer Forschungsbasis. Der aktuelle Lauf auf Künstlichen Intelligenz belebt auch andere verwandte Forschungsgebiete. Es wird schwierig sein, eine „unpopuläre“ Technik oder einen Algorithmus zu finden, der nicht bereits von Forschern umworben wird. Dennoch könnte es einen Außenseiter geben, der einen Ansatz findet oder wiederbelebt, der das Spiel verändert.

 

Kommentare

Schreiben Sie den ersten Kommentar zum Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.