buy ticket

buy ticket

KI nach dem Baukastenprinzip

Ein Gastbeitrag von Christoph Bräunlich.

 

Komplexe Probleme, wenig Rechenleistung – ein Widerspruch? Keineswegs! Selbst wenn kein vortrainiertes Modell für den gewünschten Anwendungsfall existiert, gibt es gute Möglichkeiten, komplexe Probleme ohne die Infrastruktur eines IT-Riesens zu lösen. Ein Ansatz dazu ist der Verzicht von End-to-End Machine Learning.

 

Ein interessantes Beispiel von End-to-End Machine Learning hat Google im Mai 2019 mit ihrem Speech-to-Speech Modell gezeigt [1]. Statt wie bisher zuerst Sprache in Text umzuwandeln, dann den Text zu übersetzen um ihn dann wieder in der Zielsprache in Sprache umzuwandeln und abzuspielen, hat Google ein komplexes Neuronales Netzwerk entwickelt, welches Gesprochenes direkt übersetzt, ohne es zuerst in Text umzuwandeln. Dabei wird sogar die Stimme beibehalten. Für viele unserer Kunden gehen wir mit BSI Brains genau den umgekehrten Weg: Wir können ein komplexes Problem in Teilprobleme aufteilen und die Teilprobleme mit einfachen Machine Learning Algorithmen oder sogar traditionellen Methoden umsetzen.

 

Mit der Rechenleistung eines Arbeitsplatzrechners ML-Probleme lösen

Wenn wir zum Beispiel ein eingescanntes Dokument als Bilddatei automatisch dem richtigen Team zur Weiterbearbeitung zuweisen wollen, können wir zuerst ein bestehendes OCR-Programm nehmen und dann den Output in ein mittels Transfer Learning angepasstes Deep Language Model weiterleiten, welches es schliesslich kategorisiert. Ausserdem könnten wir weitere statische, also nicht trainierbare, Schritte verwenden, um zum Beispiel das eingescannte Dokument zentral auszurichten oder die Farben zu korrigieren. Bei BSI können wir mit der Kombination von Machine Learning-Algorithmen und statischen Schritten komplexe Machine Learning-Probleme mit der Rechenleistung eines guten Arbeitsplatzrechners lösen.

Pragmatisch und schnell Modelle entwickeln

Ein weiterer Vorteil des kleinen Ressourcenverbrauchs ist das schnelle Evaluieren der Modelle. Anstatt das monatelange Training konstant zu überwachen und währenddessen so gut wie möglich zu improvisieren, kann man mit dem schnellen Training das Modell mehrmals pro Tag anpassen und optimieren. Im besten Fall werden die Hyperparameter des Modells automatisch evaluiert und optimiert. Für dieses schnelle Entwickeln und Evaluieren der Modelle ist es zudem wichtig, direkt an der Datenquelle zu sein: obwohl wir uns schon vor dem Entwickeln des Modells viel Zeit für die Datenanalyse genommen haben, müssen wir auch jetzt noch offen sein, andere Daten in unser Modell fliessen zu lassen. Mit einigen Integrationen, in denen wir mit Daten und Modellarchitekturen entwickeln können, kommen wir auf diese Weise sehr schnell zu einer Lösung, die nahe an die Leistung eines komplexen, über Monate hinweg gebauten Modells herankommt.
Wir bei BSI verfolgen damit den Ansatz von vielen kleinen, einfachen oder umtrainierten Algorithmen, die wie ein Schwarm zusammenspielen; jeder einzelne kann einfach verändert werden. Man könnte auch sagen: KI nach dem Baukastenprinzip.

 

Mehr zu AI bei BSI findet ihr hier.

_______
[1] https://ai.googleblog.com/2019/05/introducing-translatotron-end-to-end.html

 

 

 

Über Christoph Bräunlich

Christoph ist seit rund 6 Jahren bei BSI tätig – zuerst in Kundenprojekten, später in der Produktentwicklung. Nach seinem Master in Computer Science mit Schwerpunkt KI und Stationen bei Canoo Engineering und ABB Corporate Research in den USA startete er im BSI Lab das erste Machine-Learning-Projekt. Zusammen mit dem ML-Team entwickelte er die KI-Lösung BSI Brains, die 2019 lanciert wurde.