Decentralized Machine Learning

mlx_logo_455x227

Unsere Decentralized Machine Learning Lösung

Systems Element

Individuelles Machine Learning
für jeden Kunden

Decentral Element

Modelle lernen voneinander
ohne Rohdaten auszutauschen

Integration Element

Einfache Integration
in bestehende Infrastruktur

Modellaustausch statt Datenaustausch

mlx ermöglicht systemübergreifendes Machine Learning on-the-edge durch einen Paradigmenwechsel im Data Science

Machine_Schema_AI_4_LD

Daten bleiben beim Eigentümer

Mit mlx können Sie Einsatz und Verwaltung von ML Modellen in der Produktionsumgebung des Kunden einfach und zentral koordinieren. Sensible Kundendaten müssen nicht übertragen werden. Integrieren Sie mlx in die Industrie-PCs der lokalen Umgebung schnell und mit minimalem Aufwand.

Anpassung an Kundenanforderungen

Industriekunden unterscheiden sich oftmals durch ihre lokalen Anforderungen. Maschinen werden in verschiedenen Umgebungen oder Prozessen eingesetzt. Durch mlx werden die ML Modelle automatisch an die jeweiligen Spezifika angepasst.

 

Asynchrone Kommunikation

Mit mlx bleibt ihr ML-basiertes Feature oder Service unbeeinträchtigt durch Maschinen, die vorübergehend offline sind. ML Modelle werden on-edge eingesetzt und laufen autonom. Außerdem kommunizieren die Maschinen selbständig ausgehend und verbinden sich mit der Cloud, sobald sie wieder online sind.

Entwickeln Sie Modelle in der lokalen Umgebung – ohne die Notwendigkeit, Daten zu zentralisieren.

mlx features

Leistungsstarke ML Modelle auf Basis der Federated Learning Technologie für herausragende Ergebnisse. mlx entwickelt und verbessert ML Modelle automatisch über dezentrale Datenspeicher hinweg (On-Premise, Private Cloud, Hybrid Cloud, ..).

Vergleichen Sie die Evaluationsergebnisse der eingesetzten ML Modelle und behalten Sie die Performance-Metriken im zentralen Dashboard in Echtzeit im Blick.

featured

Zustand der lokalen ML Modelle, Leistung, Aktualität und Austausch können zentral verwaltet und koordiniert werden, über alle Instanzen hinweg.

Die Konfiguration der ML Modelle in den lokalen Umgebungen kann mithilfe von Docker eingerichtet werden und ermöglicht so das remote Deployment in wenigen Minuten. Anschließend lassen sich Hardware und Performance des Leafs im zentralen mlx Dashboard überwachen.

featured

Zustand der lokalen ML Modelle, Leistung, Aktualität und Austausch können zentral verwaltet und koordiniert werden, über alle Instanzen hinweg.

Die Konfiguration der ML Modelle in den lokalen Umgebungen kann mithilfe von Docker eingerichtet werden und ermöglicht so das remote Deployment in wenigen Minuten. Anschließend lassen sich Hardware und Performance des Leafs im zentralen mlx Dashboard überwachen.

featured

Organisieren und Managen Sie benutzerdefinierte ML Jobs: Integrieren Sie maßgeschneiderte Pre-Processing Schritte, erstellen oder verwenden Sie vorhandene ML Modelle und aktivieren Sie die Pipeline mit wenigen Klicks.

Veränderungen in den lokalen Datensätzen bleiben im Blick, bei signifikaten Änderungen werden die Modelle automatisch erneut trainiert. Datenschemas lassen sich direkt aus dem Dashboard managen und verwalten.

Integrieren Sie FedML nahtlos in Ihre bestehende Umgebung und binden Sie Keras Bibliotheken mit nur wenigen Code Snippets in mlx ein.

featured
Flexible integration in bestehende Systeme Flexible integration in bestehende Systeme

Flexible integration in bestehende Systeme

Module in Docker Containern erlauben mithilfe von REST APIs eine einfache Integration in vorhandene IT Landschaften.

mlx erlaubt es, alle gängigen Frameworks zu integrieren, um eine lokale und dezentrale Funktion zu gewährleisten.

,,

“Organizations that want to share data, but are concerned about privacy, should explore a federated learning approach. This allows data to be shared yet not revealed across organizations. […] There is a small yet growing list of vendors using various approaches in that space, including […] prenode.” (Gartner, 2019)

Demo anfragen