direkt zum Inhalt springen

direkt zum Hauptnavigationsmenü

Sie sind hier

TU Berlin

Inhalt des Dokuments

Kompetenzen

Lupe

Der Schwerpunkt unserer Forschungsarbeiten liegt auf der Entwicklung von Methoden und Technologien zur Kopplung der Industrie- und Prozessautomatisierung mit sicherer globaler Kommunikation und privaten Clouds. Dabei werden zunehmend Echtzeit-Anwendungen unter Berücksichtigung von Latenz- und Sicherheitsanforderungen adressiert.
Unsere Kernkompetenzen liegen u.a. in Industrieprotokollen, industriellen Cloud-Anwendungen, Safety-Anforderungen und Standards der Prozessautomatisierung sowie wesentlichen Paradigmen des Industrial Internet und Anwendungen in M2M und IoT. Nachstehend sind Beispiele für Kommunikationsnetze und Kommunikations-Middleware aufgelistet sowie geben wir eine breite Vorstellung der industrielle Anwendungsgebiete.

Kommunikationsnetze
Kommunikations-Middleware
Mobilfunk LTE und 5G
OPC UA TSN (Time Sensitive Networking)
Industrielle BUS-Systeme
Robot Operating System (ROS) und ROS 2
...
...

Anwendungsgebiete

Lupe

Verteilte Cloud-basierte Robotikanwendungen

Im Bereich der Robotik lässt sich jüngst ein Paradigmenwechsel weg von monolithischen Stand-Alone-Lösungen hin zu verteilten Cloud-basierten Lösungen für Steuerung und Administration feststellen. Aus naiver Perspektive bieten Cloud-Infrastrukturen den Zugriff auf scheinbar unbegrenzte Ressourcen in Bezug auf Rechenleistung und Speicher, die ortsflexibel genutzt werden können. Demnach lassen sich komplexere Steuerungsarchitekturen und effizientere Steuerungsalgorithmen realisieren. Dies begünstigt den zunehmenden Einsatz von Methoden der künstlichen Intelligenz. Ferner ergeben sich durch die Modularisierung und die Service-orientierte Auslegung von Steuerungsarchitekturen flexiblere Ansätze zur Integration von Softwarekomponenten sowie zum Management von deren Lebenszyklus. Plattformangebote bieten das Potential als universelle Software-Marktplätze für Roboter zu dienen. Fertigkeiten und Wissen eines einzelnen Roboters lassen sich demnach mit geringem Aufwand mit anderen Robotern teilen und kommerzialisieren. Neben den dargestellten Vorteilen ergeben sich aber auch Herausforderungen in den Bereichen der Skalierung und Virtualisierung, der Konnektivität, der Netzwerke sowie der Security und Privacy.

Intelligente industrielle Systeme durch den Einsatz von Machine Learning

Methoden des maschinellen Lernens (engl. machine learning) erhalten zunehmend Anwendung in der Industrie in Form von intelligenten Systemen und tragen dazu bei, Prozesse und Anwendungen flexibler und anpassungsfähiger zu gestalten.

In den letzten Jahren haben vor allem Techniken des Deep-Learnings viele Anwendungsfälle revolutioniert. Die Leistung von vielen klassische Ansätzen konnten auf dieser Basis deutlich übertroffen werden, bspw. in der Bildklassifizierung. Grundlage für die leistungsfähigen Algorithmen sind riesige Datenmengen und die Rechenleistung von GPUs.

Da eine direkte Nutzung von GPUs bei Maschinen und Robotern meistens nicht oder nur schwierig möglich ist (bspw. bei mobilen Robotersystemen) werden Deep-Learning-Anwendungen in der Industrie zumeist als verteilte Systeme realisiert. So werden bspw. Bilddaten von einer Roboter-integrierten Kamera an eine Factory-Cloud übertragen, die Bild-basierte Auswertungen auf Basis von Deep Learning durchführt und anschließend das Ergebnis zurück an der Roboter sendet. Es bestehen weiterführende Ansätze zum effizienteren Umgang mit Daten, bspw. durch Nutzung von Vorwissen im Bereich des Transfer Learning und dem gezielten Lernen von Ähnlichkeiten/Unterschieden durch das Metric Learning.

Intuitive industrielle Nutzerschnittstellen auf Basis von Augmented Reality

Anwendungen der Erweiterten Realität, engl. Augmented Reality (AR), ermöglichen die räumliche Darstellung von virtuellen Informationen (bspw. virtuellen Objekten, Text etc.) in realen Umgebungen. Kennzeichnend für die AR ist ein räumlicher Bezug zwischen virtuellen und realen Objekten. In der Robotik lassen sich somit Roboter- oder Prozesssimulation durch ein virtuelle Roboter- und Objektmodelle in realer Umgebung realisieren. Weitere industrielle Anwendungen liegen im Training von Mitarbeitern und in der prozessintegrierten Unterstützung des Menschen durch räumliche Informationen.

AR-Anzeige- bzw. Displaymedien lassen sich entweder als Optical-See-Through oder als Video-See-Through realisieren, abhängig davon, ob die Darstellung der virtuellen Objekte auf einem transparenten Display oder in einem Kamerabild erfolgt. Ferner bestehen experimentelle Technologien zu Retina-Displays. Die Ausführung der Visualisierung kann sowohl über statische Geräte (bspw. festes Display und feste Kamera) als auch über bewegliche Geräte (bspw. Tablet-PC oder Brille mit integrierter oder externer Kamera) erfolgen. Damit die Darstellung der Objekte räumlich und perspektivisch richtig erfolgt, wird eine (kontinuierliche) Lokalisierung (auch Registration bzw. kontinuierlich: Tracking) des AR-Anzeigemediums bzw. der zugehörigen Kamera in der Umgebung vorausgesetzt. Diese Lokalisierung wird zumeist mithilfe von 2D oder 3D Kamerabildern durchgeführt. Methodisch lässt sich dies durch das Tracking künstlicher Marker oder über das Tracking inhärenter Umgebungsmerkmale über Simultaneous Localization and Mapping (SLAM)-Algorithmen realisieren.

 

 

 

Zusatzinformationen / Extras

Direktzugang

Schnellnavigation zur Seite über Nummerneingabe

Contact

Prof. Dr.-Ing. Jens Lambrecht
+49 (0)30 835358412