Bei der Sensorik hat sich in den letzten Jahren viel getan: nicht nur beim Preis, sondern auch beim Energieverbrauch. Viele Sensoren versorgen sich autonom mit Energie oder verbrauchen so wenig Strom, dass sie gut zehn Jahre durcharbeiten können.
Experten sind sich sicher, es gibt praktisch für jeden vorstellbaren Problembereich einen passenden Sensor – selbst in Produktionsumgebungen, in denen hoher Druck oder extreme Temperaturen herrschen. Optische Sensoren prüfen, ob es eine Verunreinigung gibt, Schwingungssensoren messen die Unwucht. Körper- und Hörschallsensorik liefert ein akustisches Bild, andere Sensoren können Füllstand und Geschwindigkeit messen oder Objekte identifizieren.
Sensorik ist wichtig für Edge Computing
Für die Unternehmen stellt sich dabei auch die Herausforderung, Sensorik unterschiedlichster Hersteller über diverse Schnittstellen und verschiedene Auswertungsansätze in ihr System einer intelligenten Fabrik zu integrieren. Praktisch immer ist detailliertes Wirkwissen der Fachmitarbeiter gefragt, um neue, auf Sensoren basierende Analyseansätze in die Praxis umzusetzen.
Aus riesigen Datenmengen – eine moderne Maschine liefert bis zu einem Terabyte an Daten pro Stunde – gilt es, zum Beispiel diejenigen Parameter zu identifizieren, die mit Ausfällen und Defekten in Verbindung stehen. Besonders dort, wo die von Sensoren aufgenommenen Daten ein hohes Datenvolumen benötigen – beispielsweise bei Kamerabildern oder Audiodaten kommt Edge Computing im Einsatz.
Sensorik ist nur so gut wie das Datenmodell erlaubt
Viele Unternehmen sammeln zwar jetzt ihre Betriebsdaten in großen Datenseen, doch Ergebnisse sind dadurch nicht garantiert. Denn ohne gutes Datenmodell nützt die beste Sensorik nichts. Aus Sicht von Produktionsexperten sind durchgängige und standardisierte Datenstrukturen notwendig, die von der Entwicklung über die Produktion bis zum After Sales reichen. Vor allem für Szenarien rund um vorausschauende Wartung braucht es eine Vielzahl historischer Daten, die sowohl den reibungslosen Betrieb spiegeln als auch Ausfälle und Probleme. Letztere müssen zusammen mit den passenden Maßnahmen gut vom Service dokumentiert worden sein.
Häufig scheitern neue Ansätze, die Algorithmen aus dem Machine Learning und der künstlichen Intelligenz nutzen, jedoch an der mangelnden Qualität der (Fehler-) Daten und den unterschiedlichen Frequenzen der Sensordaten. Manche Sensoren senden nur einmal am Tag, andere im Minutentakt. Eine Korrelation ist aber nur möglich, wenn alle Messdaten mit Zeitstempel und in der nötigen Frequenz vorliegen. Dafür ist oft eine Nachjustierung nötig.
Projekte sind oft teuer und individuell
Der Aufwand kann sich durchaus lohnen. Es gibt erste gute Erfahrungen mit Predictive Maintenance auf Basis von KI. In der Autoindustrie können Algorithmen den Ausfall von Schweißrobotern bereits eine Woche im Voraus erkennen. Allerdings lohnen sich die komplexen Projekte nur dort, wo der Ausfall zum Beispiel eines Verschleißteils zu teuren Produktionsausfällen führen kann. Die Umsetzung ist an spezifische Maschinen und Anlagen gebunden und nur auf Maschinen gleichen Typs übertragbar.
Kein Wunder also, dass viele Unternehmen sich erst einmal auf das Thema „Predictive Quality“ konzentrieren – zum Beispiel, um schon während des Produktionsprozesses von teuren Teilen Maschinen anders zu adjustieren, wenn sich Qualitätsprobleme abzeichnen. So lassen sich kostenintensive Fehler und Ausschuss vermeiden. Es bleibt noch viel Luft nach oben, um die Vision der smarten Fabrik umzusetzen. Der „Leitfaden Sensorik“ des Verbands Deutscher Maschinen- und Anlagenbauer (VDMA) kommt zum Ergebnis: „Industrie 4.0 kann erst zur Revolution werden, wenn flächendeckende Sensoren die Datenbasis für neue Anwendungen liefern“.
Quellen:
abas ERP, Usecase "Berührungsloser Montageprozess"
Embedded4You e.V.
Trendanalyse Sensor-Technologie: Marktentwicklung und Lösungen