
Die Zukunft der Gebäudeautomation
Die strategische Ausrichtung der MST Systemtechnik AG/ MST System Solutions GmbH definiert die nächste Evolutionsstufe der Gebäudeautomation. In diesem Dokument legen wir unsere Vision und die daraus abgeleitete Roadmap dar. Um diese führende Rolle im Markt zu festigen und auszubauen, fokussieren wir unsere gesamten Entwicklungsressourcen auf die Umsetzung der hier vorgestellten Strategie (erstellt von: Christoph Müller - CTO MST Systemtechnik AG).
Einleitung: Die Konvergenz von IT und OT als Katalysator für die nächste Generation der Gebäudeautomation
Die Gebäudeautomation (GA) befindet sich an einem fundamentalen Wendepunkt. Bislang vorwiegend als eine isolierte, hardwarezentrierte Disziplin der Betriebstechnik (Operational Technology, OT) verstanden, wird sie nun unaufhaltsam von den Paradigmen und Technologien der Informationstechnologie (IT) durchdrungen. Diese Konvergenz ist kein Selbstzweck, sondern wird von mächtigen externen Kräften angetrieben: dem immensen Druck zur Steigerung der Energieeffizienz und Nachhaltigkeit, den neuen, strengen gesetzlichen Anforderungen an die Cybersicherheit und das Nachhaltigkeits-Reporting (ESG) sowie dem gestiegenen Anspruch an die Nutzererfahrung (User Experience, UX) in intelligenten Arbeits- und Lebensumgebungen.
Die Zukunft der Gebäudeautomation liegt daher nicht in der inkrementellen Verbesserung bestehender, isolierter Systeme, sondern in einem tiefgreifenden Paradigmenwechsel. Dieser Wandel führt weg von der starren Kopplung an proprietäre Hardware hin zur Abstraktion von der Hardware und der intelligenten, datengestützten Orchestrierung von softwaredefinierten Diensten. Dieser Bericht analysiert die entscheidenden technologischen Vektoren, die diesen Wandel vorantreiben – von der Kommunikation über die Systemarchitektur bis hin zur Datenintelligenz – und skizziert die kohärente Vision des "Software-Defined Building".
I. Die Evolution der Kommunikationsprotokolle:
Von isolierten Silos zu vernetzten Ökosystemen
Die Transformation der Kommunikationslandschaft ist ein zentraler Wegbereiter für die intelligente Vernetzung im Gebäude. Der Trend geht unverkennbar weg von unsicheren oder proprietären Protokollen hin zu einem mehrschichtigen, sicheren und semantisch reichen Ökosystem. In diesem Ökosystem spielen verschiedene Technologien ihre spezifischen Stärken aus, anstatt in Konkurrenz zueinander zu stehen.
1.1 BACnet im Wandel: Von BACnet/IP zu BACnet/SC – Sicherheit als Fundament
BACnet ist der etablierte und unangefochtene Standard in der Gebäudeautomation. Seine ursprüngliche Form, BACnet/IP, die auf unverschlüsselten Broadcast-Nachrichten zur Geräteerkennung basiert, ist jedoch angesichts moderner Cyberbedrohungen eine erhebliche Schwachstelle. BACnet Secure Connect (BACnet/SC) adressiert dieses Defizit fundamental, indem es auf bewährte IT-Sicherheitsmechanismen setzt. Es nutzt Transport Layer Security (TLS) in der aktuellen Version 1.3, um eine durchgängig verschlüsselte und authentifizierte Kommunikation zwischen den Geräten zu gewährleisten.
Die Implementierung von BACnet/SC erfordert eine Anpassung der Netzwerk-Topologie. Das bisherige Peer-to-Peer-Modell mit Broadcasts wird durch eine IT-freundliche Hub-and-Spoke-Architektur ersetzt. Ein zentraler "Hub" managt die Verbindungen, was die umständliche Konfiguration von BACnet Broadcast Management Devices (BBMD) überflüssig macht und die Kommunikation über Firewalls hinweg erheblich vereinfacht. Für die riesige installierte Basis von rund 25 Millionen Bestandsgeräten ist ein kompletter Austausch unrealistisch und wirtschaftlich nicht darstellbar. Der pragmatische und empfohlene Weg ist daher eine schrittweise Transition. Hierbei fungieren BACnet/SC-fähige Router als sichere Gateways, die bestehende, unverschlüsselte BACnet/IP- oder BACnet MS/TP-Segmente an ein verschlüsseltes BACnet/SC-Backbone anbinden.
Die grösste Herausforderung bei der Einführung von BACnet/SC ist weniger technischer als vielmehr organisatorischer Natur: das Management der digitalen Zertifikate. Jedes BACnet/SC-Gerät benötigt ein gültiges Zertifikat, um seine Identität nachzuweisen. Diese Zertifikate müssen sicher erstellt, auf die Geräte verteilt und regelmässig erneuert werden. Dieser Prozess erfordert eine prozessuale und organisatorische Zusammenarbeit zwischen den bisher oft getrennten Welten von IT und OT. Da die Verwaltung von Zertifikaten und Public-Key-Infrastrukturen (PKI) eine klassische IT-Kompetenz ist, müssen GA-Fachplaner und IT-Abteilungen des Betreibers von Beginn eines Projekts an eng kooperieren, um eine funktionierende und sichere PKI für die GA zu etablieren. Diese erzwungene Kooperation baut Silos ab und führt zu einheitlichen Sicherheitsstandards im gesamten Unternehmen, was eine Kernforderung neuer Regelwerke wie der NIS-2-Direktive ist. BACnet/SC wird so zum Katalysator für die dringend notwendige IT/OT-Konvergenz.
1.2 OPC UA: Die semantische Brücke zur Unternehmens-IT und Industrie 4.0
Während BACnet/SC die Kommunikation innerhalb der GA absichert, dient OPC UA (Open Platform Communications Unified Architecture) als hersteller- und plattformunabhängige Brücke zur übergeordneten Management- und Unternehmens-IT. Die herausragende Stärke von OPC UA liegt nicht nur in der sicheren, serviceorientierten Kommunikation, sondern vor allem in seinemInformationsmodell. Es ermöglicht, Daten nicht nur als reine Werte zu übertragen, sondern als komplexe Objekte mit ihrem gesamten Kontext und Metadaten. So wird aus einem einfachen Wert "21.5" die Information "Aktuelle Raumtemperatur, gemessen in Grad Celsius, vom Sensor T-201 im Raum 2.04, letztes Wartungsdatum: 15.05.2024".
Die "BACnet OPC UA Companion Specification" definiert einen standardisierten Weg, wie BACnet-Netzwerke, -Geräte und -Objekte im Adressraum eines OPC UA Servers abgebildet werden. Dadurch können übergeordnete Systeme wie HMI/SCADA, ERP-Systeme oder KI-Anwendungen auf die Daten der Gebäudeautomation zugreifen und diese verstehen, ohne die Details des BACnet-Protokolls kennen zu müssen.
Diese semantische Fähigkeit entkoppelt die Datenkonsumenten (Analyse-Tools, KI-Anwendungen) von den Datenproduzenten (GA-Geräte) und ist der Schlüssel für eine "Plug-and-Produce"-Datenintelligenz. Eine KI-Anwendung zur vorausschauenden Wartung, die ohne OPC UA nur einen rohen Datenpunkt erhält, benötigt aufwendiges manuelles Engineering, um diesen Wert zu interpretieren. Mit OPC UA liefert der Server den Wert zusammen mit seinem gesamten semantischen Kontext. Die KI-Anwendung kann diesen Kontext automatisch interpretieren, was den Engineering-Aufwand drastisch reduziert, Fehler vermeidet und es ermöglicht, KI-Lösungen schneller und skalierbarer auf verschiedene Gebäude und Anlagen auszurollen.
1.3 REST-APIs: Serviceorientierter Zugriff für maximale Flexibilität
Representational State Transfer (REST) APIs sind kein Protokoll im klassischen Sinne, sondern ein Architekturstil, der auf den bewährten und universellen Standards des Internets aufbaut, insbesondere auf HTTP-Befehlen wie GET (Daten abrufen), POST (Daten erstellen), PUT (Daten aktualisieren) und DELETE (Daten löschen). Sie ermöglichen einen einfachen, zustandslosen und hochflexiblen Zugriff auf Daten und Funktionen. In der GA können sie als direkte Schnittstelle zu Steuerungen oder Management-Plattformen dienen, um Daten für eine Vielzahl von Anwendungen bereitzustellen.
Als Alternative zur standardmässigen REST-API wird häufig auf eine WebSockets (WS) basierende Kommunikationsschnittstelle gesetzt. Diese nutzt das JSON-Format für den Datenaustausch und baut eine persistente Verbindung auf, was die Kommunikation im Vergleich zum HTTP-basierten REST-Ansatz erheblich verschlankt. Ein wesentlicher Vorteil dieser Methode ist die Möglichkeit, Befehlsketten zu bündeln. Anstatt separate Befehle für das Lesen (GET) und Schreiben (PUT) von Daten zu senden, können diese Operationen in einer einzigen JSON-Nachricht zusammengefasst und als eine Transaktion verarbeitet werden. Dies optimiert den Datendurchsatz und verbessert die Reaktionszeiten des Systems erheblich.
Typische Anwendungsfälle sind die Anbindung von mobilen Apps für Mieter zur Steuerung ihres Raumklimas, die Integration von externen Web-Diensten (z.B. Wettervorhersagen für eine prädiktive Heizungsregelung) oder die Bereitstellung von Daten für Business-Intelligence-Dashboards und Konferenzraum-Buchungssysteme.
REST-APIs demokratisieren die Anwendungsentwicklung in der Gebäudeautomation. Traditionell erfordert die Interaktion mit einer Steuerung spezifisches Wissen und spezielle Bibliotheken für Protokolle wie BACnet, KNX oder Modbus. Eine REST-API hingegen kann von jedem Web-Entwickler mit Standard-Werkzeugen und -Kenntnissen genutzt werden. Dies senkt die Eintrittsbarriere erheblich und ermöglicht es einem breiten Spektrum von Entwicklern – in Start-ups, IT-Abteilungen oder bei den Mietern selbst – innovative Anwendungen zu schaffen, die auf Gebäudedaten zugreifen. Dies fördert einen Wandel von geschlossenen, herstellerspezifischen Systemen hin zu offenen Plattformen, die Innovation durch Dritte aktiv unterstützen und einfordern.
1.4 MQTT: Das leichtgewichtige Protokoll für das IoT-Zeitalter
MQTT (Message Queuing Telemetry Transport) ist ein extrem leichtgewichtiges Publish/Subscribe-Protokoll, das speziell für Netzwerke mit hoher Latenz, geringer Bandbreite und potenziell unzuverlässigen Verbindungen entwickelt wurde. Anstatt dass ein Client aktiv Daten von einem Server abfragt (Polling), sendet (published) ein Gerät eine Nachricht zu einem bestimmten Thema ("Topic") an einen zentralen Vermittler (Broker). Alle Geräte, die dieses Thema abonniert (subscribed) haben, erhalten die Nachricht automatisch. Dieses ereignisgesteuerte Modell ist hocheffizient.
MQTT konkurriert nicht direkt mit BACnet/SC um die Steuerung kritischer TGA-Anlagen. Vielmehr ergänzt es die Protokolllandschaft ideal für die Anbindung einer massiven Anzahl von einfachen Sensoren und Geräten des Internet of Things (IoT), wie sie in Smart Buildings zunehmend zum Einsatz kommen – beispielsweise für die Erfassung von Raumbelegung, Luftqualität (CO2, VOCs), Helligkeit oder für das Tracking von Assets. Die so erfassten Daten werden effizient an Edge-Gateways oder Cloud-Plattformen weitergeleitet.
Die Zukunft der GA-Kommunikation ist somit nicht monolithisch, sondern eine hybride Protokoll-Architektur. In dieser Architektur existiert ein robustes BACnet/SC- oder OPC UA-Backbone für die Steuerung der Kern-TGA (Heizung, Lüftung, Klima) parallel zu einem agilen MQTT-Netzwerk für die IoT-Sensorik. Die Konvergenz dieser beiden Welten findet auf Edge-Geräten statt, die beide Protokolle sprechen und die Daten für übergeordnete Anwendungen aggregieren, filtern und kontextualisieren.
Tabelle 1: Vergleichende Analyse der Kommunikationsstandards in der GA
Kriterium | BACnet/SC | OPC UA | REST-API | MQTT |
Primärer Anwendungsfall | Sichere Steuerung & Regelung von TGA-Anlagen (HVAC, Licht) | Sichere, Steuerung & Regelung, semantische Brücke von OT zur IT/Enterprise-Ebene | Flexibler, serviceorientierter Zugriff für Web- & Mobil-Anwendungen | Leichtgewichtige Anbindung von Massen-IoT-Geräten & Sensoren |
Sicherheitsmodell | TLS 1.3, zertifikatsbasierte Geräteauthentifizierung | Umfassend: Verschlüsselung, Authentifizierung, Autorisierung | Basiert auf HTTPS (TLS), Authentifizierung oft über API-Keys/OAuth | TLS-Verschlüsselung, Username/Passwort, zertifikatsbasiert |
Semantische Fähigkeiten | Standardisiertes Objektmodell für GA-Funktionen | Sehr hoch: Komplexes, erweiterbares Informationsmodell | Niedrig: Definiert durch die API-Dokumentation, oft JSON-Payload | Sehr niedrig: Reine Payload-Übertragung, Semantik in Topic-Struktur |
Kommunikationsparadigma | Client/Server, Peer-to-Peer (geroutet über Hub) | Client/Server, serviceorientiert | Client/Server (Anfrage/Antwort) | Publish/Subscribe (über Broker) |
Netzwerk-Overhead | Mittel bis hoch | Hoch (durch komplexe Dienste) | Gering bis mittel | Sehr gering (minimaler Header) |
Typische Datenlast | Steuerbefehle, Zustände, Messwerte, historische Daten, Alarme, Events | Komplexe Objekte, Steuerbefehle, historische Daten, Alarme, Events | Ressourcen-Repräsentationen (z.B. JSON-Objekte) | Kleine, häufige Sensorwerte oder Events |
Flexibilität/Offenheit | Standardisiert, aber GA-spezifisch | Sehr hoch, plattform- & herstellerunabhängig | Sehr hoch, nutzt universelle Web-Technologien | Sehr hoch, einfacher Standard, viele offene Implementierungen |
IT-Freundlichkeit | Hoch (Hub-and-Spoke, keine Broadcasts, TLS) | Sehr hoch (serviceorientiert, plattformunabhängig) | Extrem hoch (Standard-Webtechnologie) | Sehr hoch (einfach, etabliert im IoT/Cloud-Umfeld) |
II. Die Revolution der Systemarchitektur:
Virtualisierung, Containerisierung und die Entkopplung von Hard- und Software
Parallel zur Evolution der Protokolle vollzieht sich ein fundamentaler Wandel in der Systemarchitektur. Der Trend geht unaufhaltsam weg von dedizierter, proprietärer Hardware hin zu softwarebasierten Steuerungs- und Managementfunktionen, die auf standardisierter IT-Hardware laufen. Diese Entkopplung von Hard- und Software erhöht die Flexibilität, Skalierbarkeit und Effizienz und verändert den gesamten Lebenszyklus von GA-Software fundamental.
2.1 Die klassische DDC-Welt und ihre Grenzen
Traditionelle GA-Systeme basieren auf Direct Digital Control (DDC) Automationsstationen. Dies sind hochspezialisierte Embedded-Systeme, bei denen Hardware und Software eine untrennbare Einheit bilden. Dieser Ansatz hat sich über Jahrzehnte bewährt, stösst aber in der modernen IT-getriebenen Welt an seine Grenzen. Updates sind oft aufwändig und erfordern einen Technikereinsatz vor Ort, die Rechenleistung ist für komplexe Analysen begrenzt und die Integration von Drittanbieter-Software oder die Nutzung moderner Programmiersprachen ist schwierig bis unmöglich.
2.2 Virtualisierung mit Virtuellen Maschinen (VMs): Kapselung und Konsolidierung
Eine Virtuelle Maschine (VM) emuliert einen kompletten Computer, inklusive Prozessor, Speicher, Festplatte und einem eigenen, vollständigen Betriebssystem (Gast-OS), das auf einem Host-Betriebssystem läuft. Diese Kapselung ermöglicht es, mehrere, voneinander vollständig isolierte Systeme auf einer einzigen, leistungsfähigen physischen Hardware (z.B. einem Industrie-PC oder Server) zu betreiben.
Die Anwendungsfälle in der Gebäudeautomation sind vielfältig:
Konsolidierung der Managementebene: Statt mehrerer dedizierter PCs für die Gebäudeleittechnik (GLT), das Energiemanagement-Tool und die Zutrittskontroll-Software können alle diese Anwendungen als separate VMs auf einem einzigen, zentralen Server laufen. Dies reduziert Hardwarekosten, Platzbedarf und Energieverbrauch.
Isolation und erhöhte Verfügbarkeit: Kritische Anwendungen können sicher voneinander getrennt werden. Ein prominentes Beispiel liefert Beckhoff: Die Benutzeroberfläche (HMI) läuft in einer Windows-VM, während die echtzeitfähige Maschinensteuerung (TwinCAT) direkt auf dem Host-System (TwinCAT/BSD) ausgeführt wird. Ein Absturz oder ein erforderlicher Neustart der Windows-VM, beispielsweise für ein Update, beeinträchtigt die darunterliegende Steuerung nicht im Geringsten, was die Anlagenverfügbarkeit massiv erhöht. Ähnliche Ansätze verfolgen ebenfalls Siemens, Weidmüller und Wago.
Support für Legacy-Systeme: Ältere, aber notwendige Software, die auf modernen Betriebssystemen nicht mehr lauffähig ist (z.B. eine alte Engineering-Software für eine Bestandsanlage), kann in einer VM mit einem passenden älteren Betriebssystem sicher weiterbetrieben werden.
2.3 Containerisierung mit Docker: Leichtgewichtige, portable und skalierbare Anwendungen
Die Containerisierung, populär gemacht durch Docker, geht einen Schritt weiter in der Abstraktion. Container virtualisieren nicht die gesamte Hardware, sondern laufen als isolierte Prozesse, die sich den Kernel des Host-Betriebssystems teilen. Ein Container verpackt nur die Anwendung selbst und ihre direkten Abhängigkeiten (Bibliotheken, Konfigurationsdateien). Dadurch sind Container extrem leichtgewichtig, starten innerhalb von Sekunden statt Minuten und sind hochgradig portabel: Ein Container, der auf dem Laptop eines Entwicklers läuft, läuft exakt genauso auf einem Server im Rechenzentrum oder einem Edge-Device im Gebäude.
Für die Gebäudeautomation eröffnet dies revolutionäre Möglichkeiten:
Microservices-Architektur: Statt einer grossen, monolithischen GLT-Software können einzelne Funktionen – wie Alarm-Management, Trenddatenerfassung, historische Datenhaltung oder das API-Gateway – als separate, kleine Container (Microservices) bereitgestellt werden. Diese können unabhängig voneinander entwickelt, aktualisiert und skaliert werden. ProMoS NT verfolgt diesen Ansatz seit 1994!
Flexible Edge-Anwendungen: Ein Edge-Device kann eine Vielzahl von Containern parallel ausführen, je nach Bedarf: einen für einen MQTT-Broker, einen für ein BACnet/SC-Gateway, einen für eine Python-basierte Analyse-Anwendung und einen für eine Visualisierung.
Revolutionierte Softwareverteilung: Die Bereitstellung und Aktualisierung von GA-Software wird grundlegend verändert. Statt eines komplexen Installationsprogramms wird ein fertiges Docker-Image geliefert. Ein Update ist oft nur ein einfacher Kommandozeilenbefehl (docker pull). Dies ermöglicht schnelle Entwicklungszyklen (CI/CD) und sorgt für absolut konsistente Umgebungen vom Entwickler über die Testumgebung bis zum produktiven Einsatz im Gebäude. MST arbeitet seit Jahren mit CI/CD-Pipelines.
2.4 Herstellerbeispiele: Virtualisierung und Container in der Praxis
Führende Automatisierungshersteller haben diesen Trend erkannt und treiben ihn aktiv voran.
Beckhoff bietet mit TwinCAT/BSD einen eigenen Hypervisor zur performanten Ausführung von virtuellen Maschinen an. Gleichzeitig sind die Industrie-PCs des Unternehmens als Edge Devices konzipiert, die die Ausführung von containerisierten Anwendungen, beispielsweise mit Docker oder Podman, vollständig unterstützen.
Weidmüller treibt die IT/OT-Konvergenz mit seinem offenen Betriebssystem u-OS voran, das auf seinen Steuerungen der u-control-Serie läuft. Diese Systeme sind explizit darauf ausgelegt, als Edge Devices zu fungieren und moderne IT-Technologien zu nutzen. Die Controller unterstützen die Ausführung von individuellen Softwareanwendungen in Docker-Containern, was eine enorme Flexibilität und Portabilität ermöglicht. Durch die Integration von webbasierten Engineering-Tools (u-create web), einem vorinstallierten OPC UA Server und Node-RED direkt auf dem Controller wird die Hardware zu einer offenen Plattform für flexible Automatisierungs- und IIoT-Anwendungen. Auch ProMoS NG läuft direkt auf dem Weidmüller Kontroller.
Das Gebäudeleitsystem ProMoS NG ist ein Beispiel für eine vollständig softwaredefinierte Management-Plattform. Es ist plattformunabhängig und läuft unter anderem auf Windows, Linux und Embedded-Systemen wie Raspberry Pi. Entscheidend ist, dass ProMoS NG als Docker-Container direkt auf modernen SPS-Systemen verschiedener Hersteller ausgeführt werden kann. Dies demonstriert die ultimative Entkopplung der Management-Software von einer spezifischen Hardware-Basis und ermöglicht eine flexible, skalierbare und einfache Bereitstellung in unterschiedlichsten Umgebungen.
Diese Entwicklungen führen zu zwei weitreichenden Konsequenzen. Erstens wird die Hardware zur Commodity. Wenn eine GLT-Anwendung als standardisierter Container ausgeliefert wird, kann sie auf jeder beliebigen Hardware laufen, die eine Container-Laufzeitumgebung bereitstellt. Der Kunde ist nicht mehr im Ökosystem eines einzigen Herstellers gefangen, sondern kann die Hardware nach Kriterien wie Preis, Leistung oder Verfügbarkeit auswählen. Der Wettbewerb verlagert sich von der Hardware auf die Qualität und Offenheit der Software.
Zweitens hält ein "GA-DevOps"-Paradigma Einzug. Die Prinzipien der agilen Softwareentwicklung und des Betriebs (DevOps), die die IT-Welt revolutioniert haben, werden auf die GA übertragbar. Statt langer, starrer Projektzyklen (Planen, Bauen, Abnahme) entsteht ein kontinuierlicher Prozess der Verbesserung und des Deployments neuer Funktionen (Continuous Integration/Continuous Deployment). Ein Betreiber könnte so eine neue Optimierungslogik oder ein verbessertes HMI-Feature im laufenden Betrieb als neue Container-Version einspielen, ohne die gesamte Anlage stilllegen zu müssen. Dies beschleunigt den Innovationszyklus dramatisch.
Tabelle 2: Gegenüberstellung von Virtualisierung und Containerisierung für GA-Anwendungen
Merkmal | Virtuelle Maschine (VM) | Docker-Container |
Grundprinzip | Virtualisierung der Hardware, jede VM hat ein eigenes Gast-OS | Virtualisierung auf Betriebssystemebene, Container teilen den Host-Kernel |
Isolationsebene | Vollständig, stark. Jede VM ist ein gekapseltes System | Prozess- und Dateisystem-Isolation, schwächer als VM (Kernel wird geteilt) |
Ressourcennutzung & Overhead | Hoch. Reserviert RAM/CPU, enthält komplettes OS | Gering. Nutzt Ressourcen des Hosts bei Bedarf, kein Gast-OS |
Startzeit | Minuten | Sekunden |
Portabilität | Gut, aber Image enthält komplettes OS und ist gross | Exzellent, leichtgewichtig und unabhängig von der darunterliegenden Infrastruktur |
Grösse des Images | Mehrere Gigabytes (GB) | Wenige Megabytes (MB) bis hunderte MB |
Idealer Einsatzbereich in der GA | Konsolidierung von Management-Servern (GLT, EMS), Isolation kritischer Systeme (z.B. Echtzeit vs. HMI), Ausführung von Legacy-Software | Bereitstellung von Microservices, flexible Edge-Anwendungen (Gateways, Analyse), schnelle, skalierbare Deployments, CI/CD-Pipelines |
Sicherheitsaspekte | Starke Isolation schützt vor Angriffen zwischen VMs. Angriffsfläche ist das Gast-OS. | Geteilter Kernel kann eine Schwachstelle sein. Bietet aber feingranulare Sicherheitskontrollen. |
Die grundlegende Architektur von ProMoS NG lässt sich treffend mit dem modernen Konzept von Docker-Containern vergleichen. Ähnlich wie Docker ein Gesamtsystem aus einzelnen, isolierten Containern aufbaut, besteht ProMoS NG aus gekapselten, eigenständigen Programmen – den sogenannten "Prozessen". Jeder dieser Prozesse wird zur Laufzeit über spezifische Parameter konfiguriert und gestartet, und seine Schnittstellen zur Aussenwelt werden über klar definierte Ports bereitgestellt. Der entscheidende Unterschied und Vorteil von ProMoS NG liegt jedoch darin, dass dieses Prinzip nativ umgesetzt wurde: Anstatt eine zusätzliche Virtualisierungsschicht wie Docker zu benötigen, wurde die Kernidee der Kapselung und Ressourcenverwaltung direkt in das ProMoS-System selbst integriert. Dieser Ansatz vermeidet den zusätzlichen Ressourcenverbrauch eines separaten Container-Systems und führt zu einer außergewöhnlich schlanken und effizienten Architektur.
ProMoS NG lässt sich aber als Ganzes auch in einem Docker/Kubernetes-Kontainer betreiben.
III. Dezentralisierung und Intelligenz am Rande des Netzwerks:
Die Ära des Edge Computing
Edge Computing ist keine Nischentechnologie, sondern etabliert sich als eine essenzielle Architekturebene in der modernen Gebäudeautomation. Es löst die inhärenten Probleme eines rein Cloud-zentrierten Ansatzes und bildet den logischen Ort für die Konvergenz von IT- und OT-Technologien, auf dem die Virtualisierungs- und Container-Technologien ihre volle Stärke entfalten.
3.1 Vom Cloud-zentrierten zum dezentralen Ansatz
Ein Ansatz, bei dem sämtliche Daten von Sensoren und Anlagen zur Verarbeitung in eine zentrale Cloud gesendet werden, stösst schnell an physikalische und wirtschaftliche Grenzen. Die Hauptprobleme sind hohe Latenz (Verzögerung durch den Datentransport), hohe Bandbreitenkosten, Bedenken hinsichtlich Datensicherheit und Datenschutz sowie eine fehlende Ausfallsicherheit bei einem Verlust der Internetverbindung.
Edge Computing verlagert Rechenleistung, Datenspeicherung und Analysefunktionen von der zentralen Cloud näher an den Ort der Datenerstehung – also direkt in das Gebäude, auf eine Etage oder sogar auf eine einzelne Maschine. Für die Gebäudeautomation ergeben sich daraus entscheidende Vorteile:
Reduzierte Latenz: Schnelle Regelkreise und sicherheitskritische Funktionen können in Echtzeit reagieren, ohne den zeitaufwändigen Umweg über das Internet.
Geringere Bandbreitenkosten: Daten werden am Edge vorverarbeitet, gefiltert und aggregiert. Nur relevante Ergebnisse, Zustandsänderungen oder zusammengefasste Kennzahlen werden in die Cloud gesendet, was die zu übertragende Datenmenge drastisch reduziert. Beispiele sind zentrale Alarmsysteme und Energiemanagement und -monitoring.
Erhöhte Datensicherheit & Datenschutz: Sensible Betriebs- oder personenbezogene Daten können lokal verarbeitet werden und müssen das Gebäude nicht verlassen, was die Einhaltung von Datenschutzrichtlinien erleichtert.
Autonomie & Ausfallsicherheit: Die Kernfunktionen des Gebäudes bleiben auch bei einem Ausfall der Internetverbindung vollständig erhalten. Das Gebäude kann autark weiterarbeiten.
3.2 Anwendungsfälle am Edge
Das Edge-Device, meist ein leistungsfähiger Industrie-PC oder ein spezielles Gateway, wird zur zentralen Intelligenz- und Integrationsplattform im Gebäude:
Datenaggregation und Protokollübersetzung: Es sammelt Daten von diversen Feldgeräten, die unterschiedliche Protokolle sprechen (z.B. Modbus, KNX, M-Bus), und übersetzt sie in ein einheitliches, modernes Format wie OPC UA, JSON-API oder MQTT für die nahtlose Anbindung an übergeordnete Systeme.
Lokale Regelung und Analyse: Komplexe, datenintensive Regelalgorithmen, die die Rechenleistung einer einzelnen DDC übersteigen würden, können hier ausgeführt werden.
Anomalieerkennung und KI-Inferenz: Am Edge können bereits trainierte Modelle der Künstlichen Intelligenz (KI) und des Maschinellen Lernens (ML) laufen. Diese können beispielsweise in Echtzeit die Vibrationsdaten einer Pumpe analysieren und eine Anomalie melden, lange bevor ein Mensch sie bemerken würde. Auch Abweichungen zu erwarteten Energieverbräuchen oder dynamische Grenzwerte lassen sich direkt am Edge über Maschinelles Lernen erfassen.
Retrofit von Bestandsanlagen: Edge Devices sind das ideale Werkzeug, um Bestandsanlagen ("Brownfield"), die über keine modernen digitalen Schnittstellen verfügen, nachträglich an die digitale Welt anzubinden und "smart" zu machen.
3.3 Synergien: Das perfekte Zusammenspiel am Edge
Die wahre Stärke des Edge-Ansatzes entfaltet sich im Zusammenspiel mit den zuvor beschriebenen Technologien. Edge-Anwendungen werden idealerweise als Docker-Container bereitgestellt, was ihre Verwaltung, Verteilung und Aktualisierung über Hunderte von Gebäuden hinweg enorm vereinfacht. Der Edge-Knoten agiert zudem häufig als lokaler MQTT-Broker, der die Kommunikation der IoT-Sensorik im Gebäude managt und als sichere Brücke (Bridge) zur zentralen Cloud-Plattform dient.
Diese Entwicklung führt zur Etablierung einer neuen, dreistufigen GA-Architektur. Die traditionelle Zweiteilung in Feldebene (Sensoren, Aktoren) und Managementebene (GLT) wird durch eine entscheidende Zwischenschicht ergänzt: die Edge-Ebene. Diese läuft auf leistungsfähigen IPCs oder Gateways direkt im Gebäude. Sie übernimmt all jene Aufgaben, die für die Feldebene zu rechenintensiv und für die Cloud zu zeitkritisch oder datensensitiv sind: Echtzeit-Analyse, Gewährleistung der lokalen Autonomie, Datenfilterung und sichere Protokoll-Gateway-Funktionen. Diese neue Architektur verbindet das Beste aus beiden Welten: die Robustheit und Geschwindigkeit der lokalen Verarbeitung mit der Skalierbarkeit und Rechenleistung der Cloud.
IV. Der Aufstieg der Datenintelligenz: KI, Maschinelles Lernen und der Digitale Zwilling
Die bisher diskutierten Technologien – sichere Protokolle, flexible Softwarearchitekturen und dezentrales Edge Computing – sind kein Selbstzweck. Sie bilden das notwendige Fundament, um den wahren Schatz der modernen Gebäudeautomation zu heben: die Daten. Künstliche Intelligenz (KI), Maschinelles Lernen (ML) und der Digitale Gebäudezwilling sind die Werkzeuge, die es ermöglichen, aus diesen Daten wertvolle Erkenntnisse zu gewinnen. Sie transformieren die GA von einem reaktiven System, das auf Befehle wartet, zu einem proaktiven, selbstlernenden und sich selbst optimierenden Organismus.
4.1 Von reaktiv zu prädiktiv: Predictive Maintenance in der TGA
Die traditionelle Instandhaltung folgt zwei Mustern: präventiv (Wartung nach festen Intervallen, was oft zu unnötigen Kosten führt) oder reaktiv (Reparatur nach einem Ausfall, was zu teuren Stillständen führt). Predictive Maintenance (vorausschauende Wartung) ermöglicht die Wartung genau dann, wenn sie wirklich benötigt wird. KI- und ML-Algorithmen analysieren kontinuierlich eine Vielzahl von Sensordaten – wie Vibrationen, Temperaturen, Drücke, Stromaufnahme und Laufzeiten – und erkennen subtile Muster und Anomalien, die auf einen bevorstehenden Ausfall einer Komponente hindeuten.
Die Vorteile sind signifikant: Studien und Praxisbeispiele zeigen eine Reduzierung von ungeplanten Stillständen um bis zu 75%, eine Senkung der Wartungskosten um 25-30% und eine deutliche Verlängerung der Lebensdauer von Anlagenkomponenten. Besonders leistungsfähig sind dabei hybride Ansätze. Reine statistische Modelle stossen bei komplexen Anlagen wie Kompressoren oder Kältemaschinen an ihre Grenzen. Deutlich präzisere Vorhersagen liefern Modelle, die physikalisches Wissen über die Anlage (sogenannte First-Principle-Modelle) mit datenbasierten ML-Methoden kombinieren.
4.2 Betriebsoptimierung durch Maschinelles Lernen
Über die Wartung hinaus können ML-Modelle aus historischen und Echtzeit-Betriebsdaten lernen, um den Gebäudebetrieb kontinuierlich und autonom zu optimieren. Anwendungsfälle sind vielfältig und reichen von selbstlernenden Heizkurven, die sich dynamisch an das tatsächliche thermische Verhalten des Gebäudes und an Wettervorhersagen anpassen, über die Optimierung des Lastmanagements zur Vermeidung von teuren elektrischen Lastspitzen bis hin zur bedarfsgesteuerten Regelung von Lüftungsanlagen, die nicht nur auf CO2-Werten, sondern auch auf prädizierten Belegungszahlen basiert, die aus Kalenderdaten oder WLAN-Logins abgeleitet werden.
4.3 Der Digitale Gebäudezwilling: Das Gehirn des intelligenten Gebäudes
Der Digitale Gebäudezwilling ist weit mehr als nur ein statisches 3D-Modell. Er ist die dynamische, virtuelle Repräsentation eines physischen Gebäudes, die über dessen gesamten Lebenszyklus mitwächst und mit ihm interagiert. Er entsteht durch die intelligente Fusion von zwei Datenwelten:
Statische Daten: Geometrie, Materialien und semantische Informationen aus BIM-Modellen (Building Information Modeling), die in der Planungs- und Bauphase erstellt werden.
Dynamische Daten: Echtzeit-Messwerte aus der Gebäudeautomation, von IoT-Sensoren und aus Nutzungsinformationen.
Indem er diese Datenwelten verknüpft, wird der Digitale Zwilling zur zentralen "Single Source of Truth" und zum Gehirn des Gebäudes. Er ermöglicht eine neue Qualität der Betriebsführung:
Fehlererkennung und Diagnose: Das System kann kontinuierlich das simulierte Soll-Verhalten (basierend auf dem physikalischen Modell) mit den realen Messwerten vergleichen. Systematische Abweichungen deuten auf Fehler, Effizienzverluste oder Defekte hin, lange bevor sie zu einem Problem werden.
Simulation und Was-wäre-wenn-Analyse: Die Auswirkungen von geplanten Änderungen – sei es eine neue Regelstrategie, eine Sanierungsmassnahme oder eine veränderte Nutzung – können zuerst am Digitalen Zwilling risikofrei simuliert und bewertet werden, bevor sie teuer in der Realität umgesetzt werden.
Optimiertes Facility Management: Ein Techniker kann sich vor einem Einsatz virtuell im Gebäude bewegen, den genauen Standort einer defekten Komponente einsehen, auf alle relevanten Daten und Dokumentationen zugreifen und so Wartungsarbeiten wesentlich effizienter planen und durchführen.
Die Erstellung und Pflege eines umfassenden Digitalen Zwillings ist heute noch mit erheblichem Aufwand verbunden, da es an durchgängigen Werkzeugen und vor allem an semantischer Interoperabilität zwischen den Domänen BIM, GA und Facility Management (FM) mangelt. Forschungseinrichtungen wie das Fraunhofer-Institut arbeiten intensiv an Lösungen zur automatisierten Erstellung von Digitalen Zwillingen aus Bestandsdaten und Scans.
Der Digitale Zwilling ist die notwendige Brücke zwischen der Flut an Rohdaten und wertvollen, handlungsleitenden KI-Erkenntnissen. Er liefert den entscheidenden Kontext. Eine KI, die einen isolierten Temperaturwert von 25°C analysiert, kann keine sinnvolle Aussage treffen. Erst der Digitale Zwilling liefert den Kontext: Der Wert stammt vom Sensor "T-RL-204", der den Rücklauf der Heizung für Raum 204 misst. Das BIM-Modell verrät, dass dies ein Serverraum ist, und der Belegungssensor meldet, dass der Raum unbesetzt ist. Erst mit diesem Gesamtbild kann die KI eine wertvolle Schlussfolgerung ziehen: "Die Heizung für einen leeren, ohnehin warmen Serverraum läuft auf Hochtouren – das ist eine teure Anomalie, die sofort behoben werden sollte." Der Digitale Zwilling transformiert somit Big Data in "Smart Data".
V. Fundamentale Paradigmenwechsel: Die Treiber hinter der technologischen Evolution
Die beschriebenen technologischen Entwicklungen finden nicht im luftleeren Raum statt. Sie werden von drei mächtigen externen Kräften angetrieben und legitimiert: der Notwendigkeit für robuste Cybersicherheit, dem unumkehrbaren Druck zur Nachhaltigkeit und dem gestiegenen Wunsch nach einer besseren Nutzererfahrung. Diese Treiber liefern die wirtschaftliche und strategische Rechtfertigung für die Investitionen in die neuen Technologien und formen gemeinsam den Business Case für das intelligente Gebäude der Zukunft.
5.1 Cybersecurity by Design: Von der Schwachstelle zum sicheren System
Die zunehmende Vernetzung der Gebäudeautomation mit der IT-Welt und dem Internet macht sie zu einem attraktiven Ziel für Cyberangriffe. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnt eindringlich vor erheblichen Sicherheitsproblemen in der Praxis, darunter ungesicherte Fernwartungszugänge, fehlendes oder nachlässiges Patch-Management, die Nutzung veralteter, unsicherer Protokolle und eine mangelhafte Dokumentation der Netzwerke. Ein erfolgreicher Angriff kann von Komforteinbussen (Ausfall von Heizung oder Licht) über finanzielle Schäden (Ransomware) bis hin zur akuten Gefährdung von Menschenleben reichen, etwa durch die Manipulation von Brandmeldeanlagen oder Fluchttürsteuerungen.
Gleichzeitig erhöht sich der regulatorische Druck massiv. Neue Gesetze wie die NIS-2-Direktive der EU und der kommende Cyber Resilience Act (CRA) nehmen Betreiber (insbesondere von kritischen Infrastrukturen) und Hersteller gleichermassen in die Pflicht, nachweisbare und dem Stand der Technik entsprechende Sicherheitsmassnahmen zu implementieren.
Ein nachträglich aufgesetztes Sicherheitskonzept ist zum Scheitern verurteilt. Die Lösung liegt in einem integralen Ansatz nach dem Prinzip "Security by Design", der von Anfang an in der Planung verankert wird. Dies umfasst:
Technische Massnahmen: Der Einsatz inhärent sicherer und verschlüsselter Protokolle wie OPC UA oder BACnet/SC ist fundamental. Hinzu kommen die konsequente Segmentierung von Netzwerken durch Firewalls (Trennung von GA- und Office-Netz), das "Härten" von Geräten durch die Deaktivierung aller nicht benötigten Dienste und Ports sowie ein durchdachtes, rollenbasiertes Berechtigungsmanagement.
Organisatorische Massnahmen: Ein etablierter IT/OT-Risikomanagementprozess, klare Verantwortlichkeiten, ein funktionierender Prozess für regelmässige Software-Updates und Sicherheitspatches, Notfallpläne inklusive regelmässiger Backups sowie die kontinuierliche Schulung des Personals sind ebenso wichtig wie die Technik. Technische Regelwerke und Richtlinien wie die VDI 3814 und das VDMA-Einheitsblatt 24774 geben hierfür einen verlässlichen Rahmen vor.
5.2 Nachhaltigkeit und ESG-Konformität: Die GA als strategisches Compliance-Tool
Investoren, Gesetzgeber und die Gesellschaft fordern von Unternehmen zunehmend die Einhaltung und transparente Berichterstattung von Kriterien in den Bereichen Umwelt (Environmental), Soziales (Social) und Unternehmensführung (Governance) – kurz ESG. Da Gebäude in Deutschland, aber auch in der Schweiz für rund 35% des Endenergieverbrauchs und ca. 30% der CO2-Emissionen verantwortlich sind, stehen sie bei der Erfüllung der ESG-Ziele, insbesondere im Bereich "Environmental", im absoluten Fokus.
Die Gebäudeautomation wird hierbei vom reinen technischen Gewerk zum strategischen Compliance-Instrument. Sie ist das zentrale Nervensystem, das die für ein belastbares ESG-Reporting (z.B. nach der Corporate Sustainability Reporting Directive - CSRD) erforderlichen Verbrauchsdaten für Strom, Wärme, Kälte und Wasser überhaupt erst erfassen, messen und dokumentieren kann. Ohne eine digitalisierte, transparente und granulare Datenerfassung ist ein glaubwürdiges Reporting unmöglich. Über das reine Reporting hinaus ist die GA aber auch das entscheidende Werkzeug, um den Energieverbrauch und den CO2-Fussabdruck aktiv zu steuern, zu optimieren und die anspruchsvollen Klimaneutralitätsziele zu erreichen.
5.3 Die User Experience (UX) im Fokus: Der Mensch im Mittelpunkt des Gebäudes
Das Paradigma des Gebäudes wandelt sich. Es wird nicht mehr nur als passive Hülle für Arbeit oder Wohnen betrachtet, sondern als aktiver Service- und Erlebnisraum, der das Wohlbefinden, die Produktivität und die Zufriedenheit seiner Nutzer fördert. Im "War for Talent" und im Zeitalter hybrider Arbeitsmodelle wird ein positives, reibungsloses und personalisiertes Nutzererlebnis zu einem entscheidenden Differenzierungsmerkmal und Wettbewerbsvorteil für Unternehmen und Immobilienbesitzer.
Die moderne Gebäudeautomation ist der Schlüssel zur Realisierung dieser Vision. Sie ermöglicht:
Personalisierter Komfort: Anstatt einer Einheitslösung für alle, können Temperatur, Licht und Belüftung individuell über eine Smartphone-App gesteuert werden. Intelligente Systeme passen sich zudem automatisch an die Präferenzen und die tatsächliche Anwesenheit der Nutzer an.
Nahtlose Services: Die GA integriert sich mit anderen Systemen, um den Alltag zu erleichtern. Beispiele sind die intelligente Parkplatz- und Arbeitsplatzreservierung über eine App, Indoor-Navigation zum gebuchten Meetingraum, automatische Benachrichtigungen oder der schlüssellose Zugang per Smartphone.
Gesundheit und Wohlbefinden (Well-being): Über den Komfort hinaus kann die GA aktiv zur Gesundheit beitragen, indem sie kontinuierlich die Luftqualität (CO2, VOCs und weitere Luftbestandteile) überwacht und die Lüftung bedarfsgerecht steuert oder die Beleuchtung dem menschlichen Biorhythmus anpasst (Human Centric Lighting).
Diese drei Treiber – Cybersicherheit, ESG und User Experience – sind eng miteinander verknüpft und schaffen gemeinsam einen robusten Business Case für Investitionen in moderne GA-Technologien. Eine gute UX, wie eine Mieter-App zur Klimasteuerung, erfordert die Verarbeitung personenbezogener Daten, was wiederum höchste Cybersicherheit und Datenschutzmassnahmen bedingt. Die Optimierung des Energieverbrauchs (ESG) darf nicht zu Lasten des Nutzerkomforts (UX) gehen; eine intelligente GA muss beide Ziele ausbalancieren. Die Investition in eine moderne, sichere und offene GA-Plattform lässt sich somit nicht mehr nur über Energieeinsparungen rechtfertigen, sondern über ein mehrdimensionales Wertversprechen aus Risikominimierung (Security), Compliance und Wertsteigerung (ESG) sowie gesteigerter Attraktivität und Produktivität (UX).
Tabelle 3: Cybersicherheits-Massnahmenmatrix für die Gebäudeautomation
Bedrohungsszenario | Technische Gegenmassnahmen | Organisatorische Gegenmassnahmen | Relevante Norm/Richtlinie |
Unbefugter Fernzugriff durch Dienstleister | Gesicherter VPN-Zugang mit 2-Faktor-Authentifizierung (2FA), explizite Firewall-Regeln, Session-Logging | Vertragliche Regelung der Zugriffsrechte und -zeiten, regelmässige Überprüfung der eingerichteten Zugänge | BSI INF.14, VDMA 24774 |
Manipulation von unverschlüsselten Protokollen (z.B. BACnet/IP) | Umstieg auf BACnet/SC, Einsatz von BACnet/SC-Routern für Bestandssegmente, Netzwerksegmentierung (VLANs) | Festlegung von Sicherheitsstandards in der Bedarfsplanung, Abnahmetests mit Security-Fokus | DIN EN ISO 16484-5, BSI INF.14 |
Ransomware auf Management-PC (MBE) | Gehärtetes Betriebssystem, Applikations-Whitelisting, aktueller Virenschutz, getrennte Admin- und Nutzerkonten | Regelmässiger Patch-Management-Prozess, Erstellung von Offline-Backups, Notfall- und Wiederanlaufplan | BSI Grundschutz, VDMA 24774 |
Kompromittierung eines Edge-Geräts | Gehärtetes Linux-OS, Nutzung von Containern zur Isolation von Anwendungen, Deaktivierung ungenutzter Ports | Sicherer Prozess für das Deployment und Update von Containern, Monitoring des Gerätezustands | Cyber Resilience Act (CRA) |
Einschleusen von Schadsoftware über USB-Stick eines Technikers | Physische Sicherung von Schaltschränken, Deaktivierung von USB-Ports an Controllern und PCs | Richtlinien für den Umgang mit externen Datenträgern, Schulung des Personals | BSI INF.13 |
VI. Synthese und Ausblick:
Das Software-Defined Building als Zukunftsvision
Die analysierten Technologietrends und fundamentalen Treiber fügen sich zu einer kohärenten und kraftvollen Zukunftsvision zusammen: dem Software-Defined Building (SDB). Dieses Konzept beschreibt den finalen Schritt in der Evolution der Gebäudeautomation, bei dem das Gebäude selbst zu einer agilen, programmierbaren und intelligenten Plattform wird.
6.1 Definition und Konzept
In direkter Anlehnung an etablierte IT-Konzepte wie Software-Defined Networking (SDN) und das Software-Defined Data Center (SDDC) beschreibt das SDB eine Architektur, bei der die Gebäudefunktionen – Heizen, Kühlen, Lüften, Beleuchten, Sicherheit, Zugang – vollständig von der physischen Hardware-Infrastruktur entkoppelt sind. Sie werden als virtualisierte, softwarebasierte Dienste bereitgestellt und orchestriert. Das Gebäude wird von einem starren, hardwaredefinierten Konstrukt zu einer "write once, run anywhere" Plattform, die sich kontinuierlich optimiert, anpasst und ihre Funktionalität erweitert. Die zentralen Vorteile sind maximale Flexibilität, Agilität, Effizienz und eine bisher unerreichte Anpassungsfähigkeit an neue Technologien und sich ändernde Nutzungsanforderungen über den gesamten Lebenszyklus hinweg.
6.2 Das Zusammenspiel der Technologien im SDB
Die Architektur des Software-Defined Building integriert alle zuvor diskutierten Elemente zu einem logischen Ganzen:
Die physische Ebene wird auf das Wesentliche reduziert: Sensoren, Aktoren und standardisierte, austauschbare (Commodity-)Hardware wie IPCs und Netzwerk-Switches.
Die Virtualisierungsebene (Abschnitt II) nutzt VMs und Container, um die darunterliegende Hardware zu abstrahieren und flexible Laufzeitumgebungen für die Software bereitzustellen.
Die Kommunikationsebene (Abschnitt I) sorgt mittels eines hybriden Ansatzes aus BACnet/SC, OPC UA, MQTT, WS-und REST-APIs für den sicheren, zuverlässigen und semantisch reichen Datenaustausch.
Die Intelligenzebene (Abschnitt III & IV), verteilt auf Edge- und Cloud-Ressourcen, führt die eigentliche Anwendungslogik, die KI-Modelle und die Analysefunktionen aus.
Der Digitale Zwilling (Abschnitt IV) dient als zentrales, dynamisches Daten- und Orchestrierungsmodell, das alle Informationen zusammenführt und kontextualisiert.
Die Service-Ebene stellt den Nutzern und Betreibern die eigentlichen Funktionen als modulare Dienste zur Verfügung (z.B. "Raumklima-Service", "Energieoptimierungs-Service", "Sicherheits-Service").
6.3 Implikationen für die Branche
Die Vision des SDB hat tiefgreifende Implikationen für alle Akteure im Markt:
Neue Geschäftsmodelle: Der Fokus verschiebt sich vom einmaligen Verkauf von Hardware hin zu software- und servicebasierten Modellen. Denkbar sind "Building-as-a-Service"-Konzepte, Abonnements für fortschrittliche Analyse-Dienste oder sogar App-Stores, über die neue Gebäudefunktionen hinzugebucht werden können.
Veränderte Rollen und Kompetenzen: Der klassische GA-Integrator muss zum IT/OT-Systemintegrator mit tiefem Software- und Security-Know-how werden. Der Facility Manager entwickelt sich vom Techniker zum Daten- und Community-Manager, der die Services und die Nutzererfahrung orchestriert. Software-Entwickler werden zu einer entscheidenden Ressource in der Immobilienwirtschaft.
Die Notwendigkeit der Offenheit: In dieser Vision haben proprietäre, geschlossene Systeme keinen Platz. Offene Schnittstellen (APIs), die Unterstützung von Standards und die Fähigkeit zur Integration in ein herstellerübergreifendes Ökosystem sind überlebenswichtig.
VII. Strategische Handlungsempfehlungen für Akteure der Gebäudeautomation
Aus der Analyse der technologischen Entwicklung und ihrer Treiber lassen sich konkrete, umsetzbare Handlungsempfehlungen für die zentralen Akteure der Branche ableiten.
7.1 Für Planer und Errichter
Frühe IT/OT-Integration: Der Erfolg eines modernen GA-Projekts entscheidet sich in den frühesten Phasen. Es ist unerlässlich, die IT- und IT-Sicherheitsabteilungen des Bauherrn und zukünftigen Betreibers bereits ab der Leistungsphase 0 (Bedarfsplanung) in den Prozess einzubeziehen, um ein gemeinsames Verständnis und einheitliche Vorgaben für Netzwerkinfrastruktur, Sicherheitsrichtlinien und das Zertifikatsmanagement zu definieren.
Sicherheit und Offenheit spezifizieren: Machen Sie "Security by Design" und Offenheit zu einem zentralen Bestandteil Ihrer Ausschreibungen. Fordern Sie explizit den Einsatz verschlüsselter Protokolle wie OPC UA, BACnet/SC oder API-Schnittstellen, eine detaillierte Dokumentation der IT-Sicherheitsmerkmale ("gehärtete" Geräte, implementierte Sicherheitsfunktionen) und die Bereitstellung offener, dokumentierter APIs für die Integration von Drittsystemen.
Lebenszyklusdenken: Planen Sie nicht nur für die Errichtung und Abnahme, sondern für den gesamten Lebenszyklus des Gebäudes. Stellen Sie die entscheidenden Fragen: Wie werden Software-Updates und Sicherheitspatches eingespielt? Wer ist für das Management und die Erneuerung der Zertifikate verantwortlich? Wie skalierbar ist die gewählte Architektur, um zukünftige Anforderungen (z.B. neue KI-Dienste) aufzunehmen?
7.2 Für Betreiber und Facility Manager
Strategische Roadmap entwickeln: Analysieren Sie Ihren Gebäudebestand und entwickeln Sie eine schrittweise Modernisierungsstrategie. Es ist nicht notwendig, alles auf einmal umzustellen. Beginnen Sie mit den "Quick Wins", die den grössten Nutzen versprechen, wie z.B. die Implementierung eines transparenten Energiemonitorings zur Erfüllung der ESG-Reporting-Pflichten.
Kompetenzen aufbauen: Die intelligente Steuerung eines Gebäudes erfordert neue Fähigkeiten. Investieren Sie gezielt in die Weiterbildung Ihrer Mitarbeiter in den Bereichen Datenanalyse, IT-Grundlagen (Netzwerktechnik, Virtualisierung) und Cybersicherheit, um die neuen Systeme kompetent betreiben und ihren Wert maximieren zu können.
Datenhoheit sichern: Ihre Gebäudedaten sind ein wertvolles Gut. Bestehen Sie bei Neuprojekten und Modernisierungen auf offenen Systemen und dem uneingeschränkten, standardisierten Zugriff auf alle Daten. Vermeiden Sie proprietäre Lösungen, die Sie an einen einzigen Hersteller binden (Vendor-Lock-in) und Ihnen die zukünftige Nutzung Ihrer Daten erschweren.
7.3 Für Hersteller
Ökosysteme statt Silos: Die Zukunft gehört offenen Plattformen. Öffnen Sie Ihre Systeme konsequent über gut dokumentierte, standardisierte APIs und unterstützen Sie die führenden IT-Technologien wie Docker, OPC UA und MQTT. Arbeiten Sie aktiv in Standardisierungsgremien mit und fördern Sie die Interoperabilität.
Software in den Fokus rücken: Der entscheidende Wettbewerbsvorteil verlagert sich unaufhaltsam von der Hardware zur Software. Investieren Sie massiv in die Softwareentwicklung, in intuitive Benutzeroberflächen (Usability), in die Zuverlässigkeit und vor allem in die Cybersicherheit Ihrer Produkte.
Service-Modelle entwickeln: Denken Sie über den reinen Produktverkauf hinaus. Entwickeln Sie datenbasierte Dienstleistungen und Abonnement-Modelle, die Ihren Kunden einen kontinuierlichen Mehrwert bieten – von Predictive-Maintenance-as-a-Service über Energieoptimierungs-Algorithmen bis hin zu Plattformen für das ESG-Reporting.