Optimum und Grenzen: Hochtechnologien im FM
Facility Management: AI » Strategie » Optimum und Grenzen

Nutzen von Hochtechnologie im Facility Management: Optimum und Grenzen
Der technische Fortschritt schreitet rasant voran, was dazu führt, dass Anlagen, Ausrüstung und Technik immer schneller veralten – oftmals lange bevor sie physisch verschlissen sind. Dieses Phänomen wird als moralischer Verschleiß bezeichnet. Es bedeutet, dass funktionsfähige Geräte durch neue Entwicklungen entwertet werden. Hersteller und Softwareanbieter forcieren häufig kurze Innovationszyklen (z.B. neue Software-Versionen oder Hardware-Generationen), sodass Nutzer immer früher zum Upgrade gedrängt werden – auch wenn der wirkliche Nutzen der neuen Technologie kaum steigt. Diese Entwicklung stellt besonders im Facility Management (FM) – also dem technischen Gebäudebetrieb und -unterhalt – eine Herausforderung dar. Hier gilt es, den Nutzen von Hochtechnologie (etwa KI-gestützte Systeme, IoT-Sensorik, Automatisierung) gegen deren Kosten und Schnelllebigkeit abzuwägen.
Die zentrale Frage lautet: Ist ein Optimum erkennbar? Wann kippt das Verhältnis zwischen immer stärkerer Technisierung und dem dadurch tatsächlich messbar erzeugten Nutzen? Anders formuliert: Wo liegen die Grenzen einer Übertechnologisierung um jeden Preis im FM? In diesem Beitrag wird dieser Frage anhand eines theoretischen Gedankenexperiments nachgegangen. Es werden die Kosten und Nutzen hochtechnologischer Lösungen im FM beleuchtet, der Break-even-Point bzw. der Punkt abnehmenden Grenznutzens diskutiert sowie Beispiele für ein Zuviel an Technik skizziert. Zudem wird dem Profit der Anbieter der Nutzen für die Anwender gegenübergestellt, um eventuelle Interessenkonflikte aufzuzeigen.
Optimum und Grenzen hochmoderner Technologien im FM
Kostenfaktoren vs. Nutzenpotenziale hochtechnologischer Lösungen
Die Einführung hochentwickelter Technologien im Facility Management bringt vielfältige Investitionen und Folgekosten mit sich.
Dazu zählen insbesondere:
Anschaffungs- und Entwicklungskosten: Die Kosten für Hardware (z.B. Sensoren, Steuergeräte, Roboter) und Software (Lizenzen, Spezialanwendungen) sowie ggf. für die Entwicklung oder Anpassung der Technologie an den spezifischen Einsatzfall. Bei KI-Lösungen können zudem hohe Aufwendungen für Dateninfrastruktur und Modell-Training anfallen.
Implementierung und Integration: Das Einführen neuer Systeme kann komplex sein. Es müssen Schnittstellen zu bestehenden Anlagen geschaffen, Datenmigration durchgeführt oder Prozesse angepasst werden. Dies erfordert Zeit und oft externe Beratung oder Engineering-Leistungen.
Betriebs- und Wartungskosten: Im laufenden Betrieb entstehen Kosten für Wartung, Energieverbrauch, Support-Verträge und regelmäßige Software-Updates. Hochtechnologie erfordert häufig spezialisierte Wartung (etwa Kalibrierung von Sensorik oder Pflege von Datenmodellen), was teurer sein kann als bei konventioneller Technik.
Schulung und Personal: Mitarbeiter – die oft fehlen - müssen auf die neue Technik vorbereitet werden. Schulungskosten und eine mögliche Widerstandsreaktion der Mitarbeiter sind zu berücksichtigen. Werden die Nutzer nicht ausreichend einbezogen und trainiert, besteht das Risiko, dass die teure Technik nicht effektiv genutzt wird und ihr erwarteter Vorteil nicht realisiert wird. Gegebenenfalls muss sogar zusätzliches Fachpersonal (z.B. Datenwissenschaftler, Systembetreuer) eingestellt oder extern hinzugezogen werden, um komplexe KI-Systeme zu betreiben.
Erneuerung und Modernisierung
Durch den erwähnten moralischen Verschleiß sinkt die Nutzungsdauer der Investition. Moderne FM-Technologie – von Gebäudeleittechnik bis zu Softwareplattformen – ist oft bereits nach wenigen Jahren veraltet oder wird vom Hersteller nicht mehr unterstützt. Regelmäßige Upgrades oder Ersatzinvestitionen sind nötig, um state-of-the-art zu bleiben. Diese verkürzten Innovationszyklen erhöhen die Lebenszykluskosten beträchtlich.
Diesen erheblichen Kosten stehen potenzielle Nutzen gegenüber. Hochtechnologie im FM verspricht zum Beispiel:
effizientere Betriebsführung (z.B. Energieeinsparungen durch intelligente Steuerung),
verlängerte Anlagenlebensdauer dank prädiktiver Wartung,
Produktivitätsgewinne durch Automatisierung routinemäßiger Aufgaben (z.B. Inspektionen mit KI oder Reinigungsroboter)
sowie Verbesserungen bei Komfort, Sicherheit und Nachhaltigkeit eines Gebäudes.
Beispielsweise können KI-gestützte Systeme helfen, Wartungsbedarfe frühzeitig zu erkennen und so Ausfälle und teure Notreparaturen vermeiden. In der Theorie berichten Studien von erheblichen Einsparpotenzialen – etwa 10-40 % geringere Instandhaltungskosten und 50 % weniger Ausfälle durch vorausschauende Wartung laut einem McKinsey-Bericht. Ebenso sollen Smart Buildings durch intelligente Energiesteuerung signifikante Betriebskostensenkungen erzielen können.
Der Haken
Diese Nutzen realisieren sich nur, wenn die Technologie richtig implementiert und genutzt wird. Oft bleibt der erhoffte Vorteil in der Praxis hinter den Erwartungen zurück. So zeigte eine Umfrage von McKinsey 2023, dass 62 % der Unternehmen trotz Einführung moderner Methoden wie Predictive Maintenance noch steigende (über der Inflation liegende) Instandhaltungskosten verzeichneten. Das heißt, trotz High-Tech-Ansätzen stiegen die Kosten bei vielen – der Nutzen kompensierte die Aufwände nicht ausreichend. Gründe dafür können lange Anlaufzeiten, Fehlanwendung oder unerwartete Komplexität sein, auf die im Folgenden eingegangen wird.
Bereits zu einem Zeitpunkt, als an KI noch keiner dachte, war die wirkliche Nutzung teurer technischer Lösungen ein Thema. Der Autor erinnert sich ungern an Objektbesichtigungen, bei denen sich auf dem Fußboden windende Druckerpapierschlangen offenbarten, dass tagelang niemanden die Ergebnisse der teuer eingebauten GLT interessiert hatten. „Keine Zeit“, war die Antwort. Oder an außer Betrieb genommene animalische Wärmefühler, die die Heizungsschaltung optimieren sollten. Als nämlich die „animalische Wärme“ früh zur Arbeit kam, war die Bude noch kalt.
Break-even-Point und abnehmender Grenznutzen technischer Aufrüstung
Unter Break-even-Point versteht man im Allgemeinen den Zeitpunkt oder das Ausmaß, bei dem eine Investition sich kostendeckend rentiert – also der kumulative Nutzen gleich den Kosten wird. Im Kontext hochtechnologischer FM-Lösungen ist dieser Punkt oft schwer zu erreichen oder verschiebt sich weit in die Zukunft. Grund ist, dass hohe Anfangsinvestitionen und laufende Kosten erst einmal eingespart werden müssen, bevor unterm Strich ein Gewinn entsteht. Klassische Methoden wie Amortisationszeitberechnung können hier angewandt werden, um abzuschätzen, nach wie vielen Jahren sich die Anschaffung durch Einsparungen bezahlt macht. Jedoch gilt es zu bedenken, dass – wenn die moralische Lebensdauer der Technik kurz ist – der Break-even unter Umständen nie erreicht wird, weil vor Eintreten der Rentabilität schon die nächste kostspielige Modernisierung ansteht.
Begriff des Grenznutzens
Neben dem zeitlichen Break-even gibt es einen konzeptionellen optimalen Punkt der Technisierung aus Sicht des Grenznutzens. Hier hilft das ökonomische Prinzip des Gesetzes vom abnehmenden Grenzertrag. Dieses besagt, dass anfangs zusätzliche Investitionen in einen Produktionsfaktor (hier: Technologie) hohe Zugewinne bringen, die Zuwächse aber mit zunehmender Investitionshöhe immer kleiner werden – bis hin zum Punkt, wo zusätzlicher Aufwand kaum noch zusätzlichen Nutzen bringt. Jenseits eines gewissen Optimums kann eine Übersättigung eintreten, in der jede weitere Technisierung sogar negative Effekte hat (z.B. Komplexitätskosten, Fehlbedienungen) und den Gesamtertrag reduziert.
Theoretische Nutzen-Kurve
Mit einfachen 80/20-Überlegungen lässt sich das veranschaulichen: Oft lassen sich mit den ersten relativ einfachen technischen Maßnahmen (20% des Aufwandes) bereits ~80% des maximal möglichen Nutzens erzielen. Jede weitere Steigerung der Technisierung um die letzten Prozente des Optimums erfordert dann überproportional mehr Aufwand, liefert aber immer geringeren Mehrwert – diminishing returns in Reinkultur. Ein Branchenbeispiel: Die Automatisierung der Gebäudeleittechnik. Durch Einführung einer grundlegenden digitalen Steuerung (für Klima, Licht, Zugänge) können z.B. 70% der möglichen Energieeinsparungen realisiert werden. Will man jedoch die letzten 30% Einsparung herauskitzeln – etwa durch KI-optimierte Feinsteuerung in Echtzeit – steigen die Kosten exponentiell (zusätzliche Sensorik, Rechenleistung, Expertentuning), während der zusätzliche Nutzen in kWh-Ersparnis nur noch marginal ist.
In einer theoretischen Nutzen-Kurve würde man zunächst steigende Erträge sehen: mehr Technologie führt zu spürbar besseren Ergebnissen. Doch irgendwann beginnt die Kurve abzuflachen – abnehmender Grenznutzen tritt ein. Dieser Knickpunkt markiert das approximate Optimum. Investiert man darüber hinaus weiter („Technik um jeden Preis“), droht man in den Bereich fallender oder negativer Erträge zu geraten. Praxisberichte bestätigen diese Tendenz: Je komplexer und umfangreicher ein System, desto höher die Gefahr, dass der Aufwand schneller wächst als der Nutzen. So wird etwa berichtet, dass immer komplexere KI-Modelle in Unternehmen nur noch geringe Leistungssteigerungen bringen, während die Kosten rasant steigen – ein klassischer Fall von law of diminishing returns, der am Ende sogar die ROI reduziert. Mit anderen Worten: Tech-Leader zahlen immer mehr für immer weniger signifikante Fortschritte.
Grenzen der Übertechnologisierung im FM – Wann „zu viel des Guten“ kontraproduktiv wird
Übertechnologisierung meint den Zustand, in dem Technik um ihrer selbst willen eingeführt wird, ohne dass sie im gleichen Maß praktische Vorteile liefert. Im Facility Management kann zu viel High-Tech tatsächlich gegen den eigentlichen Zweck arbeiten. Einige Grenzen und Risiken einer Übertechnisierung:
Komplexität und Bedienbarkeit
Hochvernetzte Systeme mit zig Funktionen können sehr komplex in Betrieb und Steuerung sein. Bedienpersonal wird womöglich überfordert oder begeht Fehler im Umgang mit der Technik. Ein Beispiel ist eine Gebäudeleittechnik-Plattform, die sämtliche Gewerke (Klima, Sicherheit, Energie, Zutritt, IoT-Sensoren) integriert. Ist das System überladen und unübersichtlich, nutzen die Techniker es nicht voll oder behelfen sich mit Workarounds. Im Worst Case werden automatische Funktionen deaktiviert, weil sie nicht wie gewünscht funktionieren. Dann ist die teure High-Tech-Investition unterausgenutzt oder sogar hinderlich im Alltag. Hier zeigt sich: Einfachere Lösungen sind manchmal effektiver, weil sie zuverlässig und handhabbar sind. Wie ein FM-Experte treffend feststellte, neigen manche Betreiber zu einem „über-engineerten Rollout“ anstelle eines smarten, pragmatischen Ansatzes. Es werden riesige monolithische Hard- und Softwarepakete beschafft, die viel können – aber zu teuer und unflexibel sind. Die hohen Anfangskosten solcher Komplettsysteme stehen oft außer Verhältnis zur tatsächlichen Einsparung, die sie (wenn überhaupt) erst sehr spät zurückspielen. Hier offenbart sich die Gefahr einer Übertechnologisierung: Das Projekt wird so groß und teuer aufgezogen, dass der Return on Investment unsicher oder erst nach vielen Jahren erreicht ist – falls der Nutzen überhaupt die Erwartungen erfüllt.
Wartungsaufwand und Störanfälligkeit
Mehr Technik bedeutet mehr, was kaputtgehen kann. Hochkomplexe Anlagen haben oft mehr Fehlerquellen und benötigen intensivere Betreuung (Updates, Patches, regelmäßige Kalibrierung etc.). Die Folge: höhere Ausfallrisiken und höhere Wartungskosten. Ein anschauliches Beispiel liefert die Klimatechnik: Moderne HVAC-Systeme in Smart Buildings enthalten unzählige Sensoren, Aktoren und Steuerungslogik. Sind diese Systeme überdimensioniert und komplexer als nötig, steigt das Risiko von Regelungsfehlern oder suboptimalem Betrieb. In der Praxis zeigt sich oft, dass HLK-Anlagen für Maximallasten übergroß ausgelegt werden (Überengineering) und dann im Teillastbetrieb ineffizient arbeiten. Hier schadet Übertechnisierung sowohl ökonomisch (unnötiger Energieverbrauch, teure Wartung) als auch ökologisch.
Integration und Abhängigkeiten
Wenn eine High-Tech-Lösung nicht gut zu bestehenden Prozessen passt, können Integrationsprobleme auftreten. Zum Beispiel erzeugt ein KI-gestütztes Instandhaltungssystem u.U. Hunderte Alarmmeldungen, die man erst in die vorhandene Wartungs-Software (CMMS) übertragen muss. Wenn diese Integration holpert – etwa, weil Systeme nicht kompatibel sind – entstehen manuelle Umwege, Dateninseln oder die Belegschaft ignoriert die neuen Tools. Solche Medienbrüche reduzieren oder verunmöglichen den Nutzen der Technologie. Auch vendor lock-in kann problematisch sein: Bindet man sich an einen Hersteller mit proprietärer Lösung, hängt der Erfolg vom Anbieter ab. Gerät dieser in Schieflage oder treibt die Kosten hoch, hat der Anwender das Nachsehen. Außerdem kann die Abhängigkeit von externem High-Tech-Know-how (z.B. Cloud-Dienste, KI-Modellentwicklung) riskant sein, wenn es intern an Verständnis fehlt.
Mitarbeiterakzeptanz
Wie bereits erwähnt, sind die Menschen ein kritischer Faktor. Übertechnologisierung kann am Menschen scheitern – sei es durch Akzeptanzprobleme (Bediener misstrauen der KI und verlassen sich lieber auf bewährte manuelle Methoden) oder Überforderung. Ein reales Beispiel liefert die Einführung von KI-Analysen im Wartungsteam: Studien zeigen, dass viele KI-basierte Predictive-Maintenance-Projekte daran kranken, dass das Personal den Auswertungen nicht traut oder nicht weiß, wie man daraus Maßnahmen ableitet. Die Folge: Das Team ignoriert die KI-Warnungen („Alarmmüdigkeit“) und verfällt wieder in reaktive Wartung. Hier hat zu viel High-Tech (ohne entsprechende Schulung und Prozessanpassung) keinen Nutzen, sondern erzeugt Frust.
Mehr Technik ist also nicht automatisch besser. Der Nutzen beim Anwender skaliert nicht linear mit dem Technisierungsgrad – im Gegenteil, er kann jenseits eines Punktes sogar sinken. Es gibt Grenzen, ab denen Technologie „Overkill“ wird. Im FM sollte Technik stets Mittel zum Zweck sein – nämlich die Kosten, Qualität und Nachhaltigkeit des Gebäudebetriebs zu verbessern. Wenn die Technik selbst zum Kostentreiber oder Problemverursacher wird, ist eine Grenze überschritten.
Anbieterprofit vs. Anwendernutzen: Interessensgegensätze beleuchtet
Ein weiterer Aspekt der Übertechnologisierung ist das Spannungsfeld zwischen den Interessen der Technologieanbieter und dem tatsächlichen Mehrwert für die Kunden. Hersteller und Dienstleister verdienen an neuen Produkten, Upgrades und Serviceverträgen – sie haben also einen Anreiz zur steten Technisierung. Nicht selten wird daher mit Marketing und Verkaufsdruck versucht, immer neuere Lösungen als Must-Have darzustellen. Für die Anbieter bedeutet dies Profitwachstum, für die Anwender jedoch nicht zwangsläufig entsprechenden Nutzenzuwachs.
Ein plakatives Beispiel stammt aus der IT-Welt, lässt sich aber auf FM übertragen: PC-Hardware und Betriebssysteme. In den 2000er Jahren sorgte z.B. Microsoft mit neuen Windows-Versionen für immer höhere Anforderungen an Speicher und Rechenleistung, was ältere voll funktionsfähige PCs „gefühlt“ unbrauchbar machte – ein klarer Fall von moralischem Verschleiß orchestriert durch den Anbieter. Die Hardware-Hersteller profitierten infolge steigender Verkaufszahlen, obwohl der tatsächliche Nutzen der neuen Geräte für die Anwender kaum stieg. Ähnliches sieht man heute bei Smartphones: Jährlich neue Modelle, minimale Funktionsverbesserungen – aber maximaler Marketinghype. Für Hersteller ein lukratives Geschäft, für viele Nutzer eigentlich unnötig.
Im Facility Management zeigt sich dieses Muster z.B. bei Komplettlösungen für Smart Buildings. Große Technologiekonzerne bieten proprietäre All-in-One-Systeme (für Gebäudeautomation, Security, IoT, Analytics) an, die sehr teuer sind. Natürlich verspricht der Anbieter enorme Effizienzgewinne, doch in der Praxis schöpfen viele Kunden nur einen Teil der Features aus. Die Investition rechnet sich kaum, aber der Anbieter hat sein Produkt verkauft. Oft wäre der Anwender mit einer kleineren, unabhängigen Lösung besser bedient – doch diese wird ihm nicht immer angeboten, da sie für den Anbieter weniger Profit bedeutet. Ein Fachartikel rät deshalb, bei Smart-Building-Initiativen auf Herstellerunabhängigkeit und pragmatische Quick-Wins zu setzen. So können Lösungen passgenau und bedarfsgerecht umgesetzt werden, anstatt dem Kunden ein überteuertes Universalsystem „aufs Auge zu drücken“. Anbieter dagegen tendieren dazu, ihr ganzes Portfolio abzuverkaufen – selbst wenn eine abgespeckte Lösung für den Kunden optimaler wäre.
Dieses Spannungsverhältnis bedeutet für Anwender: kritisch abwägen! Nicht jede neue Technologie, die der Markt hergibt, ist für das eigene FM wirklich nützlich. Man sollte genau prüfen, ob der Mehrwert messbar ist oder ob man primär den Profitinteressen des Verkäufers dient. Es kann helfen, unabhängige Beratung hinzuzuziehen oder Pilotprojekte mit klaren Erfolgskriterien zu starten, bevor man sich langfristig bindet. Letztlich muss die Technik dem Anwender dienen und nicht umgekehrt. Wenn also eine Innovation vor allem dem Hersteller Umsätze beschert, aber dem Betreiber nur kostspielige Komplexität, dann stimmt die Balance nicht.
Das ist u.a. auch der Grund, warum wir in unseren Anwendungsdokumenten stets hinweisen auf die notwendigen drei Ebenen des FM (Strategie, Taktik, Operation). Fehlen Strategie und große Teile der Taktischen Ebene, wird es schwer bzw. unmöglich, die Interessensgegensätze fachlich zu erkennen oder gar zu durchdringen.
Praxisnahe Beispiele: Wo High-Tech im FM lohnt – und wo nicht - Zur Veranschaulichung zwei konkrete Szenarien im Facility Management:
Szenario 1: Energiemanagement in Gebäuden. Nehmen wir ein Bürogebäude mit hohem Energieverbrauch. Option A ist ein einfaches Maßnahmenpaket: LED-Beleuchtung, manuelle Lichtabschaltung, Thermostate und ein paar Präsenzmelder – Investition überschaubar, Einsparung z.B. 20% Energie. Option B ist eine High-Tech-Lösung: Vollvernetzte Sensorik in jedem Raum, KI-Algorithmen optimieren in Echtzeit Heizung, Lüftung, Licht je nach Belegungsmustern, alles visualisiert im Smart-Building-Dashboard. Erwartete Einsparung vielleicht 30%. Kosten allerdings um ein Vielfaches höher als Option A (Planung, Hardware, Software, laufende KI-Auswertung). Die Frage der Wirtschaftlichkeit stellt sich sofort: Die zusätzlichen 10% Ersparnis müssen die erheblichen Mehrkosten rechtfertigen. Oft zeigt die Rechnung, dass Option A den deutlich besseren ROI hat. Die High-Tech-Variante würde sich erst nach sehr langer Zeit amortisieren – falls die komplexe Steuerung dauerhaft fehlerfrei läuft. Zudem kann eine einfache Lösung robuster sein: Etwa ein simpler Fenstersensor, der die Klimaanlage ausschaltet, sobald ein Fenster offen ist, spart schnell und kostengünstig Energie. Demgegenüber wäre eine große Energiemanagement-Software, die theoretisch alles steuert, in Installation und Lizenz vielleicht teurer als das, was sie an „Fenster-auf-Verlusten“ einspart. Dieses Beispiel zeigt: Technische Eleganz (KI, Automation) ist nicht automatisch gleich wirtschaftlicher Nutzen. Ein gesundes Mittelmaß – smarte, aber simple Lösungen – kann im FM oft das Optimum sein.
Szenario 2: Instandhaltung und Predictive Maintenance. Bei einer großen Produktionsanlage stehen Betreiber vor der Wahl, ihre Wartung klassisch vorbeugend oder mittels neuester KI-gestützter Predictive Maintenance zu betreiben. Traditionelle Methode: Techniker führen regelmäßige Inspektionen durch und tauschen Teile nach festen Intervallen – bewährt, aber nicht optimal, man wechselt evtl. zu früh oder übersieht spontan auftretende Defekte. High-Tech-Methode: Die Anlage wird mit Sensoren (Vibration, Temperatur, etc.) ausgestattet, die Daten an eine KI-Plattform senden. Diese soll Anomalien erkennen und prognostizieren, wann ein Bauteil ausfällt. Im Idealfall wird nur dann gewartet, wenn nötig, und unerwartete Ausfälle werden vermieden. Das klingt äußerst vorteilhaft: Studien beziffern potenzielle Einsparungen durch prädiktive Wartung auf den 10-fachen ROI der Investition. Aber – die Realität vieler Projekte ist ernüchternder. Die eingangs erwähnte McKinsey-Umfrage ergab, dass trotz solcher modernen Ansätze bei über der Hälfte der Firmen die Wartungskosten stiegen. Warum? Hochentwickelte PdM-Systeme sind teuer und komplex in der Einführung (viele Sensoren, IT-Integration), die Datenflut führt zu Fehlalarmen, die von den Teams nicht richtig interpretiert werden, und ohne entsprechendes Expertenwissen wird die schöne KI nicht effizient genutzt. So berichten Firmen, dass interne Teams den Ausgaben und Alarmen misstrauen und letztlich doch weiter nach alter Manier arbeiten. Hier wurden also große Summen investiert, der Profit lag beim Anbieter der Lösung, während der praktische Nutzen für den Anwender (bislang) ausgeblieben ist. Das heißt nicht, dass Predictive Maintenance schlecht ist – aber es verdeutlicht, dass High-Tech-Lösungen gründlich eingeführt und auf ihre Wirtschaftlichkeit geprüft werden müssen. Es kann sinnvoll sein, in kleineren Schritten vorzugehen: etwa erst kritische Maschinen mit Sensorik ausstatten, Ergebnisse auswerten und dabei Kosten und Nutzen laufend messen. Ein stufenweises Vorgehen reduziert das Risiko einer Fehlinvestition in ein allzu ambitioniertes System.
Diese Beispiele unterstreichen: Es gibt Bereiche, wo High-Tech im FM lohnend ist, aber ebenso Fälle, wo eine einfachere Lösung den besseren Kosten-Nutzen aufweist. Übertechnologisierung tritt besonders dort ein, wo man versucht, jede noch so kleine Verbesserung mit immer größerem Aufwand zu erreichen. Die Kunst liegt darin, das rechte Maß zu finden – also den Punkt, an dem Technologie die höchsten Netto-Vorteile liefert und darüberhinausgehende Technik keine zusätzlichen Nutzen mehr bringt oder sogar schadet. Dieses Optimum variiert je nach Anwendungsfall und sollte individuell durch Kosten-Nutzen-Analysen ermittelt werden, bevor man investiert.
Es gilt also (wie eigentlich in allen Bereichen des Lebens auch), Balance zu finden zwischen Innovation und Pragmatismus.