Supercomputing als Standortfaktor: Wenn Spezialrechner zur neuen Basisinfrastruktur werden
- Remo Daguati, CEO LOC AG

- vor 20 Stunden
- 4 Min. Lesezeit
Wer über die Wettbewerbsfähigkeit des Wirtschaftsstandorts Schweiz spricht, kommt an einem Thema nicht mehr vorbei: Rechenleistung. Nicht als abstraktes IT-Thema, sondern als produktiver Engpass – ähnlich wie früher Strom, Logistik oder verfügbare Industrieflächen.
Denn immer mehr Wertschöpfung entsteht dort, wo Unternehmen Simulationen, KI-Modelle, digitale Zwillinge oder komplexe Optimierungsaufgaben schneller, sicherer und kosteneffizienter rechnen können als der Wettbewerb.
Gleichzeitig verändern sich die technischen Anforderungen: Es reicht nicht mehr, irgendein Rechenzentrum zu betreiben. Gefragt sind spezialisierte Systeme – Supercomputer und Spezialrechner –, die auf bestimmte Workloads bzw. spezifische Anforderungen zugeschnitten sind und damit entscheidende Zeit- und Qualitätsvorteile bringen. Regionen, die diesen Zugang ermöglichen, schaffen einen handfesten Standortvorteil: Sie verkürzen Innovationszyklen, ziehen High-End-Projekte an und erhöhen die Attraktivität für Talente und forschungsnahe Unternehmen.
Welche Spezialrechen-Typen lassen sich heute unterscheiden?
Unter Spezialrechnern versteht man nicht nur sehr schnelle Computer, sondern Systeme, deren Architektur gezielt auf bestimmte Aufgaben optimiert ist. In der Praxis lassen sich heute (kar vereinfacht) folgende Typen unterscheiden:
Klassische HPC-Cluster (CPU-basiert): Hochleistungsrechner für numerische Simulationen (z. B. Strömungsmechanik, Material- und Strukturmodelle, Risiko- und Portfolioanalysen) mit hoher Präzision, breiter Software-Ökosysteme und verlässlicher Skalierung.
GPU-Supercomputer (GPU-Cluster): Der aktuelle Arbeitstier-Typ für KI-Training, Deep Learning, Bild-/Signalverarbeitung und viele Simulationen. GPUs liefern enorme Parallelität und verkürzen Rechenzeiten drastisch.
TPU-Beschleuniger (AI Accelerators): Neben GPUs gewinnen spezialisierte KI-Beschleuniger (so genannte TPUs) an Bedeutung, vor allem für das Ausführen trainierter Modelle (Inferenz) und energieeffizientere Künstlicher Intelligenz in Produktion, Medtech oder Embedded-Anwendungen. TPUs haben oft ein besseres Performance/Watt-Verhältnis für definierte Modellklassen.
FPGA-Systeme (Field Programmable Gate Arrays): Dabei handelt es sich um umprogrammierbare Hardware für Echtzeit-Anforderungen, Low-Latency-Anwendungen, Industrie- und Telekom-Workloads, teilweise auch für spezialisierte KI-Pipelines. FPGA-Systeme weisen extrem geringe Latenzen, eine flexible Anpassbarkeit bei gleichzeitig höherer Engineering-Komplexität.
ASICs & Spezialchips (anwendungsfixe Hardware): dies sind Chips, die auf eine eng umrissene Aufgabe optimiert sind (z.B. Video-Encoding, bestimmte Kryptografie- oder Inferenz-Aufgaben). Sie sind maximal effizient, dafür wenig flexibel, ihr Einsatz lohnt sich vor allem bei hoher Skalierung einer Aufgabe.
DPU-/SmartNIC-Plattformen (Data Processing Units) sind Spezialprozessoren für Datentransfer, Verschlüsselung, Storage- und Netzwerk-Offloading. Sie entlasten CPUs/GPUs, erhöhen die Sicherheit und verbessern die Auslastung teurer Rechenressourcen.
Quantencomputer: Quantencomputing ist in Teilen noch experimentell, wird aber bereits für bestimmte Problemklassen (Optimierung, Material-/Molekülsimulation, Kryptografie-nahe Themen) erprobt. Diese Technologie wird als Ergänzung zu konventionellem HPC-Rechner beschrieben, nicht als sofortiger Ersatz.
Neuromorphes Computing und Spezialarchitekturen für Edge/Realtime: diese Rechner sind noch eher eine Nische, aber besonders relevant für energiearme, sensornahe Anwendungen (d.h. für Robotics, autonome Systeme, Industrie 4.0), sprich wenn Daten nicht in die Cloud sollen/dürfen.
In der Realität werden die beschriebenen Typen kombiniert. Moderne Supercomputing-Systeme für komplexe Aufgaben bestehen aus somit GPU-Knoten, schnellen Netzen, optimierten Speichersystemen (Storage), Sicherheits- und Betriebsplattformen sowie zunehmend einer Energie- und Wärmestrategie.
Warum diese Supercomputer den Erfolg einer Wirtschaftsregion prägen
1. Zeit wird zur entscheidenden Währung: Wer Modelle, Simulationen und Optimierungen schneller rechnen kann, reduziert Entwicklungszeiten, senkt Kosten für Prototypen und erhöht die Trefferquote in Forschung und Produktentwicklung. Das gilt für Life Sciences ebenso wie für Maschinenbau, Finanzdienstleistungen, Logistik oder Medtech.
2. Rechenzugang wird zum Demokratisierer für KMU: Viele Unternehmen haben exzellente Fachkompetenz, aber keinen eigenen Supercomputer. Ein regional zugängliches, kommerzielles Angebot senkt die Eintrittshürden, macht Pilotprojekte machbar und beschleunigt den Transfer von Proof-of-Concept zu marktfähigen Produkten.
3. Clusterlogik: Infrastruktur zieht Projekte – Projekte ziehen Talente: Wenn Hochleistungsrechnen vor Ort verfügbar ist, entstehen natürliche Andockpunkte für Start-ups, Forschungspartner, Corporate Innovation Units und spezialisierte Dienstleister (Machine-Learning-Operations (MLOps), Datenplattformen, Simulation, Cybersecurity etc.). Das stärkt die Dichte des Ökosystems – und damit die Standortattraktivität.
4. Aus Souveränität, Sicherheit und Compliance werden Standortvorteile: Gerade bei sensiblen Daten (Industriegeheimnisse, Patientendaten, Finanzdaten) zählt nicht nur Performance, sondern auch Governance (Datenresidenz, Zugriffskontrolle, Auditierbarkeit). Regionale Angebote können hier vertrauensbasierte Alternativen zu rein globalen Hyperscalern schaffen.
5. Energie und Nachhaltigkeit: Data-Center und Supercomputer benötigen viel Energie, gleichzeitig erzeugen sie nutzbare Abwärme. Wenn diese Wärme in Areale und lokale Netze für Wärmeverbunde integriert wird, entstehen doppelte Effekte: niedrigere Emissionen und bessere Gesamtwirtschaftlichkeit.
Nebenbei entsteht dadurch auch „Ankerkraft“ für weitere Ansiedlungen und Investitionen: Der Artikel verortet das Areal zudem als wichtiges Wirtschaftsgebiet und erwähnt die erwartete Erweiterung/Ansiedlung eines grossen Unternehmenshauptsitzes der Straumann Group.
Was bedeutet das für Standort- und Arealentwicklung?
Für Standortförderung und Arealstrategien lässt sich daraus eine klare Schlussfolgerung ableiten: Spezialrechner sind keine „nice-to-have“-Technologie, sondern ein harter Standortfaktor - vergleichbar mit Verkehrsanbindung oder Energieinfrastruktur. Regionen, die das Thema aktiv gestalten, können drei Dinge gleichzeitig erreichen:
1. Innovationsfähigkeit skalieren (mehr Projekte, schnellerer Transfer, höhere Produktivität)
2. Wertschöpfung binden (Rechen- und Datenkompetenz bleibt in der Region)
3. Nachhaltigkeit operativ machen (Wärmerückgewinnung, effiziente Kühlung, lokale Netzintegration)
Damit daraus ein Standortvorteil wird, braucht es jedoch mehr als nur Hardware: klare Zugangs- und Preismodelle (auch für KMU), ein Partnernetzwerk (Industrie, Forschung, Betreiber), Wissensaufbau (Daten, MLOps, Simulation) sowie eine Energie- und Flächenlogik, die Rechenzentren als integrierten Teil der regionalen Infrastruktur versteht – und nicht als isolierten Technikblock.
Das ABC der Spezialrechner und Supercomputer
ASIC: Eine anwendungsspezifische integrierte Schaltung (englisch application-specific integrated circuit, ASIC, auch Custom Chip) ist ein integrierter Schaltkreis, dessen elektronische Schaltung speziell für ein eng umgrenztes Feld von Anwendungen entwickelt wurde und nur dort sinnvoll einsetzbar ist,
CPU: Eine Central Processing Unit (CPU), sprich Mikroprozessor, ist auch bekannt als Hauptrecheneinheit oder Hauptprozessor oder zentrale Recheneinheit oder zentrale Verarbeitungseinheit.
DPU: Eine Data Processing Unit (kurz DPU, englisch für Datenverarbeitungseinheit) ist ein programmierbarer Hardwarebeschleuniger, der speziell für die Verarbeitung von Daten ausgelegt ist. Sie werden in Rechenzentren eingesetzt, speziell in solchen mit datenzentrierten Workloads. DPU-Prozessoren besitzen im Gegensatz zu CPUs deutlich mehr, dafür leistungsschwächere Kerne. Dadurch wird ein höherer Parallelisierungsgrad erreicht, was die zeitgleiche Verarbeitung grosser Datenmengen beschleunigt.
FPGA: Field-Programmable-Gate-Array (FPGA). Der Begriff „field programmable“ (vor Ort programmierbar) bezieht sich auf die Fähigkeit eines FPGA, vor Ort oder nach der Freigabe des Chips vom Hersteller programmiert zu werden.
GPU: Graphics Processing Unit (GPU) hat viele kleinere, spezialisiertere Kerne. Diese Kerne sorgen dadurch für enorme Verarbeitungsleistung, dass sie zusammenarbeiten und Verarbeitungsaufgaben parallel, also gleichzeitig, auf viele Kerne aufteilen.
TPU: Tensor Processing Units (TPUs), auch Tensor-Prozessoren, sind anwendungsspezifische Chips zur Beschleunigung von maschinellem Lernen. TPUs werden vor allem genutzt, um Daten in künstlichen neuronalen Netzen zu verarbeiten (siehe Deep Learning).

Bild: Sora



