iX 7/2016
S. 108
Wissen
Verteilte Systeme
Aufmacherbild

PCIe über TCP/IP

Aufgespannt

Der Einzug von FPGAs, also programmierbarer Schaltkreise, in die Rechenzentren eröffnet neue Möglichkeiten zum Bau effizienterer Serverarchitekturen. Eine davon ist das Verteilen rechenintensiver Prozesse über ein auf Ethernet aufsetzendes PCIe-Netz.

Das rasante Wachstum der Cloud-Techniken stellt die Datencenter-Giganten Google, Facebook und Co. vor die Herausforderung, mit einer exponentiell wachsenden Verarbeitungslast umzugehen. Der Trend des Scale-out-Computing, bei dem moderne Enterprise-Anwendungen und Cloud-Systeme ein Netz aus Tausenden Prozessoren aufspannen, erfordert zudem neue Blickweisen auf die Latenz- und Energiebilanz dieser Systeme.

Derzeit lassen sich drei Umbrüche in den Serverarchitekturen beobachten. PCIe (PCI Express) verdrängt in Form von NVMe (Non-Volatile Memory Express) die klassischen SSD-Schnittstellen SATA oder SAS. Das verringert die Latenz und erhöht den Durchsatz Richtung Peripherie. Dadurch wird die externe Anbindung zum nächsten Flaschenhals, was nach einer leistungsfähigeren Vernetzung verlangt. Das wiederum beschleunigt die Adaption schnellerer Verbindungswege mit 100 beziehungsweise 400 GBit/s auf Basis des neuen 25-GBit-Ethernet-Standards.