Arteris, Inc. gab bekannt, dass NeuReality die FlexNoC Interconnect IP von Arteris als Teil des NR1 netzwerkadressierbaren Inference Server-on-a-Chip einsetzt, um hochleistungsfähige, bahnbrechende Kosten- und Stromverbrauchsverbesserungen für maschinelle und Deep Learning-Berechnungen in seinen KI-Inferenzprodukten zu erzielen. Diese Integration ist in einem 8-hierarchischen NoC mit einer aggregierten Bandbreite von 4,5 TB/Sek. untergebracht und erfüllt die Anforderungen an niedrige Latenzzeiten für die Ausführung von KI-Anwendungen in großem Maßstab und zu geringeren Kosten. Der NeuReality Inferenzserver zielt auf generative KI, Large Language Models (LLMs) und andere KI-Workloads ab.

Der innovative NR1 Server-on-a-Chip von NeuReality ist die erste Network Addressable Processing Unit (NAPU), ein für Arbeitsabläufe optimiertes Hardwaregerät mit spezialisierten Verarbeitungseinheiten, nativen Netzwerk- und Virtualisierungsfunktionen. Sie bietet ein natives KI-over-Fabric-Netzwerk, einschließlich vollständiger KI-Pipeline-Offloads und hardwarebasierter KI-Hypervisor-Funktionen. Die Fähigkeit, CPUs, GPUs und sogar Deep-Learning-Beschleuniger auf mehrere NR1-Chips zu verlagern, macht es möglich, dass der Inferenzserver von NeuReality effektiv die bis zu 10-fache Leistung bei geringerem Stromverbrauch und zu einem Bruchteil der Kosten seines Inferenzservers liefert.