AutoAlign kündigte an, dass seine dynamische Sidecar-Firewall jetzt verfügbar ist, um benutzerdefinierte Chatbot-KI-Modelle über NVIDIA NeMo Guardrails zu schützen. Die Guardrails sind Teil der NVIDIA NeMo-Plattform, mit der generative KI-Modelle erstellt, angepasst und überall eingesetzt werden können. Das Unternehmen hat außerdem ein Whitepaper veröffentlicht, in dem es seine Erfolge im Bereich Sicherheit auf allen wichtigen LLMs hervorhebt. Die Sidecar-Technologie läuft neben LLMs und bietet konsistente Sicherheit, indem sie dynamisch mit schnell wachsenden Modellen interagiert und sich mit ihnen weiterentwickelt. Mit der AutoAlign-Technologie, die auf NVIDIA NeMo Guardrails läuft, können Anwender Sidecar wählen, um benutzerdefinierte, grundlegende Chatbot-Modelle zu sichern, so dass Unternehmen mit Zuversicht leistungsstarke und sichere generative KI einsetzen können.

Das Whitepaper des Unternehmens zeigt, dass die Guardrail-Architektur von Sidecar die Sicherheit von Modellen wie GPT-4 und Claude 3 Haiku verbessert. Durch den Einsatz von Sidecar mit hochgradig fokussierten Alignment Controls blockiert GPT-4 die Jailbreak-Versuche des Garak LLM Schwachstellen-Scanners in 100 % der Fälle (vorher 88,8 %) und erhöht die Souffle Injection Mitigation von 14,3 % auf 100 % Sicherheit. In ähnlicher Weise verbessert Sidecar die Jailbreak-Verhinderung von Claude von durchschnittlich 98,3 % auf 100 %, und die Prompt-Injection-Behandlung steigt drastisch von 38,4 % auf 100 %.

Die Unterstützung von NVIDIA NeMo Guardrails für die AutoAlign Sidecar-Technologie stellt sicher, dass LLMs, die zur Erstellung von benutzerdefinierten Chatbot-Anwendungen eingesetzt werden, die strengen Anforderungen von Unternehmen erfüllen und dabei sicher und leistungsstark bleiben.