Cloudera kündigte zusätzliche Unterstützung für wichtige NVIDIA-Technologien in öffentlichen und privaten Clouds an, um Kunden bei der effizienten Entwicklung und Bereitstellung erstklassiger Anwendungen für künstliche Intelligenz zu unterstützen. Diese neue Phase der technologischen Zusammenarbeit zwischen Cloudera und NVIDIA erweitert die Möglichkeiten von Mehrgenerationen-GPUs für Data Engineering, maschinelles Lernen und künstliche Intelligenz sowohl in öffentlichen als auch in privaten Clouds:Beschleunigung von KI- und Machine Learning-Workloads in Cloudera auf Public Cloud und On-Premises mit NVIDIA GPUs Cloudera Machine Learning [2] (CML) ist ein führender Service der Cloudera Data Platform, der Unternehmen in die Lage versetzt, ihre eigenen KI-Anwendungen zu erstellen und das Potenzial von Open-Source Large Language Models (LLMs) zu erschließen, indem sie ihre eigenen Datenbestände nutzen, um sichere und kontextgenaue Antworten zu erstellen. Der CML-Service unterstützt jetzt die hochmoderne NVIDIA H100 GPU in öffentlichen Clouds und in Rechenzentren.

Diese Beschleunigung der nächsten Generation stärkt die Datenplattform von Cloudera und ermöglicht schnellere Erkenntnisse und effizientere generative KI-Workloads. Dies ermöglicht die Feinabstimmung von Modellen auf größeren Datensätzen und das Hosten größerer Modelle in der Produktion. Die unternehmensgerechte Sicherheit und Governance von CML bedeutet, dass Unternehmen die Leistung von NVIDIA GPUs nutzen können, ohne Kompromisse bei der Datensicherheit einzugehen.

Cloudera Data Engineering [3] (CDE) ist ein Datenservice, mit dem Benutzer zuverlässige und produktionsreife Datenpipelines aus Sensoren, sozialen Medien, Marketing-, Zahlungs-, HR-, ERP-, CRM- oder anderen Systemen auf dem Open Data Lakehouse mit integrierter Sicherheit und Governance aufbauen können, orchestriert mit Apache Airflow, einem Open-Source-Projekt für den Aufbau von Pipelines im maschinellen Lernen. Mit der NVIDIA Spark RAPIDS-Integration in CDE können Extraktions-, Transformations- und Ladevorgänge (ETL) jetzt ohne Refactoring beschleunigt werden. Bestehende Spark ETL-Anwendungen können im Vergleich zu Standard-CPUs nahtlos um den Faktor 7 insgesamt und bis zu 16 bei ausgewählten Abfragen [4] beschleunigt werden (basierend auf internen Benchmarks).

Dadurch können Kunden von NVIDIA die Vorteile von GPUs in vorgelagerten Datenverarbeitungspipelines nutzen, die Auslastung dieser GPUs erhöhen und eine höhere Investitionsrentabilität nachweisen.