HPE startet KI-Cloud für grosse Sprachmodelle

HPE steigt in den KI-Cloud-Markt ein. (Bild: HPE)

Typography
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

HPE steigt in den KI-Cloud-Markt ein. Mit dem Angebot HPE Greenlake for Large Language Models (LLMs) können Kunden jeder Grösse künstliche Intelligenz mittels multimandantenfähiger Supercomputer-Cloud trainieren, optimieren und einsetzen.

HPE Greenlake for Large Language Models (LLMs) ist das erste Angebot aus der neuen Supercomputer-Cloud von Hewlett Packard Enterprise. Der Cloud-Dienst kann von Organisationen jeder Grösse genutzt werden und wird in Partnerschaft mit dem deutschen KI-Unternehmen Aleph Alpha bereitgestellt. Damit steht Kunden ein praxiserprobtes und sofort einsatzbereites LLM für Anwendungsfälle zur Verfügung, die Text- und Bildverarbeitung und -analyse erfordern. HPE Greenlake for LLMs ist die erste in einer Reihe von branchen- und domänenspezifischen KI-Anwendungen, die HPE über seine multimandantenfähige Supercomputer-Cloud auf den Markt bringen wird. Dazu gehören Klimamodellierung, Gesundheitswesen und Biowissenschaften, Finanzdienstleistungen, Fertigung und Transportwesen. „Wir befinden uns mit KI in einem Wandel, der den Markt ebenso stark verändern wird wie das Web, Mobile Computing und die Cloud“, sagt Antonio Neri, President und CEO von HPE. „KI war einst die Domäne von staatlich finanzierten Institutionen und Cloud-Giganten. HPE macht sie jetzt mit einer Reihe von KI-Anwendungen allen zugänglich, beginnend mit grossen Sprachmodellen, die auf HPEs bewährten und nachhaltigen Supercomputern laufen. Jetzt können Organisationen KI nutzen, um Innovationen voranzutreiben und Märkte zu verändern – mit einem On-Demand-Cloud-Service, der Modelle im grossen Massstab und auf verantwortungsvolle Weise trainiert, optimiert und betreibt.“

Antonio Neri President und CEO von HPE bei seiner Keynote auf der Hausmesse und Konferenz HPE Discover 2023 in Las Vegasjpeg

Antonio Neri, President und CEO von HPE, bei seiner Keynote auf der Hausmesse und -Konferenz „HPE Discover 2023“ in Las Vegas.
(Bild: HPE)

Im Gegensatz zu General-Purpose-Clouds, die mehrere Anwendungen parallel ausführen, läuft HPE Greenlake for LLMs auf einer KI-nativen Architektur, die speziell für die Ausführung einer großen KI-Trainings- und Simulations-Umgebung entwickelt wurde. Das Angebot unterstützt KI- und HPC-Aufgaben auf Hunderten oder Tausenden von CPUs oder GPUs gleichzeitig. Das ist wesentlich effektiver, zuverlässiger und effizienter für das KI-Training und erlaubt die Entwicklung präziserer KI-Modelle. Kunden können damit ihren Weg vom Proof of Concept bis zum produktiven Einsatz beschleunigen und Probleme schneller lösen. HPE Greenlake for LLMs beinhaltet den Zugang zu Luminous, einem vortrainierten grossen Sprachmodell von Aleph Alpha, das in mehreren Sprachen angeboten wird: Englisch, Französisch, Deutsch, Italienisch und Spanisch. Kunden können dabei ihre eigenen Daten nutzen, um ein individuelles Modell zu trainieren und zu optimieren.

HPE Cray XD und HPEs KI/ML-Software als Grundlage der KI-Cloud

HPE Greenlake for LLMs wird auf HPE-Cray-XD-Supercomputern laufen – den weltweit leistungsstärksten und nachhaltigsten ihrer Art. Kunden müssen damit keine eigenen Supercomputer kaufen und betreiben, was in der Regel kostspielig und komplex ist und spezielle Fachkenntnisse erfordert. Das Angebot umfasst das HPE Cray Programming Environment, eine Software-Suite zur Optimierung von HPC- und KI-Anwendungen, mit Werkzeugen für die Entwicklung, Portierung, Fehlersuche und Optimierung von Codes. Darüber hinaus unterstützt die Supercomputing-Plattform die KI/ML-Software von HPE, darunter das HPE Machine Learning Development Environment zum schnellen Trainieren grosser Modelle und die HPE Machine Learning Data Management Software zum Integrieren, Nachverfolgen und Prüfen von Daten mit reproduzierbaren KI-Funktionen, mit denen sich vertrauenswürdige und präzise Modelle bauen lassen. HPE Greenlake for LLMs wird in Colocation-Rechenzentren betrieben – etwa bei der Firma QScale (Quebec), die eine spezielle Umgebung für Supercomputer bereitstellt, die mit nahezu 100 Prozent erneuerbarer Energie betrieben werden.

Verfügbarkeit

HPE Greenlake for LLMs kann ab sofort geordert werden, zusätzliche Kapazität wird bis zum Ende des Jahres 2023 zur Verfügung gestellt. Das Angebot ist zunächst in Nordamerika verfügbar. Europa folgt Anfang 2024. HPE kündigte ausserdem eine Erweiterung seiner Server-Lösungen für die KI-Inferenz an. Die neuen Server der Familie HPE ProLiant Gen11 sind für KI-Anwendungen optimiert und mit Grafikprozessoren ausgestattet. Die Gen11-Systeme HPE ProLiant DL380a und DL320 beschleunigen die KI-Inferenz im Vergleich zu den Vorgängermodellen um mehr als das Fünffache.2 Weitere Informationen finden Sie unter HPE ProLiant Servers for AI. HPE Services bietet ein umfassendes Dienstleistungsportfolio, das Strategie und Design, Betrieb und Management für KI-Initiativen umfasst.

Wir verwenden Cookies auf unserer Website. Einige von ihnen sind für den Betrieb der Website von wesentlicher Bedeutung, während andere uns dabei helfen, diese Website und die Benutzererfahrung zu verbessern (Tracking-Cookies). Sie können selbst entscheiden, ob Sie Cookies zulassen möchten oder nicht. Bitte beachten Sie, dass Sie möglicherweise nicht alle Funktionen der Website nutzen können, wenn Sie sie ablehnen.