Red Hat und Meta mit Open KI

Bild: 123rf/it business

Typography
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

Red Hat und Meta kooperieren, um Open-Source-KI in Unternehmen voranzubringen. Im Fokus stehen Llama 4, vLLM und offene Frameworks für GenAI.

Red Hat und Meta arbeiten künftig enger zusammen, um Open-Source-basierte KI-Lösungen in Unternehmen voranzutreiben. Im Mittelpunkt steht die Integration der Llama-Modelle von Meta und die Optimierung von Inferenz-Workloads über das Projekt vLLM. Ziel ist es, eine offene, leistungsfähige Infrastruktur für generative KI bereitzustellen, die unabhängig von Plattform und Cloud funktioniert. Red Hat unterstützt Llama 4 ab Tag eins auf seiner Red Hat AI Platform und bietet Day-0-Support für den Inferenz-Server vLLM. Künftig wird Llama Stack, Metas Open-Source-Suite rund um GenAI, direkt in Red Hat AI integriert. Damit sollen Entwickler und Unternehmen GenAI-Anwendungen und KI-Agenten einfacher entwickeln und betreiben können - unabhängig von Umgebung und Anbieter. Der Markt für generative KI wächst rasant: Studien wie Gartner gehen davon aus, dass in wenigen Jahren die Mehrheit aller Business-Software GenAI-Funktionen nutzen wird. Dafür sind offene und interoperable Lösungen nötig. Genau das will die Kooperation bieten: Standardisierte Schnittstellen und offene Frameworks, mit denen sich KI-Modelle einfach und effizient einsetzen lassen.

Offene KI für Unternehmen

Red Hat leistet aktive Beiträge zur Weiterentwicklung von Llama Stack. Die Plattform soll zu einer echten Alternative für alle werden, die KI-Agenten und GenAI-Lösungen produktiv betreiben wollen – unabhängig von proprietären Ökosystemen. Gleichzeitig bleibt die freie Wahl bei Tools und Infrastruktur erhalten. Kern der technischen Zusammenarbeit ist das Open-Source-Projekt vLLM. Es bietet effizientes Inferenz für Large Language Models wie Llama 4 und ist bereits Teil des PyTorch-Ökosystems. Dadurch wird die Integration in bestehende AI-Workflows erleichtert. Meta und Red Hat entwickeln vLLM weiter, um kontinuierlich aktuelle Llama-Modelle zu unterstützen. Für Unternehmen bedeutet das: Sie erhalten Zugang zu modernen KI-Werkzeugen, die flexibel einsetzbar und unabhängig von spezifischer Hardware oder Cloud sind. Der Betrieb kann sowohl lokal, in der Cloud oder in hybriden Setups erfolgen. Die Kooperation wurde auf dem Red Hat Summit vorgestellt. Dabei betonten beide Unternehmen, dass der Erfolg von KI nicht nur an der Modellqualität hängt, sondern vor allem an stabilen und effizienten Inferenz-Technologien und an der Offenheit der Lösungen. Mit der Integration von Llama Stack und vLLM in Red Hat AI positionieren sich Red Hat und Meta gegen proprietäre Ansätze und stärken offene Standards. Unternehmen können damit GenAI-Projekte schneller und flexibler umsetzen - ohne sich langfristig an einzelne Anbieter zu binden. (lfa)

Wir verwenden Cookies auf unserer Website. Einige von ihnen sind für den Betrieb der Website von wesentlicher Bedeutung, während andere uns dabei helfen, diese Website und die Benutzererfahrung zu verbessern (Tracking-Cookies). Sie können selbst entscheiden, ob Sie Cookies zulassen möchten oder nicht. Bitte beachten Sie, dass Sie möglicherweise nicht alle Funktionen der Website nutzen können, wenn Sie sie ablehnen.