Jfrog und Hugging Face kooperieren, um Machine Learning für Entwickler sicherer und transparenter zu gestalten. Die neue Integration verbessert die Qualität und Vertrauenswürdigkeit von quelloffenen ML-Modellen erheblich, was zu einer sichereren und verantwortungsvolleren KI für alle führt.
Jfrog kündigt eine Partnerschaft mit Hugging Face an, dem Betreiber des Hugging Face Hub, dem weltweit grössten öffentlichen Repository für Machine Learning (ML) Modelle, um die Sicherheitsscans und -analysen für jedes ML-Modell in der Hugging Face Bibliothek robuster zu gestalten. Die neue Integration wurde entwickelt, um das Vertrauen in die Scan-Ergebnisse zu stärken. Entwickler, Datenwissenschaftler und ML-Ingenieure wissen nun, welche Modelle am sichersten in ihrer Anwendung sind – angezeigt durch ein „Jfrog Certified“-Häkchen. „Da ML-Modelle zu einem integralen Bestandteil kritischer Geschäftsanwendungen werden, ist die Gewährleistung der Sicherheit dieser Modelle von entscheidender Bedeutung für die Verhinderung von Sicherheitsverletzungen, Datenlecks und Fehlentscheidungen“, so Asaf Karas, CTO von Jfrog Security. Machine Learning (ML) führt eine Reihe neuer Supply-Chain-Assets ein, wie zum Beispiel Modelle und Datensätze, die nicht nur ihre eigenen Sicherheitsherausforderungen mit sich bringen, sondern auch die Angriffsfläche eines Unternehmens vergrössern. Diese neueren Bereiche der ML-Lieferkette können es böswilligen Akteuren ermöglichen, aus der Ferne Code-Ausführungen vorzunehmen, um über ML-Modelle bösartigen Code in ein Unternehmen einzuschleusen und zu verbreiten. Dies würde Zugang zu kritischen internen Systemen schaffen und den Weg für gross angelegte Datenschutzverletzungen oder sogar Unternehmensspionage frei machen – wovon dann weltweit nicht nur einzelne Nutzer, sondern möglicherweise auch ganze Organisationen betroffen wären.
Sicherstellung der Integrität
Jfrog Xray und Jfrog Advanced Security, die Schlüsselkomponenten der Jfrog Software Supply Chain-Plattform, wurden entwickelt, um AI/ML-Modellartefakte in jeder Phase ihres Lebenszyklus auf Bedrohungen zu prüfen. Zu diesen Bedrohungen zählen Modell-Serialisierungsangriffe, bekannte CVEs, Hintertüren und mehr. Jetzt wird Hugging Face die Jfrog Advanced Security Scans auch in seinem Hugging Face Hub zur Anwendung bringen, so dass jedes Modell innerhalb der Plattform vor dem Herunterladen für den Gebrauch gescannt werden kann. Die Ergebnisse eines jeden Scans werden dabei für alle Nutzer deutlich sichtbar angezeigt werden. Diese neue fortschrittliche Sicherheitsintegration zwischen Hugging Face und JFrog unterscheidet sich von bestehenden ML-Modell-Scannern, da Jfrog bösartigen Code dekompiliert und tiefgreifende Datenflussanalysen durchführt. Während bestehende Lösungen lediglich nach automatisch ausgeführtem Code suchen, der in ein Modell eingebettet ist, setzt Jfrog's Modell-Scanner auf einen optimierten Ansatz, um den eingebetteten Code zu extrahieren und zu analysieren. Mehr als 96 Prozent der Fehlalarme, die von anderen Scannern bei aktuellen Hugging Face-Modellen ausgelöst werden, lassen sich so verhindern. Umfragen haben ergeben, dass mehr als 80 Prozent der Unternehmen zwar KI-Anwendungen nutzen oder damit experimentieren, sich aber zu mehr als 90 Prozent nicht auf die Herausforderungen der KI-Sicherheit vorbereitet fühlen. Darüber hinaus haben Cybersicherheitsbehörden aus den USA, Grossbritannien und Kanada gemeinsam Warnungen herausgegeben, in denen sie Unternehmen empfehlen, alle vortrainierten Modelle sorgfältig auf schädlichen Code zu überprüfen. (aso)