Trend Micro warnt vor LLMs ohne klare Regeln. Antworten können je nach Region und Modell variieren und damit Compliance, Vertrauen und Kosten beeinflussen.
Trend Micro hat eine Studie zu Risiken beim unkontrollierten Einsatz von Large Language Models veröffentlicht. Demnach können LLMs je nach Standort, Sprache, Modelldesign und Schutzmechanismen unterschiedliche Ergebnisse liefern. In kundenorientierten Anwendungen oder bei Entscheidungsunterstützung kann das zu Compliance Problemen, Vertrauensverlust und Folgekosten führen. Für die Analyse testeten die Forscher nach eigenen Angaben über 100 Modelle mit mehr als 800 Prompts. Dabei wurden Verzerrungen, Geofencing Verhalten und Hinweise zur Datensouveränität ausgewertet. Die Ergebnisse zeigen, dass identische Eingaben je nach Region abweichen können und selbst Wiederholungen beim gleichen System variieren. Robert McArdle, Director of Cybersecurity Research bei Trend Micro, warnt davor, KI wie klassische Software zu behandeln. "Unsere Forschung zeigt, dass diese Annahme nicht zutrifft." Unternehmen sollten KI deshalb mit klaren Vorgaben, Verantwortlichkeiten und menschlicher Verifikation einsetzen und von Anbietern mehr Transparenz verlangen. (lfa)