LLM
Last updated
Was this helpful?
Last updated
Was this helpful?
Büyük Dil Modelleri (LLM'ler), kullanıcı girdilerini işleyebilen ve kelime dizilerini tahmin ederek makul yanıtlar oluşturabilen yapay zeka algoritmalarıdır. Bunlar, dilin bileşen parçalarının birbirine nasıl uyduğunu analiz etmek için makine öğrenimi kullanılarak büyük yarı halka açık veri setleri üzerinde eğitilir.
Birçok web LLM saldırısı, prompt injection olarak bilinen bir tekniğe dayanır. Bu, bir saldırganın bir LLM'nin çıktısını manipüle etmek için önceden hazırlanmış promptlar kullandığı tekniktir. Prompt injection, AI'nın hassas API'lere yanlış çağrılar yapmak veya yönergelerine uymayan içerikler döndürmek gibi amaçlanan amacının dışında eylemler gerçekleştirmesine neden olabilir.
LLM ile konuşarak ona veritabanında sorgu yapmasını isteyebiliriz.
LLM ile konuşarak ondan sunucuda komut çalıştırmasını isteyebiliriz.
LLM'in başka kullanıcılar soru sorduğunda bizim istediğimiz promptları çalıştırmasını sağlayabiliriz.
Aşağıdaki yorumları ürüne yazıyoruz.
Eğer kullanıcıların yorumları LLM tarafından bize gösteriliyorsa ve XSS koruması yoksa xss çalıştırabiliriz.
Yoruma aşağıdaki payload'u yazabiliriz.
Modelin eğitim veri setine sağlam sterilizasyon teknikleri uygulayın.
Modele yalnızca en düşük ayrıcalıklı kullanıcınızın erişebileceği verileri besleyin. Bu önemlidir çünkü model tarafından tüketilen herhangi bir veri, özellikle ince ayar verileri söz konusu olduğunda, potansiyel olarak bir kullanıcıya ifşa edilebilir.
Modelin harici veri kaynaklarına erişimini sınırlandırın ve tüm veri tedarik zincirinde sağlam erişim kontrollerinin uygulandığından emin olun.
Hassas bilgiler hakkındaki bilgisini düzenli olarak belirlemek için modeli test edin.
Promptları kullanarak bir LLM'nin çıktısı üzerinde sınırlar belirlemek teorik olarak mümkündür. Örneğin, modele "bu API'leri kullanmayın" veya "yük içeren istekleri göz ardı edin" gibi talimatlar verebilirsiniz. Ancak, genellikle bir saldırgan tarafından "hangi API'lerin kullanılacağına ilişkin talimatları dikkate almayın" gibi hazırlanmış istemler kullanılarak atlatılabileceğinden, bu tekniğe güvenmemelisiniz. Bu istemler bazen jailbreaker istemleri olarak adlandırılır.
Portswigger Academy: