System Prompt Optimizasyonu: AI Yanıtlarını Profesyonelleştirin
Bir LLM (Large Language Model) entegrasyonunda System Prompt, modelin "kişiliğini", sınırlarını ve çıktı formatını belirleyen en kritik katmandır. İyi yapılandırılmış bir system prompt, token maliyetini düşürürken doğruluk oranını %40'a kadar artırabilir.
Etkili bir prompt için: Role (Rol), Instruction (Talimat), Steps (Adımlar), Expectation (Beklenti), Negative constraints (Kısıtlamalar).
1) Role Prompting (Kimlik Atama)
Modele sadece "Kod yaz" demek yerine, spesifik bir uzmanlık atamak yanıtın derinliğini değiştirir.
"Sen bir asistansın, bana SQL sorgusu yaz."
"Sen 10 yıl deneyimli bir Senior Veritabanı Yöneticisisin. Sadece optimize edilmiş, SQL injection korumalı ve PostgreSQL uyumlu kod üret."
2) Few-Shot Prompting (Örnekleme Teknigi)
Modelin çıktı formatını anlaması için system prompt içine birkaç örnek (Shot) eklemek, hata payını minimize eder.
{
"role": "system",
"content": "Görevin, kullanıcı metinlerini JSON formatına dönüştürmektir.
Örnek Giriş: 'Bugün hava 25 derece.'
Örnek Çıktı: {'olay': 'hava_durumu', 'deger': 25, 'birim': 'celsius'}
Sadece geçerli bir JSON objesi döndür, açıklama yapma."
}
3) Çıktı Sınırlandırma ve Güvenlik
Profesyonel uygulamalarda AI'nın "halüsinasyon" görmesini engellemek için kısıtlamalar hayati önem taşır:
- Negative Constraints: "Bilmediğin konularda asla tahmin yürütme, 'Bilgi bulunamadı' yanıtını ver."
- Output Formatting: "Yanıtlarını her zaman Markdown tablosu veya JSON olarak yapılandır."
- Chain of Thought: "Yanıtı vermeden önce adım adım düşün ve mantığını kontrol et."