System Prompt Optimizasyonu: AI Yanıtlarını Profesyonelleştirin

Bir LLM (Large Language Model) entegrasyonunda System Prompt, modelin "kişiliğini", sınırlarını ve çıktı formatını belirleyen en kritik katmandır. İyi yapılandırılmış bir system prompt, token maliyetini düşürürken doğruluk oranını %40'a kadar artırabilir.

Profesyonel Formül: RISEN

Etkili bir prompt için: Role (Rol), Instruction (Talimat), Steps (Adımlar), Expectation (Beklenti), Negative constraints (Kısıtlamalar).

1) Role Prompting (Kimlik Atama)

Modele sadece "Kod yaz" demek yerine, spesifik bir uzmanlık atamak yanıtın derinliğini değiştirir.

Zayıf Prompt

"Sen bir asistansın, bana SQL sorgusu yaz."

Güçlü System Prompt

"Sen 10 yıl deneyimli bir Senior Veritabanı Yöneticisisin. Sadece optimize edilmiş, SQL injection korumalı ve PostgreSQL uyumlu kod üret."

2) Few-Shot Prompting (Örnekleme Teknigi)

Modelin çıktı formatını anlaması için system prompt içine birkaç örnek (Shot) eklemek, hata payını minimize eder.

System Message JSON Example
{
  "role": "system",
  "content": "Görevin, kullanıcı metinlerini JSON formatına dönüştürmektir. 
  Örnek Giriş: 'Bugün hava 25 derece.' 
  Örnek Çıktı: {'olay': 'hava_durumu', 'deger': 25, 'birim': 'celsius'}
  Sadece geçerli bir JSON objesi döndür, açıklama yapma."
}

3) Çıktı Sınırlandırma ve Güvenlik

Profesyonel uygulamalarda AI'nın "halüsinasyon" görmesini engellemek için kısıtlamalar hayati önem taşır:

  • Negative Constraints: "Bilmediğin konularda asla tahmin yürütme, 'Bilgi bulunamadı' yanıtını ver."
  • Output Formatting: "Yanıtlarını her zaman Markdown tablosu veya JSON olarak yapılandır."
  • Chain of Thought: "Yanıtı vermeden önce adım adım düşün ve mantığını kontrol et."
💡 İpucu: Token tasarrufu yapmak için system prompt içerisinde uzun cümleler yerine madde işaretleri ve kesin komutlar (Örn: "Daima kısa yanıtla", "Sadece teknik terim kullan") tercih edilmelidir.