AI Agentlarına Öğretmeyi Bırak - Hata Yapamaz Hale Getir
AI agentlarına öğretmeyi bırak, hata yapamaz hale getir. Stateless sistemlerde yatırım agenta değil sisteme yapılır - Hook, Skill, MCP ile guardrails kur.
Kod üretimi için AI agentlarla çalışıyorum, sürekli aynı duvara tosladım: agent her oturumda aynı hataları yapıyor. Yanlış isimlendirme, unutulan kısıtlar, daha önce düzelttiğim kalıpları tekrar bozuyor.
Sonra anladım: hafızası olan bir sisteme davranıyordum, oysa sistem hafızasız.
Asıl Sorun: Yatırım Kalıcı Değil
İnsan developerlarla:
Bir kere anlatırsın → hatırlar
Hata yapar → öğrenir
Kişiye yaptığın yatırım kalıcı
AI agentlarla:
Bir şey anlatırsın → oturum biter, unutur
Hata yapar → düzeltirsin, sonraki sefere tekrarlar
Agenta yaptığın yatırım buharlaşır
Bu, çalışma biçimini altüst eder.
Geçiş: Yatırım → Sistem, Agent Değil
Agenta öğretmeyi bırak. Onun yerine, sistemin istediğini zorla.
Claude Code sana üç araç veriyor. Her biri hafızasızlık sorununu farklı seviyede çözer:
Araçlar: Otomatik vs Workflow
Hook'lar (Otomatik)
Olay tetikler (her prompt'ta, araç kullanımından önce, vs.)
Shell script direkt çalıştırır
Agent çıktıyı alır, yorumlamaz
Kullan: Context enjeksiyonu, validation, güvenlik
Skill'ler (Workflow)
Görev çıkınca tetiklenir (agent karar verir)
Agent talimatları okur ve yorumlar
Workflow içinde kararlar verir
Kullan: Çok adımlı prosedürler, karmaşık mantık
MCP (Data Erişimi)
Dış kaynaklara bağlanır (Drive, Slack, GitHub)
Agent çalışırken sorgular
Hardcode yok
Kullan: Değişen dinamik veri
Basit Kural
Her seferinde aynı şey
Hook
Çok adımlı workflow
Skill
Dış veri erişimi
MCP
Örnek: Git commit'ler Hook kullanır (otomatik template "commit" deyince). Post yayınlama Skill kullanır (karmaşık workflow: oku → kalıpları tara → uyarla → paylaş).
Bu araçları çalıştıran 4 prensip:
1. ARAYÜZ AÇIK (Convention-Based Değil)
Sorun:
İnsan developerla:
AI agentla:
Çözüm: Yanlış yapmayı imkansız kıl
Araç: MCP runtime discovery'yi halleder
Agent endpoint'leri ve port'ları ezberlemek yerine, MCP server'lar bunları dinamik açar:
Agent yanlış bilgiyi hardcode edemez çünkü her şeyi runtime'da keşfeder. Google Drive, Slack, GitHub için MCP server'lar aynı şekilde çalışır - agent sorar, server cevaplar.
2. CONTEXT GÖMÜLMÜŞ (Dışarıda Değil)
Sorun:
Çözüm: WHY'ı kodun içine göm
Agent dosyaya her dokunduğunda bunu görür. Context kod ile birlikte gezer.
Araç: Hook'lar otomatik context enjekte eder
Dosyalar henüz yokken, hook'lar agent'ın ihtiyacı olan context'i sağlar:
Agent bu context'i her oturum başında enjekte edilmiş olarak alır, sen bir şey anlatmadan. Hafıza gerekmez.
3. KISIT OTOMATIK (Güvenilmez)
Sorun:
İnsan collaboration:
AI collaboration:
Çözüm: Atlanamaz validation
Araç: Hook'lar validate eder ve tehlikeli aksiyonları bloklar
Agent rm -rf çalıştıramaz denemesine denese. Hook yapısal olarak bloklar. Güvenlik sistem seviyesinde olur, agent'ın takdirine kalmaz.
4. İTERASYON PROTOKOLÜ (Hata → Sistem Patch'i)
Sorun: Bozuk döngü
Çözüm: Düzeltilmiş döngü
Örnek:
Artık agent yanlış isimli port oluşturamaz. Hata yapısal olarak imkansız.
Araç: Skill'ler workflow'ları yeniden kullanılabilir yapar
Agent çalışan bir workflow öğrenince, onu Skill olarak yakala:
Sonraki oturum, agent prompt'unda "TypeScript projesi kur" algıladığında bu Skill'i otomatik kullanır. Yeniden öğretme yok. Workflow oturumlar arası kalıcı.
Gerçek Örnek: AI-Friendly Mimari
Pratikte şöyle görünüyor:
Implicit versiyonla karşılaştır:
Araç Referansı: Ne Zaman Ne Kullanılır
Her seferinde aynı
Hook
Otomatik, hızlı
Commit'te git status
Çok adımlı workflow
Skill
Agent karar verir, esnek
Post yayınlama workflow
Dış veri
MCP
Runtime discovery
Drive/Slack/GitHub sorgula
Hook'lar: Otomatik Davranışlar
Tetikleyici: Event (her prompt'ta, tool'dan önce, vs.)
Örnek: "commit" dediğinde commit template görünür
Pattern: Bir kere kur, sonsuza kadar otomatik olur
Skill'ler: Karmaşık Workflow'lar
Tetikleyici: Task relevance (agent ihtiyacı algılar)
Örnek: Post yayınlama (oku → tara → adapte et → paylaş)
Pattern: Çok adımlı prosedür agent yorumlar
MCP: Veri Bağlantıları
Tetikleyici: Agent dış veriye ihtiyaç duyunca
Örnek: Hardcode yerine mevcut servisleri sorgula
Pattern: Runtime discovery, hardcode değer yok
Birlikte nasıl çalışır:
Setup:
Hook'lar: .claude/hooks/ dizininde shell script'ler
Skill'ler: ~/.claude/skills/{name}/SKILL.md'de markdown workflow'lar
MCP: claude_desktop_config.json ile server'lar kur
Üçü de Claude Code ve Claude API'de mevcut. Doküman: https://docs.claude.com
Temel Prensipler
Amnesia İçin Tasarla
Her oturum sıfırdan başlar
Context'i artifact'lere göm, konuşmaya değil
Validate et, güvenme
Yatırım → Sistem
Agent'a öğretme, sistemi değiştir
Implicit convention'ları explicit enforcement ile değiştir
Self-documenting kod > dış dokümantasyon
Arayüz = Single Source of Truth
Agent şunlardan öğrenir: Type'lar + Schema'lar + Runtime introspection (MCP)
Agent şunları kıramaz: Validation + Constraint'ler + Fail-fast (Hook'lar)
Agent şunları yeniden kullanır: Workflow'lar oturumlar arası kalıcı (Skill'ler)
Hata = Sistem Açığı
Agent hatası → sistem fazla permissive
Fix: Agent'ı düzeltme, sistemi patch'le
Hedef: Hatayı yapısal olarak imkansız kıl
Mental Model Kayması
Eski yol: AI agent = Eğitime ihtiyaç duyan junior developer
Yeni yol: AI agent = Guardrail'e ihtiyaç duyan stateless worker
Agent öğrenmiyor. Sistem öğreniyor.
Yaptığın her düzeltme sistemi sertleştirmeli, agent'ı eğitmemeli. Zamanla, yanlış kullanılması imkansız bir mimari inşa edersin.
TL;DR
AI agent'larına öğretmeyi bırak. Her şeyi unutuyorlar.
Onun yerine:
Explicit arayüzler - MCP ile runtime discovery, hardcode yok
Gömülü context - Hook'lar otomatik state enjekte eder
Otomatik kısıtlar - Hook'lar validate eder, tehlikeli aksiyonları bloklar
Yeniden kullanılabilir workflow'lar - Skill'ler bilgiyi oturumlar arası kalıcı kılar
Karşılığı: Initial cost yüksek (guardrail kurma), operational cost → 0 (agent hata yapamaz).
İlgili: Kod üretimi, agent orchestration, veya LLM-powered workflow'larla çalışıyorsan. Aynı prensipler geçerli.
Başka pattern'lere rastlayanınız var mı merak ediyorum.
Last updated
Was this helpful?