perspective

Statik Bilgi Ölü Bilgidir — Obsidian ile Canlı Hafıza Yapmak

Bir second brain'i AI çağına hazırlamak için üç ay süren bir evrim, ve bunun bana öğrettikleri.

Alpgiray
Alpgiray
Kurucu Ortak @SaaSBridge
29 Nisan 202614 dk okuma
Statik Bilgi Ölü Bilgidir — Obsidian ile Canlı Hafıza Yapmak

Karpathy'nin Klasörü

Andrej Karpathy bir yerde şundan bahsediyor: bilgisayarında /raw adında bir klasör var, her şey oraya gidiyor. Okuduğu paper'lar, ilginç bulduğu tweet'ler, ekran görüntüleri, beyaz tahta fotoğrafları, kendi notları, başkalarının kodları. Hepsi tek klasör. Ve Karpathy diyor ki: "Bunun içinde bir şey aramaya çalışmak fiziksel olarak acı verici. AI bunu çözmeli."

Karpathy yalnız değil, aynı problemi pek çoğumuz yaşıyoruz. Obsidian kullananın vault'u, Notion kullananın workspace'i, dosya sisteminde notlar tutanın Documents/'ı — hepsi aynı /raw. Birikiyor, şişiyor, arama sorguları birbirine karışıyor. Yıllar içinde, içine bilgi attıkça değer kaybeden bir kara delik haline geliyor.

Ben de aynı şeyi yaşadım. Daha kötüsünü yaşadım aslında. Çünkü ben Claude ile çalışıyordum, ve fark ettim ki vault'um sadece bana karşı kötü değildi; Claude'a karşı da kötüydü.

Bir gün Claude'a "x projesi için bir admin paneli kuralım" dedim. Claude kurdu, üretti, çalıştı. Güzel. İki hafta sonra y projesi için aynı şeyi istedim. Claude yine sıfırdan üretti. Üç hafta sonra başka bir proje. Yine sıfırdan. Her seferinde benzer ama aynı olmayan kod, her seferinde aynı kararları yeniden vermek, her seferinde Claude'un benzer hatalara düşmesi.

Üçüncü seferinde durdum ve sordum kendime: "Bu ikinci sefer mi, üçüncü mü? Vault'umda bu kodun bir versiyonu var mı? Ben bile hatırlamıyorum."

İşte o gün anladım. Vault'um Claude'a yardım etmiyordu, edebilirdi.

AI ile Çalışmak Aslında Hafıza Problemidir

Bu sadece benim sorunum değil. Daha büyük bir şeyin küçük bir görünümü.

Bugün AI ile çalışan herkes aynı duvara çarpıyor: LLM context window içinde tanrı, dışında bir hiç. Bir oturumda Claude'a 200 bin token bağlam verebilirim, harikalar yaratır. Sonra oturum biter, hafıza biter. Yeni oturumda her şey sıfır. Ben varım, vault'um var, kod var, kararlarım var — Claude bunların hiçbirini bilmiyor.

Bu noktada herkes aynı şeyi yapıyor: not tutma sistemi kuruyor. Obsidian, Notion, Reflect, mem.ai — hepsi "second brain" iddiası taşıyor. Ama bu araçlar statik notlar için tasarlandı, AI ile çalışmak için değil. Ve istisnasız hepsinin aynı dört kritik eksiği var:

Bir. AI hangi nota bakacağını bilmiyor. Vault'umda 83 markdown dosyası var. Claude'a "bunu kullan" demem için elle linklemem gerekiyor. Yoksa sıfırdan üretiyor. Otomatik keşif yok.

İki. Okuduğunda token şişiyor. Tüm vault'u Claude'a yükleyeyim diyebilirim — ama 295 KB, ~80 bin token. Her oturumda bunu yapmak ne mümkün ne de mantıklı. Her sefer pahalı, her sefer alakasız bağlam.

Üç. Kullanım izlenmiyor. Hangi notu kaç kez açtığımı, hangi pattern'in işe yaradığını, hangisinin unutulduğunu hiçbir sistem söylemiyor. Notlar ölü.

Dört. Bilgi çürüyor ama bunu kimse fark etmiyor. İki yıl önce yazdığım "şu kütüphaneyi kullan" notu hâlâ orada duruyor. Kütüphane artık deprecated olabilir, ama not hâlâ "doğru" gibi görünüyor. Eski güven, taze görünür. Bu bir tuzak.

Statik bilgi ölü bilgidir.
Çürümeyen sistem yalan söyler.

Ben bir tez kurdum: Second brain artık statik bir not deposu olamaz. Canlı bir organizma olmak zorunda. Kendini izleyen, beslenen, çürüyen, güçlenen, evrimleşen bir şey. AI ile çalışıyorsanız, hafızanız da AI gibi yaşamak zorunda — yoksa AI'a köstek olur.

Bu tezin fikir kaynağı da Robert Moor'un Patikalar Üzerine Bir Keşif kitabı oldu. Kitabı burada anlatmyacağım yeri burası değil. Ama hayvanların, insanların, mikroskopik canlıların, sinir ağlarının hepsinde görülen davranış bir yol açmak ve o yolu sürekli temizlemek. Kitap çok ilham verici tavsiye ederim. Ayrıca, ünlü mimar Le Corbusier'nin Şehircilik kitabında da ilk bölümün adı Eşekler'in Yolu'dur. Bu bölümde İnsanın kullandğı dünyanın en eski yollarını eşeklerin açtığında bahseder. Eşeklerin konforları insanınkine çok benzer, en gölgeli, en meyveli , en az eğili iniş ve çıkışlı yolları seçerlermiş. Yani özetle tezim sık gidilen yollar değerlidir. Bu yolları kaydetmek bir örüntü çıkarmaya ve yol süresini optimize etmeye yarayabileceği üzerineydi.

Bu makale, o tezi sınamak için kurduğum sistemin hikayesi.

02-canli-organizma.png

SECOND BRAIN BİR DEPO DEĞİL, BİR ORGANİZMADIR.

Sistemin Doğuşu — Dört Faz

Sistemi tek seferde tasarlamadım. Tasarlasaydım kötü olurdu. Üç ay boyunca dört fazda evrildi, ve hâlâ evrimleşiyor. Her faz, bir önceki fazın açığa çıkardığı eksikliğe cevap olarak doğdu.

Faz 1 — Yapı

İlk fark ettiğim şey: vault'um konusal değildi. Tarih bazlıydı. Daily note, daily note, daily note. Bilgi günlere yayılmıştı, kavramlara değil. Bir admin panel kalıbı arasam, hangi oturumda oluşturduğumu hatırlamam gerekiyordu. Önce bu yapıyı kırdım.

Yeni iskelet:

  • wiki/concepts/ — kalıcı kavramlar (component'ler, pattern'ler, çözümler)

  • wiki/projects/ — proje-spesifik bilgi

  • wiki/design/ — tasarım kararları, DNA dosyaları

  • patikalar/ — tekrarlanan iş yolları

  • sessions/ — oturum logları

  • dashboards/ — otomatik üretilen raporlar

  • insights/ — sentez ve içgörüler

Sonra üç tane slash komut oluşturdum: /pulse (vault durum raporu), /patika (yol kaydı), /reflect (oturum yansıması). Bu komutlar tamamen manueldi, hiçbir otomasyon yoktu. Ama bilinçli izleme başlamıştı. Ne yaptığımı kaydediyordum, ne yapacağımı planlıyordum, oturum sonunda ne öğrendiğimi yazıyordum.

Bu fazda hiçbir AI marifeti yoktu — sadece disipline edilmiş bir yapı vardı. Ve disipline edilmiş yapı bile vault'u %30 daha kullanışlı hâle getirdi. Bu önemli bir ders oldu: yapı, sistemin kendisi değildir, ama olmadan sistem kurulmaz.

Faz 2 — Hot Cache ve Tasarım DNA

Yapı vardı ama Claude hâlâ vault'a bakmıyordu. Çünkü bakması gerektiğini bilmiyordu. Burada hot cache fikri doğdu.

hot.md dosyası, her oturum başında otomatik üretilen ~500 kelimelik bir özet. İçinde ne var:

  • Son aktif oturumlar

  • Öncelikli todo'lar

  • Aktif patikalar

  • İzlenen pattern'ler

  • Tasarım DNA durumu

Claude oturum başında sadece bu dosyayı okuyor. ~150 token. Vault'un 80 bin token'lık tamamını okumak yerine, kapsamlı ama küçük bir özet. Sistem CLAUDE.md kuralı sayesinde bunu otomatik yapıyor: oturum başlangıcında ilk iş hot.md.

Aynı fazda git_observer.py oluşturdum. Tüm projelerimi tarıyordu — 14 aktif projede 716 commit. Hangi projede ne yapılıyor, son commit'ler hangi konuda, ne zamandır dokunulmamış. Vault dışı bilgiyi vault içine getiriyordu.

Sonra pattern_analyzer.py ve design_dna_extractor.py. İlki oturum loglarımdan tekrarlanan kalıpları çıkarıyor. İkincisi 7 farklı projemden tasarım kararlarımı çıkarıyor — hangi font ailesini, hangi animasyon easing'ini, hangi UI kütüphanesini kullanıyorum.

Çıkan bilgi rahatsız edici şekilde net oldu: tüm projelerimde cubic-bezier(0.22, 1, 0.36, 1) easing kullanmışım. 7'sinde de Tailwind. 4'ünde lucide-react. Bunu "biliyor" muydum? Sezgisel olarak evet. Ama belgelenmiş, sayısal, 1.0 güven skoruyla doğrulanmış halini hiç görmemiştim. DNA çıkarımı bunu görünür yaptı.

Bu noktada vault'um benden daha çok şey biliyordu kendisi hakkında.

Faz 3 — Çürüme ve Refleks

Fakat bir şey rahatsız ediyordu: sistem büyüdükçe, çöp de büyüyordu. Eski patikalar, kullanılmayan notlar, kırık linkler. Burada fikir doğdu:

Çürüme bir özellik olmalı, bug değil.

confidence_decay.py oluşturdum. Her patikanın bir frontmatter'ı var:

times_used: 12
last_used: 2026-04-14
confidence: 0.92
maturity: 4

Kurallar basit:

  • 30 gün kullanılmazsa güven %5 düşer

  • Kullanılırsa güven %8 artar

  • Belirli eşiği geçen patika otomatik "olgun" olarak işaretlenir

  • Belirli eşiğin altına düşen patika "uyarı" listesine girer

Bu basit kural sistemi sayesinde, vault kendi kendini eliyor. Ben hiçbir şey yapmasam bile, kullanmadığım bilgi zamanla solar. Yenilersem güçlenir. Tıpkı sinirsel bağlantılar gibi.

Aynı fazda orphan_finder.py (bağlantısız notları bulur), link_checker.py (kırık linkleri tespit eder), freshness_check.py (90 günden eski notları işaretler). Vault'umun sağlık raporu otomatik geliyor.

Ve en önemlisi: refleks patikaları. Tekrar tekrar yaptığım iki iş yolunu kristalize ettim. proje-baslat ve admin-panel-kur. İçlerinde:

  • Hangi adımlar neyi sırayla yapacak

  • Hangi kararlar sabit

  • Hangi karar her seferinde değişir

  • Hangi dosyalar oluşur

  • Hangi tuzaklara dikkat

Bunlar sıradan dökümantasyon değil. Bunlar çağırılabilir prosedürler. "x projesi için yeni bir proje kuralım" dediğimde, Claude proje-baslat patikasını okuyor ve tek komutla 8 dosyalık bir iskeleti — Next.js + admin panel + auth + DB schema dahil — kuruyor. Bu iki patika bugüne kadar 21 kez kullanıldı (12 + 9). Gerçek frontmatter sayacı, gerçek tasarruf.

Faz 4 — Düşünme Araçları

Son fazda bir şey eksikti. Sistem benim için hatırlıyordu, izliyordu, çürütüyordu — ama düşünmüyordu. Düşünmek hâlâ tek başıma yapmam gereken bir şeydi.

Dört düşünme aracı ekledim:

  • /trace — bir kararın, bug'ın veya pattern'in kökenini izle

  • /challenge — bir fikri sorgula, devil's advocate ol

  • /connect — iki kavram arasında bağlantı kur

  • /synthesize — birden fazla kaynaktan sentez çıkar

Bunlar Claude'un düşünme tarzını yapılandıran komutlar. "Bu pattern'i nereden aldım?" diye sormak yerine /trace çağırıyorum, Claude vault'ta ve git geçmişinde izini sürüyor. "Bu fikre saldır" demek yerine /challenge çağırıyorum.

Aynı fazda weekly_review.py (oturumlardan otomatik haftalık özet) ve cross_note_analyzer.py (notlar arası önerilen bağlantı tespiti) oluşturdum. İkincisi bir taramada 430 önerilen bağlantı ve 28 eksik wiki sayfası buldu. Tek başıma yapamayacağım bir analiz.

pulse.py'i de proaktif öneri motoruna dönüştürdüm. Şimdi pulse sadece durum söylemiyor, şunu yap diyor: "5+ kullanım eşiğini geçen patika scripte dönüştürülmeli." "Haftalık review 14 gündür yapılmadı." "25 orphan birikti." Sistem bana ne yapmam gerektiğini söylüyor, ben de en azından yapıp yapmamayı seçiyorum.

Anatomi — Parçalar Nasıl Bir Araya Geliyor

Sistemi soyut anlatmak yerine somut bir gün üzerinden anlatayım.

Sabah Claude oturumu açıyorum. İlk gördüğü şey hot cache — son oturumlar, aktif patikalar, tasarım DNA durumu. ~150 token. Bağlam kuruluyor.

"x projesi için iki dilli yönetim paneli kuralım" diyorum. Claude admin-panel-kur patikasını arıyor, buluyor. Patika diyor ki: "Adım 1, layout. Adım 2, sidebar. Adım 3, auth middleware. Şu kararlar sabit (NextAuth v5, Tailwind, Drizzle), şu kararlar değişken (i18n için next-intl mi i18next mi?). Şu tuzaklara dikkat (middleware'de matcher pattern hatası)." Tek komut, sekiz dosya, hazır iskelet.

İş bitince patika otomatik güncelleniyor: times_used: 13. Güven skoru artıyor. Pulse bir sonraki oturumda diyecek ki: "admin-panel-kur 13 kullanım, scripte dönüştürülebilir." Sistem kendi kendine optimize oluyor.

Bu sırada arka planda:

  • git_observer o günkü commit'lerimi kataloglıyor

  • cross_note_analyzer yeni eklediğim notlarla eski notlar arasında bağlantı öneriyor

  • freshness_check 90 günden eski notları işaretliyor

  • confidence_decay kullanmadığım patikaların güvenini düşürüyor

Hiçbiri elle çalışmıyor. Hepsi tetiklenmiş veya zamanlanmış.

İşin sonunda /reflect çağırıyorum. Claude oturumu özetliyor, neyin işe yaradığını, neyin yaramadığını sessions/'a kaydediyor. Bu kayıt sonra pattern_analyzer tarafından okunacak, yeni bir kalıp ortaya çıkarsa pulse bunu söyleyecek.

Sistem kapalı bir döngü. Veri akıyor, bilgi izleniyor, çürüme oluyor, güçlenme oluyor, öneri çıkıyor, eylem alınıyor, tekrar veri.

Sayılar

Soyut anlattım, şimdi somut.

Sistem bugün şunları içeriyor:

  • 13 Python script (hot_cache, pulse, confidence_decay, orphan_finder, link_checker, freshness_check, weekly_review, cross_note_analyzer, git_observer, pattern_analyzer, design_dna_extractor, proje_baslat, vault_tracker)

  • 12 slash komut (/pulse, /patika, /reflect, /trace, /challenge, /connect, /synthesize ve diğerleri)

  • 2 olgun refleks patikası (proje-baslat ve admin-panel-kur)

  • 15 template (yeni içerik üretmek için iskelet)

  • 14 tasarım dosyası (DNA, design tokens, references)

Operasyonel sayılar:

  • 21 patika kullanımı (12 + 9, gerçek frontmatter sayacı)

  • 716 commit taranmış (14 projede)

  • 7 projeden tasarım DNA çıkarımı (1.0 güven skoru)

  • 430 önerilen bağlantı ve 28 eksik wiki sayfası tespiti

  • 25 orphan not aktif olarak izleniyor (azalma trendinde)


03-sayilar-dashboard.png


Token tarafında — gerçek tasarruf:

Senaryo

Sistem yokken

Sistemle

Tasarruf

Açılış (vault'a ısınma)

~80K

~2-3K

30-40x, %97

Görev başı (admin panel kur)

~25K

~10K

2.5x, %55-65

Pattern arama

~10K

~450

20x, %95

Sadece iki refleks patikası 21 kez çalıştığı için, kabaca 315 bin token tasarruf etmiş durumda — sıfırdan üretmeye kıyasla. Aylık ortalamada, kullanım frekansıma göre, milyonlarca token.

Para olarak küçük bir miktar belki. Ama bilişsel olarak büyük. Çünkü tasarruf edilen sadece token değil; tekrar tekrar aynı kararları vermenin yorgunluğu, aynı koda üçüncü kez bakmanın can sıkıntısı, "bunu daha önce yaptıydım galiba" şüphesinin sürtünmesi. Sistem bunları taşıyor benim yerime.

Alternatifler — Niye Bunu Kendim Kurdum

Bu noktada haklı bir soru var: "Tüm bunları sıfırdan kurmak yerine hazır bir araç kullansaydın olmaz mıydı?"

Düşündüm. Birkaç hazır araç var.

Obsidian'ın kendi graph view'u. Backlink'lere dayalı, görsel olarak güzel. Ama AI için anlamsız — sadece manuel oluşturulmuş [[link]]'leri görüyor, semantik benzerliği değil. Hiçbir şeyi izlemiyor; statik bir görüntü. Hot cache yok, patika yok, çürüme yok.

graphify (yeni bir AI knowledge graph aracı). Klasörü tarayıp Claude subagent'larıyla knowledge graph çıkarıyor. Token tasarruf iddiası 71.5 kat. Etkileyici, gerçek. Ama kurulum maliyetli (subagent extraction tüm vault için ~50-100 bin token), kişisel patika kavramı yok, çürüme/refleks gibi mekanizmalar dışarıdan gelmiyor. Bilgi çıkarımı iyi, ama kullanım ve evrim mantığı eksik.

mem.ai, Reflect, Notion AI ve diğerleri. Hepsi "AI-native second brain" iddialı. Ama hepsi SaaS. Vault lokalde, kontrolü bende, ücretsiz. Ve hiçbiri "x patika 12 kez kullanıldı, scripte dönüştür" gibi kişisel ve evrimleşen mantık öneremiyor. Çünkü herkese aynı şablonu satıyorlar.

Kendim kurmamın üç gerçek nedeni:

Bir. Sistem kendi davranışıma uyarlanıyor. Ben patika kavramını keşfettiğimde, kimse bana "patika frontmatter'ında times_used olsun" demedi. Kendi sürtünmem ortaya çıkardı bu çözümü. Hazır araç bunu yapamaz; sadece kendi yarattığı sürtünmelerin çözümünü sunabilir.

İki. Çürüme mantığını ben tasarladığım için ben kontrol ediyorum. 30 gün vs 60 gün, %5 vs %8 — bunlar benim kullanım hızıma kalibre. Hazır aracın varsayılanları benim için yanlış olur muhtemelen.

Üç. Vault verisine sahip olmak. Lokalde markdown, git ile versiyonlu. Hiçbir SaaS'ın kontrol etmediği, ölmediği, fiyat değişmediği bir veri katmanı.

Yine de dürüst olayım: Eğer bu üçüne ihtiyacın yoksa, hazır araç yeter. Ben bunlara ihtiyaç duyduğum için kurdum.

Bu makale "sen de aynısını yap" demiyor.
"Düşünme şekli şu" diyor.

En Çok Uğraştıran Kısımlar

Sistem güzel çalışıyor ama kuruluşu kolay değildi. Dürüst olmazsam yanlış izlenim yaratmış olurum.

04-kablolar-mcp.png

En zor kısım: parçaları birbirine bağlamak. Hot cache var, patika var, DNA var, pulse var — hepsi tek başına çalışıyor. Ama bunların birbiriyle konuşması, doğru yerde tetiklenmesi, çıktılarının doğru formatta birbirine akması — işin üçte ikisini bu götürdü. Hot cache pulse'la entegre, pulse patikalarla entegre, patikalar git_observer'la entegre. Her bağ ayrı bir kavga.

İlk başta her parçayı izole düşünüyorsunuz, "şunu yazayım, sonra bağlarım" diyorsunuz. Ama bağlama anına geldiğinizde, parçaların farklı varsayımlarla yazıldığını görüyorsunuz — biri JSON çıktı veriyor, diğeri YAML bekliyor; biri cron ile tetikleniyor, diğeri Claude komutu bekliyor. Tüm sistemi yeniden hizalamak gerekiyor. Bu çok daha pahalı bir iş, ve sistem tasarımının %80'inin nerede saklandığını gösteren bir yer.

MCP kurmak. Bazı parçaları MCP üzerinden Claude'a bağladım, böylece Claude vault'ta gezinebiliyor, dosya okuyabiliyor, hot cache'i tetikleyebiliyor. Konsept güzel, kurulumu teknik. JSON config, server tanımı, izinler, debug — başlarken birkaç saatim gitti. Hata mesajları her zaman yardımcı değil; "Connection refused" görüyorsunuz, sebebi izin mi, yol mu, format mı belli değil. İlk MCP server'ım çalışınca hissettiğim küçük zaferi unutmam.

Mobil entegrasyon. En tatlı kısım ama en uğraştıran. Telefondaki Claude chat'ten todo eklemek istiyordum — yolda yürürken aklıma "x projesinde şu işi unutma" geliyor, açıyorum Claude chat, yazıyorum, vault'taki ilgili todo dosyasına otomatik eklensin. Bunu MCP ile kurabildim sonunda. Mesaj parse ediliyor, hangi proje olduğu çıkarılıyor, doğru dosyaya doğru öncelikle ekleniyor. Ama yolu kıvrımlı: hangi proje, hangi öncelik, hangi dosya, formatlama nasıl. Birkaç deneme yanılma sonrası oturdu. Ve oturduğunda, telefondan vault'a fısıldamak gibi bir his oluyor. Buna değdi.

Decay parametreleri. Çürüme oranını ayarlamak göründüğü kadar kolay değil. Çok hızlı çürürse, az kullanılan ama önemli bilgi kayboluyor. Çok yavaş çürürse, sistem ölü bilgi taşıyor. Şu an 30 gün/%5 ile çalışıyor ama bu sayı bana özel; başka birine yanlış olabilir. Ve doğrusu: bu parametreler aslında deneyseldir, bir gün hatalı sonuçlar verirse değiştireceğim.

Sürekli bakım. Sistem kendi başına kurulan bir şey değil. Script'ler kırılır, format değişir, edge case'ler çıkar. "Bir kez kur, sonsuza kadar çalışsın" diye bir şey yok. Ama bakım maliyeti, sistemin getirdiği tasarrufun çok altında, ondan devam ediyorum.

Bu makaleyi okuyan biri "ben de kurarım" dediğinde, lütfen bilsin: temel fikirleri tek hafta sonunda kurabilirsin, ama bağlantıları, MCP'leri, mobil entegrasyonları, decay kalibrasyonunu — bunlar haftalar içinde otururlar.

Çıkarımlar

Üç ay süren bu evrim sonunda öğrendiklerim:

Çürüme bir özellik, bug değil. İlk içgüdü "her şey kalsın, belki gerek olur" demek. Ama vault sürekli büyürse, kalitesi düşüyor — sinyal-gürültü oranı kötüleşiyor. Çürümeye izin vermek, yenilenmeye yer açmak demek. Beyniniz de unutuyor, bunun bir sebebi var.

İzlenmeyen bilgi belirsiz bilgidir. Bir not'u 30 kez açmışsam, o not önemlidir. 6 ay açmamışsam, muhtemelen değil. Bu bilgiyi görmediğim sürece, hangi notun değerli olduğunu sezgiyle tahmin etmeye çalışıyorum — ve sezgi yanılır. Sayaç yalan söylemez.

AI ile çalışmak ortak hafıza inşa etmektir. Tek taraflı not almak değil. Eğer ben yazıyorum ama Claude okumuyorsa, sistem yarımdır. Eğer Claude okuyor ama ben kontrol etmiyorsam, sistem güvenilmezdir. İki tarafın da beslediği, ikisinin de eriştiği bir hafıza katmanı gerek.

Patika fikri her şeyi değiştiriyor. Tekrar eden işin ilk yapılışı zekâ ister, ikinci yapılışı sıkıcıdır, üçüncü yapılışı israftır. Patika bu üçüncüyü ve sonrasını ortadan kaldırıyor. Sadece kod için değil — düşünme yolları için de geçerli. "Şu tip soruyu cevaplarken nasıl yaklaşırım"ın patikası bile olabilir.

Tasarım DNA'sı kendi kendinizi tanımanın aracıdır. 7 projeden çıkardığım kararların 1.0 güvenle aynı olduğunu görmek, hem güzel hem rahatsız edici. Demek ki sezgisel olduğunu sandığım kararlar aslında alışkanlık. Bu farkındalık, bilinçli seçim için zemin hazırlıyor — "her zaman böyle yapıyorum, bu sefer farklı yapayım mı?" sorusunu ancak DNA görünür olunca sorabiliyorum.

En önemli ders: Sistem statiktir veya canlıdır. Ortası yok. Statik sistem ilk gün maksimum değerini verir, sonra düşer. Canlı sistem ilk gün minimum değerini verir, sonra büyür. Hangi türü kurduğunuzu bilin, çünkü beklentilerinizi belirler.

Bunu Sen de Kurabilir misin

05-yol-ayrimi.png

Olası iki cevap var bu soruya.

Birinci cevap: Hayır, kuramazsın — ve kurmamalısın. Çünkü bu sistem benim. Benim sürtünmelerimden, benim projelerimden, benim çalışma tarzımdan ortaya çıktı. Senin sürtünmelerin farklı, projelerin farklı, çalışma tarzın farklı. Aynı sistemi kurarsan, sana yabancı kalır, kullanmazsın, çürür.

İkinci cevap: Evet, kurabilirsin — ama kendi versiyonunu. İlkeleri al, parçaları kendin tasarla. Bu makaleyi bir tarif kitabı gibi okuma; bir gözlem günlüğü gibi oku. Sistemde ne işe yaradı, neden, hangi sürtünmeyi çözdü — bunlara odaklan. Sonra kendi sürtünmelerini düşün, kendi parçalarını yaz.

Çekirdek prensipleri özetleyeyim, kendi versiyonunu kurmak istersen:

  1. İzlemeden başlama. Pulse benzeri bir komut — vault durum raporu — ilk yazılması gereken şey. Çünkü neyi optimize edeceğini ölçmeden bilemezsin.

  2. Hot cache mantığını uygula. Her oturum başında, AI'ın görmesi gereken minimum bağlam ne? Onu bir dosyaya koy, otomatik üret. Bu tek başına token tasarrufunun büyük kısmını verir.

  3. Tekrar eden işi patika yap. Üçüncü kez aynı şeyi yapıyorsan, dur ve patika yaz. İlk patika işkence, ikincisi öğrenme, üçüncüsü kolay.

  4. Çürümeye izin ver. Kullanım sayacı + son kullanım tarihi + güven skoru. Bu üçü olmadan vault zamanla zehirlenir.

  5. Birbirine bağlamayı sona bırakma. Parçalar tek başına çalışsa bile, asıl güç bağlantılarda. MCP, tetikleyiciler, çıktı formatları — bunlar erken oturmazsa, sistem yarıda kalır.

Bu makaleyi okuduktan sonra ne yapacağına dair iki yol var: ya hiçbir şey yapmayacaksın ve unutacaksın, ya da bir küçük şey kuracaksın bu hafta sonu. Üçüncü yol yok.

Eğer ikincisini seçersen, önce bir dakika dur ve sor:

"Vault'um bana yardım mı ediyor, köstek mi?"

Cevap dürüst olmalı. Çünkü çoğumuzun vault'u bir Karpathy /raw'ından farksızdır, ve fark etmedik daha.

Ben fark ettim, ve canlı bir organizmaya dönüştürdüm. Sen de yapabilirsin. Ama önce farkına varmalısın.

· · ·

Bu makale 2026 ilkbaharında, üç ay süren bir sistem evrimi sonrası yazıldı. Sistem çalışıyor, evrimleşiyor, ve sürekli yeniden yazılıyor. Belki bir sonraki sürüm, bu makalenin tamamen yanlış olduğunu söyleyecek. Bu da bir öğreti.

Yazar Hakkında
Alpgiray
Alpgiray
Kurucu Ortak @SaaSBridge

yürürüm, yürürsün, yürür.