Claude Code’u Kendi Bilgisayarınızda Çalıştırın: Yerel Yapay Zeka ile Kod Geliştirme
Yapay zeka destekli kodlama, geliştirme süreçlerimizi hızlandırıp kolaylaştırıyor. Ancak, bulut tabanlı çözümlerin sunduğu kullanım limitleri ve maliyetler zamanla birikerek kısıtlayıcı olabilir. Bu durum, bazı geliştiricileri daha serbestçe keşfetmek yerine, mevcut kaynakları en verimli şekilde kullanmaya yöneltiyor. Bu ihtiyaca yanıt olarak, Claude Code gibi güçlü yapay zeka araçlarının sunduğu çalışma biçimini, bulut bağımlılığı olmadan kendi bilgisayarımızda hayata geçirmek mümkün.
Bu yaklaşım, tamamen bulut tabanlı modelleri değiştirmek yerine, esnekliği artırmayı ve onlara olan bağımlılığı azaltmayı hedefliyor. Yerel yapay zeka modelleri artık günlük geliştirme oturumlarında önemli destekler sunabilecek seviyeye geldi. LM Studio gibi araçlar ise bu modelleri OpenAI uyumlu bir API üzerinden erişilebilir hale getiriyor. Bu da yerel modellerle Claude benzeri bir iş akışı kurmak için zemin hazırlıyor.
Yerel Yapay Zeka İçin Donanım Gereksinimleri
Yerel modellerle çalışırken donanım kritik bir rol oynar ve performansın anahtarıdır. Özellikle güçlü bir ekran kartı (GPU) bu sistemlerin bel kemiğini oluşturur. En az 8 GB VRAM’e sahip bir ekran kartı idealdir. Saf işlemci (CPU) tabanlı çıkarım (inference) yapılabilse de, bu oldukça yavaş olacaktır. Ekran kartının yanı sıra, 16 GB ve üzeri sistem belleği (RAM) de tavsiye edilir.
Ekran kartınızın VRAM miktarı, modelin işleyebileceği bağlam penceresinin (context window) büyüklüğünü doğrudan etkiler. Daha fazla VRAM, daha geniş bir bağlamı aynı anda yönetebilme anlamına gelir. Örneğin, 12 GB VRAM’e sahip bir RTX 4070 Ti ile saniyede 100’den fazla token üretme hızı görmek mümkün, bu da yanıtların akıcı olmasını sağlıyor.
Donanım tarafında bu şartları sağladıysanız, yerel modellerle çalışmaya hazırsınız demektir. Yazılım tarafında ise LM Studio ve en azından 7B (7 milyar parametre) parametreye sahip bir “instruct” modeline ihtiyacınız olacak. Buna ek olarak Node.js ve Termius veya Windows Terminal gibi bir terminal uygulaması da gereklidir.
Neler Gerekli?
| Bileşen | Öneri |
|---|---|
| Ekran Kartı (GPU) | En az 8 GB VRAM (tercihen 12 GB+) |
| Sistem Belleği (RAM) | 16 GB+ |
| İşlemci (CPU) | Modern çok çekirdekli işlemci |
| Yazılım | LM Studio, Node.js, Terminal (Termius/Windows Terminal) |
| Model | 7B parametreli “Instruct” modeli (örn. Mistral 7B Instruct v0.3) |
LM Studio’yu Yerel API Sunucusuna Dönüştürmek
LM Studio, açık kaynaklı yerel modelleri keşfetmek, indirmek ve sohbet modunda kullanmak için bir merkez olsa da, biz onu farklı bir amaçla kullanacağız. Yerel bir arka uç olarak yapılandırıp, OpenAI uyumlu API’sini kullanacağız. Bu sayede, kendi bilgisayarımızdaki modeller, bir bulut hizmeti gibi davranabilecek.
İlk adım LM Studio’yu açmak ve sol kenar çubuğundaki “Model Search” (Model Ara) düğmesine tıklayarak “mistral-7b-instruct-v0.3” gibi bir “instruct” modeli aramak. İndireceğiniz modelin en az 7B parametreli olduğundan emin olun. Bu, performans ve VRAM gereksinimleri arasında iyi bir denge sunar.
Modeli indirdikten sonra “My Models” (Modellerim) bölümüne gidin. Burada yerel modeli, VRAM’iniz izin veriyorsa 8192’ye ayarlayarak ve GPU offload (GPU’ya yükleme) ayarını 32’ye (veya mevcut en yükseğe) ayarlayarak özelleştirin. Ardından modeli yükleyin. Bunu “My Chat” (Sohbetim) bölümünde kontrol edebilirsiniz.
Son olarak, sol kenar çubuğundaki “Developer” (Geliştirici) bölümünün altındaki “Local Server” (Yerel Sunucu) kısmına gidin ve sunucuyu başlatın. Aynı sayfada “Reachable at: http://127.0.0.1:1234” (Erişilebilir: http://127.0.0.1:1234) yazısını görerek doğrulama yapabilirsiniz. Bu sayfada, LM Studio API, OpenAI uyumlu ve Anthropic uyumlu gibi desteklenen uç nokta formatlarını göreceksiniz. Biz bu kurulum için http://127.0.0.1:1234/v1 adresinden erişilebilir olan OpenAI uyumlu uç noktayı kullanacağız. Bu adres, özel CLI’mız için temel URL olarak işlev görecektir.
Claude Benzeri Bir CLI Oluşturma
Yerel arka ucumuz hazır olduğuna göre, onunla etkileşim kuracak özel bir Komut Satırı Arayüzü (CLI) oluşturmamız gerekiyor. LM Studio zaten OpenAI uyumlu bir API sunuyor, bu yüzden cURL veya Postman gibi araçları kullanabilirsiniz. Ancak geliştiriciler günlük işlerini bu şekilde yapmazlar.
Claude Code’u güçlü kılan şey, bir API’den ziyade entegre edilmiş iş akışıdır. Bu nedenle, hafif özel bir CLI, sizinle yerel model arasında ince bir düzenleme katmanı görevi görecektir. Özel CLI’mızda Node.js kullanarak OpenAI SDK’sını çağıracak ve sonuçları ekrana yazdıracağız.
Resmi web sitesinden Node.js’in en son sürümünü indirin ve kurun. Kurulum tamamlandıktan sonra, Termius veya Windows Terminal gibi bir terminal uygulaması açın. Ortam değişkenlerini ayarlayarak yerel arka uçla iletişim kurmasını sağlayacağız. PowerShell kullanıyorsanız, şu komutları girin: $env:OPENAI_BASE_URL="http://localhost:1234/v1" ve $env:OPENAI_API_KEY="local-dev". Değişkenlerin uygulanması için terminal oturumunu kapatıp yeniden açın.
Aynı klasörde npm init -y komutuyla projeyi başlatın. Bu, bir package.json dosyası oluşturacaktır. Ardından npm install openai komutuyla OpenAI SDK’sını kurun. CLI’nın giriş noktası olarak görev yapacak bir JavaScript betiği oluşturun. Örneğin, notepad claude.js komutuyla bir dosya açıp aşağıdaki betiği içine yapıştırabilirsiniz.
Artık özel CLI’mız ve LM Studio’nun OpenAI uyumlu API’si ile ilk komutumuzu çalıştırmaya hazırız. Komut şu şekilde görünecektir: node claude.js "Sizin komutunuz buraya". Bu CLI, komutları basitçe http://localhost:1234/v1/chat/completions adresine iletir ve internet bağlantısına ihtiyaç duymadan yapılandırılmış bir yanıt almanızı sağlar.
Daha Gelişmiş Özellikler: Akış, Bellek ve Dosya Entegrasyonu
Temel bir CLI oluşturduk ancak bu aşamada sadece ham bir API sarmalayıcısıdır. Basit CLI, bulut uç noktalarını yerel modellerle değiştirebileceğimizi kanıtladı, ancak betik kullanışlı bir geliştirme yardımcısı değil. Amacımız, Claude Code’u etkili kılan üretkenlik özelliklerini çoğaltmaktı.
İlk eklenen geliştirmeler akış (streaming) ve bağlam farkındalığı oldu. Modelden tam yanıtı beklemek yerine, token’lar üretildikçe CLI bunları ekrana yazdırır. Sohbet geçmişini koruyarak, model artık bağlamı kaybetmeden takip sorularına etkili bir şekilde yanıt verebilir.
Gerçek projeler için daha etkili hale getirmek amacıyla dosya ve dizin modları eklendi. CLI artık belirttiğiniz herhangi bir dosyayı veya klasörü yükleyebilir ve bağlamı bellekte tutabilir. Kod parçacıklarını özetleyebilir, açıklayabilir ve belirli bir dosya veya klasör için yapılandırılmış değişiklikler (diffs) üretebilir. Bu noktada, bir kod yardımcısı gibi davranmaya başlar.
Bu İş Akışının Başarıları ve Sınırlılıkları
Bu iş akışıyla elde ettiğimiz en önemli şey kontroldür. API maliyetleri, hız limitleri ve dış bağımlılıklar konusunda stres yaşanmaz. Yerel olarak akış, bellek, dosya-farkındalıklı komutlar ve yapılandırılmış değişiklikler elde ettik. Bu, doğru yapılandırıldığında tamamen çevrimdışı ve faturalandırma, kota veya bağlantı endişeleri olmadan çalışabileceği anlamına gelir.
Kendi sistemimde 7B parametreli bir modelin RTX 4070 Ti üzerinde saniyede 100’den fazla token üreterek oldukça iyi performans göstermesi, akışlı yanıtları pürüzsüz hale getiriyor. Ancak, küçük yerel modeller ve düşük seviye donanımlar belirgin sınırlılıklara sahiptir. Zayıf bir ekran kartı veya düşük bellek, 7B modelin hızına yetişemez. Ayrıca, 7B bir “instruct” modeli, bulut modellerinin uzun bağlam yeteneği veya muhakeme derinliği ile yarışamaz.
Bu durum, kurulumu günlük yinelemeli kodlama oturumları için oldukça etkili hale getirirken, ileri düzey muhakeme zincirleri veya büyük bağlam pencereleri gerektiren senaryolar için bir sınırlama oluşturur. Yerel-ilk yaklaşım, bulut bağımlılığının bir seçim olduğunu, bir zorunluluk olmadığını kanıtlar.
Doğru yerel model, güçlü donanım ve yapılandırılmış bir CLI ile, çoğu günlük geliştirme oturumunu yönetebilir. Yerel modeller karmaşık muhakemeler için en yeni bulut modellerinin yerini almasa da, API maliyetlerini ve onlara sürekli bağımlı olma ihtiyacını önemli ölçüde azaltırlar.
Siz Ne Düşünüyorsunuz?
Kendi bilgisayarınızda yapay zeka destekli kodlama yapmak kulağa ne kadar heyecan verici geliyor? Yerel modellerle ilgili deneyimlerinizi ve bu tür bir iş akışının günlük geliştirme süreçlerinize nasıl entegre edilebileceğine dair fikirlerinizi bizimle paylaşın. teknobirader.com olarak, teknolojiyi herkes için anlaşılır kılma misyonumuzla, sizden gelecek geri bildirimlere değer veriyoruz.
Anahtar Kelimeler: Yapay Zeka, Yerel LLM, Claude Code, LM Studio, Kod Geliştirme, Çevrimdışı Kodlama, OpenAI API, Yapay Zeka Yardımcısı, Teknoloji






