Obsidian ile Yerel Yapay Zeka Gücü: Gizlilik ve Maliyet Avantajı

Obsidian ile Yerel Yapay Zeka Gücü: Gizlilik ve Maliyet Avantajı
Kişisel notlarınızı yönetmek ve güçlü bir bilgi bankası oluşturmak için Obsidian’ı uzun süredir kullanıyorum. Araştırmalarımı, yazı taslaklarımı ve aklıma gelen her şeyi bu platformda topluyorum. Obsidian’ın eklentileri, özellikle de Copilot gibi yapay zeka destekli araçlar, deneyimimi bambaşka bir seviyeye taşıdı. Bu noktada aklıma bir fikir geldi: Madem Obsidian yerel odaklı çalışıyor, neden bulut tabanlı çözümler yerine kendi bilgisayarımda çalışan bir yapay zeka modeliyle entegre etmeyeyim?
Bu düşünceyle çıktığım yolculuk, sandığımdan çok daha kolay oldu. Artık notlarımın üzerine bir yapay zeka katmanı eklemenin keyfini sürerken, tüm verilerimin gizliliğini de tamamen kendi kontrolümde tutabiliyorum. Bulut hizmetlerinin sunduğu maliyet ve gizlilik endişelerinden uzaklaşarak, kendi yerel yapay zeka gücümden faydalanıyorum.
Neden Obsidian ve Yerel Yapay Zeka Birlikte Kullanılmalı?
Copilot eklentisi varsayılan olarak OpenAI, Google ve Anthropic gibi büyük oyuncuların sunduğu yapay zeka modellerini destekliyor. Ancak bu modelleri kullanmak için genellikle kendi API anahtarınızı sağlamanız gerekiyor. Üstelik bu hizmetlerin çoğu ücretsiz değil veya ücretsiz sürümleri kısıtlı kullanıma sahip. Bu durum, sizi bulut hizmetlerine bağımlı hale getiriyor ve maliyetli olabiliyor.
Bu modellerin kişisel notlarınıza erişebilmesi de ayrı bir konu. Bulut tabanlı çözümlerde verilerinizin gizliliği konusunda endişeleriniz varsa, yerel yapay zeka bu sorunu tamamen ortadan kaldırıyor. Tüm süreç cihazınızda gerçekleştiği için internet bağlantısı olmadan da kullanabiliyorsunuz.
Küçük bir kurulum süreci olsa da, API anahtarı veya ek maliyetler söz konusu değil. Yapılandırma son derece hızlı ve basit; herkes kolaylıkla uygulayabilir.
Obsidian Copilot’u Yerel Yapay Zeka ile Nasıl Kurdum?
Obsidian’ı yerel yapay zeka modelimle konuşturmak için ilk adım, çalışır durumda bir yerel LLM (Büyük Dil Modeli) kurmaktı. Bunun için daha önce LM Studio’yu kullanmıştım. Grafik arayüzü sayesinde kod yazma bilgisi gerektirmeyen bu çözüm, en kolay seçeneklerden biri. Jan AI, Ollama ve AnythingLLM gibi alternatifler de mevcut.
Kurulumu yaptıktan sonra, kendi tercih ettiğiniz modeli indirmeniz yeterli. Çalıştıracağınız modelin boyutuna göre donanım gereksinimlerini de göz önünde bulundurmalısınız. LM Studio’da, seçtiğim OpenAI’nin açık kaynaklı gpt-oss-20b modelini açtım ve “Dev” sekmesinden “start running” seçeneğini aktif hale getirdim.
Obsidian tarafında ise Copilot eklentisinin kurulu ve etkin olduğundan emin oldum. Ardından Copilot ayarlarından “Model” sekmesine giderek “Add Model” butonuna tıkladım. Model adı alanına, LM Studio’daki model adını harfi harfine doğru girdim. Provider (Sağlayıcı) listesinden yerel modelimi seçtim ve Display Name’e istediğim bir ismi verdim. Base URL kısmına http://localhost:1234/v1 adresini yapıştırdım (bu, sadece LM Studio kullanılıyorsa geçerlidir). Yerel LLM’ler API anahtarı gerektirmediği için API Key alanına “local” yazdım.
Son olarak CORS (Cross-Origin Resource Sharing) seçeneğini işaretleyip modeli doğrulayarak ekledim. İşte bu kadar! Copilot, LM Studio aracılığıyla yerel LLM’imle başarıyla entegre olmuştu.
Yerel Yapay Zeka Modelimi Obsidian’da Nasıl Kullanıyorum?
Yerel yapay zeka modelimi Obsidian’da kullanmak, bulut tabanlı diğer modelleri kullanmaktan farklı değil. Copilot üzerinden yerel LLM kullanırken de Tam Erişimli Üretim (RAG) özelliği tamamen destekleniyor. Bu sayede notlarımdan anahtar noktaları kolayca alıp özetletebiliyorum.
Obsidian’daki hızlı erişim seçeneği de oldukça kullanışlı. Bir metni seçip sağ tıklayıp Copilot’u seçerek “bana 5 yaşındaymışım gibi anlat” gibi hazır komutları kullanabiliyorum. Ayrıca, notlarımla karşılıklı sohbet etmek istediğimde Copilot panelini açıp ilgili notları referans olarak ekleyip, onlardan içgörüler, desenler veya quizler isteyebiliyorum.
Copilot, LM Studio’daki bazı model davranışlarını geçersiz kılabilir. Bu nedenle sıcaklık (temperature), yanıt uzunluğu ve sistem komutu gibi ayarları LM Studio yerine Copilot üzerinden yapmanız önerilir. Aldığınız yanıtlar, seçtiğiniz yerel modele göre değişiklik gösterecektir. Her modelin farklı eğitim verileri ve yetenekleri bulunur.
Örneğin, gpt-oss-20b genel amaçlı sorgular için harikayken, Qwen3-coder kodlama yardımı için daha iyidir. Mistral 7b ise yaratıcı yazım işlerinde başarılıdır. Bu yüzden, kendi uzmanlık alanınıza veya ilgi alanınıza en uygun modeli seçmek önemlidir.
Notlarımda Yapay Zeka, Ödün Vermeden
Yapay zeka eklentisi kullanmak, notlarınızla etkileşim şeklinizi değiştirir ve verimliliğinizi artırır. Yerel bir LLM’i Copilot’a bağlamanın birçok avantajı var. Notlarınıza bulutun erişimi olmaz, tüm sistemi çevrimdışı kullanabilirsiniz ve tamamen ücretsizdir. Tek dezavantajı, kurulum için harcayacağınız belki on dakika.
Teknik Detaylar: Model Seçimi ve Donanım
Yerel LLM kurulumunda model seçimi, performansınızı doğrudan etkiler. Modellerin boyutları (örn. 7B, 13B, 70B parametre) ve eğitim verileri farklılık gösterir. Daha büyük modeller genellikle daha yeteneklidir ancak daha fazla RAM ve işlem gücü gerektirir.
| Model Adı | Öne Çıkan Kullanım Alanı | Tahmini Donanım İhtiyacı (RAM) |
|---|---|---|
| Mistral 7B | Yaratıcı yazım, genel sohbet | 8 GB+ |
| GPT-OSS-20B | Genel amaçlı sorgular, metin analizi | 16 GB+ |
| Qwen3-Coder | Kodlama yardımı, teknik metinler | 12 GB+ |
Bu sadece genel bir rehberdir. Kullandığınız LLM çalışma zamanına (örn. LM Studio, Ollama) ve modelin özel optimizasyonlarına göre gereksinimler değişebilir. Donanımınızın modelin gerektirdiği VRAM’ı (Ekran Kartı Belleği) karşıladığından emin olmak da performansı önemli ölçüde artırır.
Siz Ne Düşünüyorsunuz?
Obsidian’ı yerel yapay zeka ile kullanma deneyimi, gizlilik ve maliyet açısından büyük bir devrim niteliğinde. Siz de bu yöntemi denediniz mi veya denemeyi düşünüyor musunuz? Kendi deneyimlerinizi ve düşüncelerinizi aşağıdaki yorumlar kısmında bizimle paylaşın!
teknobirader.com ailesi olarak teknolojiyi herkes için anlaşılır kılmaya devam edeceğiz. Daha fazla detaylı rehber ve inceleme için ana sayfamızı ziyaret etmeyi unutmayın!





