DeepSeek-R1’i Mac, Windows ve Linux’ta Ücretsiz Olarak Yerel Olarak Çalıştırma Kılavuzu
DeepSeek-R1 gibi güçlü yapay zeka modellerini yerel olarak çalıştırmak, geliştiriciler, araştırmacılar ve teknoloji meraklıları için büyük avantajlar sunar. Veri güvenliğini sağlamak, çevrimdışı çalışmak ve özelleştirme esnekliği kazanmak isteyenler için yerel kurulum oldukça faydalıdır.
![1738047877-0145 DeepSeek-R1'i Mac, Windows ve Linux'ta Ücretsiz Olarak Yerel Olarak Çalıştırma Kılavuzu](https://www.diabolikss.com/wp-content/uploads/2025/02/1738047877-0145.webp)
Bu rehberde, DeepSeek-R1’i Mac, Windows ve Linux işletim sistemlerine kurmanın dört farklı yöntemini ele alacağız:
- Ollama Kullanarak
- Python ve Hugging Face ile
- Docker ile
- Llama.cpp ile
Her yöntemin avantajlarını ve kurulum adımlarını detaylı bir şekilde açıklayarak, sizin için en uygun olanı seçmenize yardımcı olacağız.
DeepSeek’i Yerel Olarak Çalıştırmanın Avantajları
Avantaj | Açıklama |
---|---|
Veri Gizliliği | Tüm veriler yerel olarak işlenir, üçüncü taraf erişimi engellenir. |
Çevrimdışı Kullanım | İnternet bağlantısı olmadan çalışabilir, bağımsızlık sağlar. |
Özelleştirme | Modeli ince ayarlarla optimize edebilir, iş akışınıza entegre edebilirsiniz. |
Performans | Yerel CPU ve GPU kaynaklarını doğrudan kullanarak daha hızlı çalışır. |
Maliyet Tasarrufu | Bulut abonelik maliyetlerinden kurtularak maliyetleri düşürür. |
Geliştirme Özgürlüğü | Çeşitli deneyler yaparak modelin farklı uygulamalar için nasıl çalıştığını test edebilirsiniz. |
Ön Koşullar
DeepSeek-R1’i çalıştırmadan önce sisteminizin gereksinimlerini karşıladığından emin olun.
Gerekli İşletim Sistemleri:
- macOS (Intel veya Apple Silicon)
- Linux (x86_64 veya ARM64) – Ubuntu 24.04 önerilir
- Windows (WSL 2 kullanılarak)
Gerekli Donanım:
- Minimum: 8GB RAM, Önerilen: 16GB+ RAM
- Depolama: En az 10GB boş alan
- GPU: Daha hızlı işlem için uyumlu bir GPU (tercihe bağlı)
Gerekli Yazılımlar:
- Terminal (WSL aracılığıyla Windows için PowerShell veya Komut İstemi)
- Python 3.10+, pip ve git
- Ollama, Docker veya Llama.cpp (seçilen yönteme bağlı olarak)
DeepSeek-R1 Kurulum Yöntemleri
1. Ollama Kullanarak DeepSeek-R1 Kurulumu
Ollama, büyük dil modellerini yerel olarak çalıştırmayı kolaylaştıran bir araçtır.
Adım 1: Ollama’yı Kurun
macOS İçin:
- Ollama Resmi Sitesi üzerinden macOS uygulamasını indirin ve Uygulamalar klasörüne sürükleyin.
- Uygulamayı açarak arka plan servisinin çalışmasını sağlayın.
Linux / Ubuntu 24.04 / WSL (Windows) İçin:
curl -fsSL https://ollama.ai/install.sh | sh
ollama servis
Kurulumu doğrulamak için:
ollama --version
Adım 2: DeepSeek-R1’i Yükleyin
Ollama’nın Model Kütüphanesinden İndirme:
ollama pull deepseek-r1
Eğer model Ollama’da bulunmazsa, manuel yükleme yapın:
- DeepSeek-R1 modelini Hugging Face üzerinden GGUF formatında indirin ve ~/models/ klasörüne kaydedin.
- Aynı klasörde Modelfile isimli bir dosya oluşturun ve içeriğine şu satırı ekleyin:
./deepseek-r1.Q4_K_M.gguf
- Modeli Ollama’ya ekleyin:
ollama create deepseek-r1 -f Modelfile
Adım 3: Modeli Çalıştırın
ollama run deepseek-r1
Örnek istem:
>>> Fibonacci sayılarını hesaplayan bir Python fonksiyonu yazın.
Adım 4: Web Arayüzü ile Kullanım
Python kullanarak Open WebUI yükleyerek modeli tarayıcıdan çalıştırabilirsiniz:
pip install open-webui
open-webui service
Web tarayıcınızdan http://localhost:8080 adresine giderek arayüzü görüntüleyebilirsiniz.
2. Python ve Hugging Face ile DeepSeek-R1 Kurulumu
Bu yöntem, en fazla özelleştirme seçeneği sunar.
Adım 1: Gerekli Kütüphaneleri Yükleyin
pip install torch transformers accelerate
Adım 2: Modeli İndirin
git clone https://huggingface.co/deepseek-ai/deepseek-r1
Adım 3: Modeli Çalıştırın
Bir Python dosyası oluşturun (inference.py
) ve şu kodu ekleyin:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("deepseek-ai/deepseek-r1")
tokenizer = AutoTokenizer.from_pretrained("deepseek-ai/deepseek-r1")
prompt = "Kuantum hesaplamayı basitçe açıkla."
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
print(tokenizer.decode(outputs[0]))
python inference.py
3. Docker Kullanarak DeepSeek-R1 Kurulumu
Docker, modelin çalıştırılmasını basitleştirir ve bağımsız bir ortam sağlar.
Adım 1: Docker’ı Kurun
Docker Resmi Sitesi üzerinden yükleyin.
Adım 2: DeepSeek Görüntüsünü Çekin
docker pull deepseek/deepseek-llm:latest
Adım 3: Modeli Çalıştırın
docker run -d --name deepseek-container -p 8080:8080 deepseek/deepseek:latest
Adım 4: Modeli Test Edin
curl -X POST http://localhost:8000/v1/completions -d '{"prompt": "Merhaba, DeepSeek!", "max_tokens": 50}'
4. Llama.cpp Kullanarak DeepSeek-R1 Kurulumu
Daha hafif sistemler için uygundur.
Adım 1: Depoyu Klonlayın
git clone https://github.com/ggerganov/llama.cpp && cd llama.cpp && make
Adım 2: Modeli Çalıştırın
./main -m /path/to/deepseek-r1.Q4_K_M.gguf -p "Merhaba, DeepSeek!" -n 512
Bu yöntemler sayesinde, DeepSeek-R1’i istediğiniz platformda kolayca çalıştırabilirsiniz!
Diğer Yapa Zeka konusu ile ilgili yazılar için lütfen BURAYA