Yapay Zeka

DeepSeek-R1’i Mac, Windows ve Linux’ta Ücretsiz Olarak Yerel Olarak Çalıştırma Kılavuzu

DeepSeek-R1 gibi güçlü yapay zeka modellerini yerel olarak çalıştırmak, geliştiriciler, araştırmacılar ve teknoloji meraklıları için büyük avantajlar sunar. Veri güvenliğini sağlamak, çevrimdışı çalışmak ve özelleştirme esnekliği kazanmak isteyenler için yerel kurulum oldukça faydalıdır.

1738047877-0145 DeepSeek-R1'i Mac, Windows ve Linux'ta Ücretsiz Olarak Yerel Olarak Çalıştırma Kılavuzu

Bu rehberde, DeepSeek-R1’i Mac, Windows ve Linux işletim sistemlerine kurmanın dört farklı yöntemini ele alacağız:

  • Ollama Kullanarak
  • Python ve Hugging Face ile
  • Docker ile
  • Llama.cpp ile

Her yöntemin avantajlarını ve kurulum adımlarını detaylı bir şekilde açıklayarak, sizin için en uygun olanı seçmenize yardımcı olacağız.


DeepSeek’i Yerel Olarak Çalıştırmanın Avantajları

AvantajAçıklama
Veri GizliliğiTüm veriler yerel olarak işlenir, üçüncü taraf erişimi engellenir.
Çevrimdışı Kullanımİnternet bağlantısı olmadan çalışabilir, bağımsızlık sağlar.
ÖzelleştirmeModeli ince ayarlarla optimize edebilir, iş akışınıza entegre edebilirsiniz.
PerformansYerel CPU ve GPU kaynaklarını doğrudan kullanarak daha hızlı çalışır.
Maliyet TasarrufuBulut abonelik maliyetlerinden kurtularak maliyetleri düşürür.
Geliştirme ÖzgürlüğüÇeşitli deneyler yaparak modelin farklı uygulamalar için nasıl çalıştığını test edebilirsiniz.

Ön Koşullar

DeepSeek-R1’i çalıştırmadan önce sisteminizin gereksinimlerini karşıladığından emin olun.

Gerekli İşletim Sistemleri:

  • macOS (Intel veya Apple Silicon)
  • Linux (x86_64 veya ARM64) – Ubuntu 24.04 önerilir
  • Windows (WSL 2 kullanılarak)

Gerekli Donanım:

  • Minimum: 8GB RAM, Önerilen: 16GB+ RAM
  • Depolama: En az 10GB boş alan
  • GPU: Daha hızlı işlem için uyumlu bir GPU (tercihe bağlı)

Gerekli Yazılımlar:

  • Terminal (WSL aracılığıyla Windows için PowerShell veya Komut İstemi)
  • Python 3.10+, pip ve git
  • Ollama, Docker veya Llama.cpp (seçilen yönteme bağlı olarak)

DeepSeek-R1 Kurulum Yöntemleri

1. Ollama Kullanarak DeepSeek-R1 Kurulumu

Ollama, büyük dil modellerini yerel olarak çalıştırmayı kolaylaştıran bir araçtır.

Adım 1: Ollama’yı Kurun

macOS İçin:

  • Ollama Resmi Sitesi üzerinden macOS uygulamasını indirin ve Uygulamalar klasörüne sürükleyin.
  • Uygulamayı açarak arka plan servisinin çalışmasını sağlayın.

Linux / Ubuntu 24.04 / WSL (Windows) İçin:

curl -fsSL https://ollama.ai/install.sh | sh
ollama servis

Kurulumu doğrulamak için:

ollama --version

Adım 2: DeepSeek-R1’i Yükleyin

Ollama’nın Model Kütüphanesinden İndirme:

ollama pull deepseek-r1

Eğer model Ollama’da bulunmazsa, manuel yükleme yapın:

  1. DeepSeek-R1 modelini Hugging Face üzerinden GGUF formatında indirin ve ~/models/ klasörüne kaydedin.
  2. Aynı klasörde Modelfile isimli bir dosya oluşturun ve içeriğine şu satırı ekleyin:
./deepseek-r1.Q4_K_M.gguf
  1. Modeli Ollama’ya ekleyin:
ollama create deepseek-r1 -f Modelfile

Adım 3: Modeli Çalıştırın

ollama run deepseek-r1

Örnek istem:

>>> Fibonacci sayılarını hesaplayan bir Python fonksiyonu yazın.

Adım 4: Web Arayüzü ile Kullanım

Python kullanarak Open WebUI yükleyerek modeli tarayıcıdan çalıştırabilirsiniz:

pip install open-webui
open-webui service

Web tarayıcınızdan http://localhost:8080 adresine giderek arayüzü görüntüleyebilirsiniz.


2. Python ve Hugging Face ile DeepSeek-R1 Kurulumu

Bu yöntem, en fazla özelleştirme seçeneği sunar.

Adım 1: Gerekli Kütüphaneleri Yükleyin

pip install torch transformers accelerate

Adım 2: Modeli İndirin

git clone https://huggingface.co/deepseek-ai/deepseek-r1

Adım 3: Modeli Çalıştırın

Bir Python dosyası oluşturun (inference.py) ve şu kodu ekleyin:

from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("deepseek-ai/deepseek-r1")
tokenizer = AutoTokenizer.from_pretrained("deepseek-ai/deepseek-r1")
prompt = "Kuantum hesaplamayı basitçe açıkla."
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
print(tokenizer.decode(outputs[0]))
python inference.py

3. Docker Kullanarak DeepSeek-R1 Kurulumu

Docker, modelin çalıştırılmasını basitleştirir ve bağımsız bir ortam sağlar.

Adım 1: Docker’ı Kurun

Docker Resmi Sitesi üzerinden yükleyin.

Adım 2: DeepSeek Görüntüsünü Çekin

docker pull deepseek/deepseek-llm:latest

Adım 3: Modeli Çalıştırın

docker run -d --name deepseek-container -p 8080:8080 deepseek/deepseek:latest

Adım 4: Modeli Test Edin

curl -X POST http://localhost:8000/v1/completions -d '{"prompt": "Merhaba, DeepSeek!", "max_tokens": 50}'

4. Llama.cpp Kullanarak DeepSeek-R1 Kurulumu

Daha hafif sistemler için uygundur.

Adım 1: Depoyu Klonlayın

git clone https://github.com/ggerganov/llama.cpp && cd llama.cpp && make

Adım 2: Modeli Çalıştırın

./main -m /path/to/deepseek-r1.Q4_K_M.gguf -p "Merhaba, DeepSeek!" -n 512

Bu yöntemler sayesinde, DeepSeek-R1’i istediğiniz platformda kolayca çalıştırabilirsiniz!

Diğer Yapa Zeka konusu ile ilgili yazılar için lütfen BURAYA

Bir yanıt yazın