deepseek

Ubuntu/Debian’a Deepseek AI nasıl kurulur ve çalıştırılır (GPU suz)

Deepseek, metin üretimi, özetleme ve akıl yürütme gibi güçlü yetenekler sunan, doğal dil işleme için tasarlanmış en yeni AI modelidir. Linux’ta yerel olarak çalışabilir, bu da gizlilik, kontrol ve AI’ya çevrimdışı erişim isteyen kullanıcılar için mükemmel bir seçim haline getirebilir.
Deepseek’in güçlü yönlerinden biri esnekliği, sadece CPU sistemlerinde çalışabilirken, özel bir GPU kullanıldığında performans önemli ölçüde iyileştirilir. Bir CPU’da yanıt süreleri daha yavaş olabilir ve daha büyük modeller önemli RAM gerektirebilir. Bir GPU ile Deepseek, paralel işlemeden yararlanarak gerçek zamanlı etkileşimleri daha sorunsuz hale getirerek çok daha hızlı yanıtlar üretebilir.

Bu kılavuz, üst düzey bir GPU’nuz olsun ya da olmasın, Ubuntu veya Debian tabanlı Linux dağıtımlarına Deepseek’in kurulumu ve kurulumu boyunca size yol göstererek kendi makinenizde AI ile başlayabilmenizi sağlayacaktır.

Önkoşullar

Başlamadan önce, sisteminizin asgari gereksinimleri karşıladığından emin olun. Deepseek sadece bir CPU makinesinde çalışabilirken, yüksek performanslı bir işlemciye ve yeterli RAM’e sahip olmak yürütme hızını artıracaktır.
Uyumlu bir GPU yüklenirse, Ollama otomatik olarak hızlandırılmış işleme için algılayacak ve kullanacaktır. GPU bulunmazsa, modelin CPU’da çalıştığını gösteren bir mesaj görüntülenir.
No manual configuration is required.

BİLİYOR MUSUNUZ?
Deepseek sadece başka bir AI modeli değil, en son AI araştırmalarında kullanılan takviye öğrenme tekniklerinden ilham alıyor! Pasif olarak metin oluşturan geleneksel modellerin aksine, Deepseek hedefe yönelik eğitim içerir, yani kullanıcı niyetiyle uyumlu yanıtlarını sürekli olarak rafine eder. 

Deepseek’in 671B modeli, şimdiye kadar eğitilmiş en büyük AI modellerinden biridir ve bir petabayt depolama gerektirir ve aynı anda binlerce GPU üzerinde çalışır! Yine de, verimli mimarisi sayesinde, daha küçük 1.5B modeli bile tüketici donanımında yüksek kaliteli sonuçlar üretebilir.

Kurulum adımları

 

 

  1. Ollama’yı kurun: Ollama Deepseek modelleri çalıştırmak için gereklidir. Makine öğrenimi modellerini verimli bir şekilde çalıştırmak için optimize edilmiş bir yerel çalışma zamanı sağlar. İlk olarak, Curl’un sisteminize yüklendiğinden emin olun. Kurulmamışsa, şu şekilde yükleyebilirsiniz:
    $ sudo apt install curl

    Curl kurulduğunda, resmi Ollama kurulum betiğini indirin ve çalıştırın:

    $ curl -fsSL https://ollama.com/install.sh | sh

    Kurulumdan sonra Ollama’nın sürümünü kontrol ederek doğru şekilde yüklendiğini doğrulayın:

    $ ollama --versionAyrıca, Ollama hizmetinin aşağıdakilerle çalıştığından emin olun:
    $ systemctl is-active ollama.service

     

    Install Ollama
    Ollama kurulumu
  2. Deepseek-R1’i indirin: Şimdi, çalıştırmak istediğiniz modeli getirin. Deepseek-R1 modelleri, donanım özelliklerinize göre boyut olarak değişir, hız ve doğruluğu dengelemektedir. Daha büyük modeller daha iyi akıl yürütme ve doğruluk sağlar, ancak daha fazla RAM, VRAM ve disk alanı gerektirir. 7B modelini örnek olarak yüklemek için:
    $ ollama pull deepseek-r1:7b
    Mevcut Deepseek-R1 modelleri, donanım gereksinimleri ve önerileri
    ModelParametersDisk Space RequiredMinimum RAMRecommended GPU VRAMPerformance
    deepseek-r1:1.5b1.5 Billion3 GB8 GB4 GBEn hızlı, düşük bellek kullanımı, daha az doğruluk
    deepseek-r1:7b7 Billion15 GB16 GB8 GBİyi hız ve doğruluk dengesi
    deepseek-r1:8b8 Billion17 GB24 GB10 GB7b’ye benzer şekilde, biraz geliştirilmiş akıl yürütme
    deepseek-r1:14b14 Billion30 GB32 GB16 GBDaha iyi anlama, daha fazla RAM’e ihtiyaç duyar
    deepseek-r1:32b32 Billion70 GB64 GB24 GBYüksek doğruluk, daha yavaş tepki süreleri
    deepseek-r1:70b70 Billion160 GB128 GB48 GBÇok doğru, yavaş çıkarım hızı
    deepseek-r1:671b671 Billion1.5 TB512 GB+Birden fazla GPU, 100 GB+ VRAMSon teknoloji doğruluk, son derece yavaş

     

    Doğru modeli seçmek:

    • 1.5B – 7B models: Günlük görevler, sohbet uygulamaları ve hafif çıkarım için en iyisi.
    • 8B – 14B models: Nispeten verimli kalırken gelişmiş akıl yürütme sunan dengeli modeller.
    • 32B – 70B models: Son derece gelişmiş, araştırma ve derin analizler için uygundur, ancak önemli kaynaklar gerektirir.
    • 671B model: Veri merkezi düzeyinde donanım gerektirir. En son AI araştırmaları için kullanılır.


    NOT100+ GB VRAM ile 512+ GB RAM ve çoklu GPU’lar olsa bile, Deepseek-R1: 671b modeli, 671 milyar parametresi nedeniyle yavaş kalır ve yanıt başına muazzam sayıda hesaplama gerektirir. Birden fazla GPU genel verimi iyileştirirken, veri hareketi, bellek bant genişliği ve hesaplama sınırları darboğazlar oluşturduğundan, tek bir istek için gecikmeyi önemli ölçüde azaltmazlar. Üst düzey AI altyapısı bile bu ölçekle mücadele eder ve daha küçük modelleri (7B-14B) gerçek zamanlı uygulamalar için çok daha pratik hale getirir. 671B modeli, hassasiyetin hızdan ağır bastığı araştırma ve büyük ölçekli AI deneyleri için en uygun olanıdır.

    Emin değilseniz, genel amaçlı bir model olarak Deepseek-R1: 7B ile başlayın.

  3. Deepseek kullanmaya başlayın: Model indirildikten sonra doğrudan onunla etkileşime girmeye başlayabilirsiniz. Deepseek-R1 modelini çalıştırmak için:
    $ ollama run deepseek-r1:7b

    Ollama belgesinde daha gelişmiş kullanım ve konfigürasyonları keşfedebilirsiniz.

     

    Begin Using DeepSeek. Ask question.
    Deepseek kullanmaya başlayın. Soru sorun.
  4. Entegrasyon için yerel bir API kullanın: Deepseek ile programlı olarak etkileşime girmeniz gerekiyorsa, API’yı etkinleştirin.
    $ ollama serve & curl http://localhost:11434/api/generate -d '{"model": "deepseek-r1:7b", "prompt": "Hello, how are you?"}'

     

    Use a Local API for Integration with DeepSeek
    Deepseek ile entegrasyon için yerel bir API kullanın

Sonuç

Deepseek, her biri farklı donanım gereksinimlerine sahip çeşitli model boyutları sunar. Sisteminiz daha büyük modellerle mücadele ediyorsa, `1.5b ‘gibi daha küçük bir varyant kullanmayı düşünün. Deepseek’i GPU olmadan çalıştırmak mümkündür, ancak optimizasyonlar verimliliği artıracaktır.

 

Yazının orijinalini buradan okuyabilirsiniz.