Deepseek, metin üretimi, özetleme ve akıl yürütme gibi güçlü yetenekler sunan, doğal dil işleme için tasarlanmış en yeni AI modelidir. Linux’ta yerel olarak çalışabilir, bu da gizlilik, kontrol ve AI’ya çevrimdışı erişim isteyen kullanıcılar için mükemmel bir seçim haline getirebilir.
Deepseek’in güçlü yönlerinden biri esnekliği, sadece CPU sistemlerinde çalışabilirken, özel bir GPU kullanıldığında performans önemli ölçüde iyileştirilir. Bir CPU’da yanıt süreleri daha yavaş olabilir ve daha büyük modeller önemli RAM gerektirebilir. Bir GPU ile Deepseek, paralel işlemeden yararlanarak gerçek zamanlı etkileşimleri daha sorunsuz hale getirerek çok daha hızlı yanıtlar üretebilir.
Bu kılavuz, üst düzey bir GPU’nuz olsun ya da olmasın, Ubuntu veya Debian tabanlı Linux dağıtımlarına Deepseek’in kurulumu ve kurulumu boyunca size yol göstererek kendi makinenizde AI ile başlayabilmenizi sağlayacaktır.
Önkoşullar
Başlamadan önce, sisteminizin asgari gereksinimleri karşıladığından emin olun. Deepseek sadece bir CPU makinesinde çalışabilirken, yüksek performanslı bir işlemciye ve yeterli RAM’e sahip olmak yürütme hızını artıracaktır.
Uyumlu bir GPU yüklenirse, Ollama otomatik olarak hızlandırılmış işleme için algılayacak ve kullanacaktır. GPU bulunmazsa, modelin CPU’da çalıştığını gösteren bir mesaj görüntülenir.
No manual configuration is required.
Deepseek’in 671B modeli, şimdiye kadar eğitilmiş en büyük AI modellerinden biridir ve bir petabayt depolama gerektirir ve aynı anda binlerce GPU üzerinde çalışır! Yine de, verimli mimarisi sayesinde, daha küçük 1.5B modeli bile tüketici donanımında yüksek kaliteli sonuçlar üretebilir.
Kurulum adımları
- Ollama’yı kurun: Ollama Deepseek modelleri çalıştırmak için gereklidir. Makine öğrenimi modellerini verimli bir şekilde çalıştırmak için optimize edilmiş bir yerel çalışma zamanı sağlar. İlk olarak, Curl’un sisteminize yüklendiğinden emin olun. Kurulmamışsa, şu şekilde yükleyebilirsiniz:
$ sudo apt install curl
Curl kurulduğunda, resmi Ollama kurulum betiğini indirin ve çalıştırın:
$ curl -fsSL https://ollama.com/install.sh | sh
Kurulumdan sonra Ollama’nın sürümünü kontrol ederek doğru şekilde yüklendiğini doğrulayın:
$ ollama --versionAyrıca, Ollama hizmetinin aşağıdakilerle çalıştığından emin olun:
$ systemctl is-active ollama.service
Ollama kurulumu - Deepseek-R1’i indirin: Şimdi, çalıştırmak istediğiniz modeli getirin. Deepseek-R1 modelleri, donanım özelliklerinize göre boyut olarak değişir, hız ve doğruluğu dengelemektedir. Daha büyük modeller daha iyi akıl yürütme ve doğruluk sağlar, ancak daha fazla RAM, VRAM ve disk alanı gerektirir. 7B modelini örnek olarak yüklemek için:
$ ollama pull deepseek-r1:7b
Mevcut Deepseek-R1 modelleri, donanım gereksinimleri ve önerileri Model Parameters Disk Space Required Minimum RAM Recommended GPU VRAM Performance deepseek-r1:1.5b
1.5 Billion 3 GB 8 GB 4 GB En hızlı, düşük bellek kullanımı, daha az doğruluk deepseek-r1:7b
7 Billion 15 GB 16 GB 8 GB İyi hız ve doğruluk dengesi deepseek-r1:8b
8 Billion 17 GB 24 GB 10 GB 7b’ye benzer şekilde, biraz geliştirilmiş akıl yürütme deepseek-r1:14b
14 Billion 30 GB 32 GB 16 GB Daha iyi anlama, daha fazla RAM’e ihtiyaç duyar deepseek-r1:32b
32 Billion 70 GB 64 GB 24 GB Yüksek doğruluk, daha yavaş tepki süreleri deepseek-r1:70b
70 Billion 160 GB 128 GB 48 GB Çok doğru, yavaş çıkarım hızı deepseek-r1:671b
671 Billion 1.5 TB 512 GB+ Birden fazla GPU, 100 GB+ VRAM Son teknoloji doğruluk, son derece yavaş Doğru modeli seçmek:
- 1.5B – 7B models: Günlük görevler, sohbet uygulamaları ve hafif çıkarım için en iyisi.
- 8B – 14B models: Nispeten verimli kalırken gelişmiş akıl yürütme sunan dengeli modeller.
- 32B – 70B models: Son derece gelişmiş, araştırma ve derin analizler için uygundur, ancak önemli kaynaklar gerektirir.
- 671B model: Veri merkezi düzeyinde donanım gerektirir. En son AI araştırmaları için kullanılır.
NOT100+ GB VRAM ile 512+ GB RAM ve çoklu GPU’lar olsa bile, Deepseek-R1: 671b modeli, 671 milyar parametresi nedeniyle yavaş kalır ve yanıt başına muazzam sayıda hesaplama gerektirir. Birden fazla GPU genel verimi iyileştirirken, veri hareketi, bellek bant genişliği ve hesaplama sınırları darboğazlar oluşturduğundan, tek bir istek için gecikmeyi önemli ölçüde azaltmazlar. Üst düzey AI altyapısı bile bu ölçekle mücadele eder ve daha küçük modelleri (7B-14B) gerçek zamanlı uygulamalar için çok daha pratik hale getirir. 671B modeli, hassasiyetin hızdan ağır bastığı araştırma ve büyük ölçekli AI deneyleri için en uygun olanıdır. Emin değilseniz, genel amaçlı bir model olarak Deepseek-R1: 7B ile başlayın.
- Deepseek kullanmaya başlayın: Model indirildikten sonra doğrudan onunla etkileşime girmeye başlayabilirsiniz. Deepseek-R1 modelini çalıştırmak için:
$ ollama run deepseek-r1:7b
Ollama belgesinde daha gelişmiş kullanım ve konfigürasyonları keşfedebilirsiniz.
Deepseek kullanmaya başlayın. Soru sorun. - Entegrasyon için yerel bir API kullanın: Deepseek ile programlı olarak etkileşime girmeniz gerekiyorsa, API’yı etkinleştirin.
$ ollama serve & curl http://localhost:11434/api/generate -d '{"model": "deepseek-r1:7b", "prompt": "Hello, how are you?"}'
Deepseek ile entegrasyon için yerel bir API kullanın
Sonuç
Deepseek, her biri farklı donanım gereksinimlerine sahip çeşitli model boyutları sunar. Sisteminiz daha büyük modellerle mücadele ediyorsa, `1.5b ‘gibi daha küçük bir varyant kullanmayı düşünün. Deepseek’i GPU olmadan çalıştırmak mümkündür, ancak optimizasyonlar verimliliği artıracaktır.
Yazının orijinalini buradan okuyabilirsiniz.

Kariyerime 26 yıl önce başladım. Windows ve Linux sistemlerinin kurulumu, yapılandırılması, yönetimi ve bakımı dahil olmak üzere birden fazla sistem üzerinde uzmanlaştım.
Açık kaynak dünyasındaki en son gelişmelerden haberdar olmaktan ve Linux hakkındaki en son araçları, özellikleri ve hizmetleri denemekten hoşlanıyorum.
Son 6 yıldır sistem ve ağ yöneticisi olarak görev yapıyorum ayrıca Pardus Dönüşüm Projesini yönetiyorum ve Pardus İşletim Sisteminin yaygınlaşması adına uğraş gösteriyorum.
Boş zamanlarımda açık kaynaklı uygulamaların Türkçe çevirisine katılıyorum ve The Document Foundation üyesiyim.