Как запустить deepseek у себя на пк.

Перд вами простой и безопасный способ запустить DeepSeek у себя на ПК через Python.
Сразу скажу главное: начни с небольшой модели, иначе всё будет тормозить и падать.
1️⃣ Что нужно иметь
- Python 3.9+
- минимум 8–12 ГБ RAM
- видеокарта с 6–8 ГБ VRAM желательно, но без неё тоже можно (просто медленнее)
2️⃣ Установи зависимости
pip install transformers accelerate torch sentencepiece
Если у тебя NVIDIA-GPU, лучше поставить torch c поддержкой CUDA (подскажу, если нужно).
3️⃣ Пример: запускаем DeepSeek через Python
(возьмём одну из «лёгких» моделей — deepseek-coder-6.7B)
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name = "deepseek-ai/deepseek-coder-6.7b-base"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.float16,
device_map="auto" # если есть GPU — использует её
)
prompt = "Напиши на Python функцию, которая проверяет, является ли число простым."
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(
**inputs,
max_new_tokens=180,
temperature=0.3
)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
✔ работает офлайн
✔ можно использовать как библиотеку
✔ легко встроить в бота, сервис или скрипт
4️⃣ Если не хватает памяти
Попробуй:
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto",
low_cpu_mem_usage=True,
)
или возьми квантизованную версию (q4/q8) — она намного легче.
5️⃣ Альтернатива для совсем простого запуска
если не хочешь возиться с кодом — установи Ollama и напиши:
ollama run deepseek-r1
А потом можно подключиться к нему Python-скриптом.
👉 Совет по опыту
Сначала подними всё на маленькой модели.
Когда пайплайн заработает — переключайся на более мощные.
Если хочешь — могу помочь тебе:
🔧 подобрать модель под твоё железо
⚡ показать как сделать API-сервер
🤖 подключить DeepSeek к телеграм-боту / веб-приложению



