4 способа запустить LLM, такую как DeepSeek-R1, локально на вашем компьютере:



Запуск LLM локально — это как обладание суперспособностью:



🔸Экономия средств

🔸Конфиденциальность: ваши данные остаются на вашем компьютере

🔸К тому же, это безумно интересно



Сегодня мы рассмотрим лучшие способы сделать это. Поехали:



1. Ollama

Самый простой способ — выполнить команду:

ollama run deepseek-r1


А установить Ollama можно одной строкой:

curl -fsSL https://ollama.com/install.sh | sh




2. LMStudio

Устанавливается как приложение и предоставляет интерфейс, похожий на ChatGPT. Вы можете загружать и выгружать модели, как будто работаете с кассетами в магнитофоне



3. vLLM

Быстрая и удобная библиотека для выполнения и развертывания LLM. Всего несколько строк кода — и вы сможете локально запустить DeepSeek как сервер, совместимый с OpenAI, с поддержкой рассуждений



4. LlamaCPP

Минимальная настройка, топовая производительность. На видео DeepSeek-R1 на Mac Studio



👉 @DataSciencegx