Нейронные сети становятся все более доступными для локального использования благодаря инструментам, таким как Ollama. С его помощью можно запускать большие языковые модели (LLM) на вашем ПК без необходимости в облачных сервисах. В этой статье мы рассмотрим пошаговую инструкцию по установке DeepSeek-R1, а также важные нюансы, связанные с выбором модели.
1. Установка Ollama
Перед тем как приступить к установке DeepSeek-R1, необходимо установить Ollama – инструмент для запуска LLM на локальном компьютере.
Шаги по установке Ollama
- Перейдите на официальный сайт Ollama и скачайте установочный файл для вашей операционной системы (Windows, macOS или Linux).
- Запустите скачанный файл и следуйте инструкциям установщика.
- После завершения установки проверьте, что Ollama установлен, выполнив команду в терминале (или командной строке Windows):
ollama version
Если Ollama установлен корректно, появится информация о версии.
2. Выбор версии модели DeepSeek-R1
Нейросеть DeepSeek-R1 доступна в нескольких вариантах, отличающихся по размеру:
- DeepSeek-R1-8B – модель с 8 миллиардами параметров (требует от 16 ГБ ОЗУ).
- DeepSeek-R1-14B – модель с 14 миллиардами параметров (рекомендуется от 24 ГБ ОЗУ).
- DeepSeek-R1-67B – полная версия с 67 миллиардами параметров (не запустится на большинстве локальных машин, требует мощный сервер с GPU).
❗ Важно! Полная версия DeepSeek-R1-67B не предназначена для локального запуска из-за высоких требований к ресурсам. Для локального использования рекомендуются модели 8B или 14B.
3. Установка DeepSeek-R1
Теперь можно загрузить одну из поддерживаемых моделей DeepSeek-R1.
- Открываем терминал (Command Prompt в Windows, Terminal в macOS/Linux).
- Вводим команду для загрузки выбранной версии модели:
ollama pull deepseek-r1:8b // Для 8B (8 миллиардов параметров)
ollama pull deepseek-r1:8b // Для 14B (14 миллиардов параметров)
- Дожидаемся завершения загрузки модели (в зависимости от скорости интернета это может занять несколько минут).
4. Запуск модели DeepSeek-R1 и работа через командную строку
После успешной загрузки модели можно запустить её и отправлять запросы.
- Запускаем модель в терминале: (для 8 или 14 миллиардов параметров )
ollama run deepseek-r1:8b
ollama run deepseek-r1:14b
- После запуска можно вводить текстовые запросы. Например:
Что такое искусственный интеллект?
5. Пример использования DeepSeek-R1 в коде
Если вы хотите взаимодействовать с моделью программно, можно использовать Python.
Пример Python-кода для общения с моделью:
import ollama
your_info = """Ты обработчик данных, твоя задача возвращать данные в формате
json"""
# Инициализируем список для хранения истории сообщений
history = [
{"role": "system", "content": your_info}
]
while True:
# Вводим новый запрос
prompt = input("Введите запрос: ")
# Добавляем запрос пользователя в историю
history.append({"role": "user", "content": prompt})
# Отправляем запрос в Ollama с историей
response = ollama.chat(
model="mistral:7b-instruct",
messages=history
)
# Получаем ответ от модели
model_response = response['message']['content']
# Выводим ответ модели
print(model_response)
# Добавляем ответ модели в историю
history.append({"role": "assistant", "content": model_response})
Заключение
Теперь вы знаете, как установить и использовать DeepSeek-R1 на локальном компьютере. Основные моменты, которые стоит учитывать: ✅ Используйте версии 8B или 14B, так как 67B не запустится на локальном ПК.
✅ Для работы необходим Ollama – мощный инструмент для локального запуска LLM.
✅ После установки модели можно запускать её через командную строку или использовать в коде.
🔗 Полезные ссылки:
🔥 Теперь вы готовы к работе с DeepSeek-R1 на своем ПК! 🚀