Для электронщиков и радиолюбителей

Как установить DeepSeek на Raspberry Pi 5 с помощью Ollama

Как установить DeepSeek на Raspberry Pi 5

DeepSeek — это современная языковая модель, которая может использоваться для задач генерации текста, перевода, чат-ботов и многого другого. Вместе с инструментом Ollama, который предоставляет удобный способ локального запуска LLM (Large Language Models), можно запустить DeepSeek даже на компактном компьютере, таком как Raspberry Pi 5. В этом руководстве вы узнаете, как это сделать.


Что такое DeepSeek?

DeepSeek — это открытая языковая модель, разработанная для общего назначения. Поддерживает различные размеры, включая DeepSeek 1.3B, DeepSeek 7B и более. Она показывает отличные результаты в понимании, генерации и кодировании текста.

Что такое Ollama?

Ollama — это CLI-инструмент и сервер, который позволяет загружать, запускать и взаимодействовать с LLM локально, упрощая установку и использование моделей вроде LLaMA, Mistral, DeepSeek и других. Ollama автоматически управляет зависимостями, оптимизациями и контейнерами моделей.


Что понадобится

  • Raspberry Pi 5 (с рекомендованным активным охлаждением)
  • Raspberry Pi OS (64-бит, Bookworm или новее)
  • SD-карта минимум 64 ГБ или SSD-накопитель
  • Подключение к интернету
  • Базовые навыки работы с терминалом

Шаг 1. Установка необходимых зависимостей

Откройте терминал и выполните обновление системы:

sudo apt update && sudo apt upgrade -y

Установите необходимые пакеты:

sudo apt install curl git build-essential -y

Убедитесь, что у вас установлен docker, так как Ollama использует контейнеры (или Podman, в зависимости от версии):

curl -fsSL https://get.docker.com | sh
sudo usermod -aG docker $USER

Перезагрузите систему:

sudo reboot

Шаг 2. Установка Ollama

На момент написания, официальная сборка Ollama не поддерживает ARMv8 (архитектура Raspberry Pi) напрямую. Однако вы можете использовать Ollama через контейнер или скомпилировать вручную.

Вариант 1: Использовать Ollama ARM-сборку (неофициальную)

curl -fsSL https://ollama.com/download/ollama-linux-arm64 -o ollama
chmod +x ollama
sudo mv ollama /usr/local/bin/

Проверьте установку:

ollama --version

Вариант 2: Использовать Docker-образ Ollama (если есть поддержка)

Создайте Docker-контейнер (если доступен ARM64-образ):

docker run -d --name ollama -p 11434:11434 ollama/ollama

Шаг 3. Загрузка модели DeepSeek

Теперь можно загрузить нужную модель. Например, чтобы загрузить deepseek-coder:6.7b:

ollama pull deepseek-coder:6.7b

Если хотите использовать обычную языковую модель (а не кодовую):

ollama pull deepseek:7b

Важно: модели такого размера могут потребовать своп-память. Вы можете добавить своп:

sudo fallocate -l 4G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile

Добавьте в /etc/fstab строку:

/swapfile none swap sw 0 0

Шаг 4. Запуск DeepSeek

Запустите модель:

ollama run deepseek:7b

После этого вы можете начинать взаимодействие с моделью через CLI, или интегрировать её с другими приложениями (через API по адресу http://localhost:11434).


Производительность и советы

  • Raspberry Pi 5 может работать с моделями до ~7B параметров, но очень ограниченно и медленно. Рекомендуется использовать минимальные модели (например, 1.3B или quantized версии типа Q4).
  • Используйте квантованные модели (например, deepseek:7b-q4) для экономии оперативной памяти и ускорения инференса.
  • Лучше всего подключить SSD через USB 3.0 для хранения моделей — SD-карты слишком медленные.

Альтернатива: Запуск через удалённый сервер

Если Raspberry Pi не справляется с моделью, можно установить только Ollama-клиент на Pi, а модель запускать удалённо на более мощной машине. Это реализуется с помощью Ollama API по сети.


Итоги

Хотя Raspberry Pi 5 не является идеальной платформой для запуска LLM, с помощью Ollama и правильно настроенных моделей, можно получить простой локальный доступ к DeepSeek и использовать его для базовых задач. Это отличное решение для обучения, экспериментов и создания локальных ИИ-приложений.