Как установить языковые модели локально на свой компьютер на примере Ollama

  • Post published:April 27, 2025
  • Post last modified:May 12, 2025
  • Post category:IT / Гайды
  • Reading time:15 mins read

Нейросети и ИИ-агенты становятся все более популярными в наше время. Именно благодаря ИИ можно быстро создавать всевозможный контент и решать повседневные задачи: создавать тексты, генерировать изображения и видео, решать вопросы, кодить и много чего еще.

Для решения такого спектра задач в интернете уже существует масса всевозможных ИИ-сервисов. Некоторые из них ориентированы на узконаправленные сферы, а некоторые отлично подходят для решения повседневных вопросов.

Среди популярных вариантов у нас есть ChatGPT, Copilot, Gemini, Grok, Claude, DeepSeek и другие. Очевидно, что доступ к ним осуществляется через интернет и к тому же они сохраняют все ваши запросы для дальнейшего обучения языковой модели. Но что, если вы хотите использовать ИИ без интернета, локально и на своем компьютере? Причин на то может быть несколько, но мы поговорим о них ниже. Решение однозначно есть и в этом гайде я расскажу, как можно установить языковую модель локально на свой ПК. Для этого мы рассмотрим Ollama и LM Studio.

Зачем это нужно?

Локальная установка больших языковых моделей (LLM) на свой ПК может стать неплохим решением. Тут можно выделить вполне очевидные и не очень причины, для чего вам может пригодиться локальный ИИ:

  1. Конфидециальность. При использовании онлайн-сервисов ваши запросы попадают на сервер и хранятся там. Компании могут использовать их для анализа и обучения своих моделей, что подходит не всем. К тому же, если вы хотите работать с конфиденциальными и чувствительными данными, то не стоит отправлять это все нейросетям. Лучше установить локальную языковую модель, которая не подключена к интернету. Таким образом ваша информация будет надежно защищена.
  2. Автономность. Установка локальной языковой модели позволит вам пользоваться ей даже без подключения к интернету. Вне зависимости от региона и подписки, ваш ИИ будет доступен всегда, даже если вы планируете работать из самых удаленных мест с нестабильным интернетом.
  3. Цена. Используя свою языковую модель, вы можете забыть про оплату подписок и своего интернет провайдера. Такие Open-source модели, как Llama, DeepSeek работают абсолютно бесплатно. Единственное, за что вы платите – это электроэнергию на произведение всех расчетов.
  4. Автоматизация. Продвинутые пользователи могут использовать языковую модель для упрощения работы с рутинными задачами, созданием ИИ-агента, сценариев в N8n, внедрения ассистента в различные сайты, приложения или сервисы.
  5. Кастомизация. Локальную языковую модель можно легко кастомизировать и настроить под свои нужды. Если у вас слабый компьютер, можно использовать лайтовые модели для решения простых задач. Если же нужно работать с большим массивом данных и получать качественные результаты, то можно поставить более продвинутую модель. Кроме этого, к языковой модели можно создать свои интеграции, тем самым расширяя функционал. Стоит отметить, что результат и скорость работы будет напрямую зависеть от производительности вашего ПК, особенно видеокарты.
  6. Обучение. Установка и работа с ИИ позволит вам больше узнать о нейросетях и понять принцип работы. Учитывая, что языковая модель будет храниться у вас на ПК, вы сможете изучить их архитектуру и поэкспериментировать.
  7. Отсутствие ограничений. Популярные ИИ-модели часто имеют цензуру, ограничение по бесплатным токенам и предлагают приобрести подписку, чтобы продолжить получать качественные ответы. Локальные же модели ограничены только вашими мощностями. Конечно, Open-source модель не всегда может конкурировать с гигантами индустрии, но для выполнения своих узконаправленных задач этого может быть достаточно.

Какие минимальные системные требования для работы с ИИ

Тут нет однозначного ответа, поскольку это зависит от выбранной языковой модели. Работать с ИИ можно как на десктопе, так и ноутбуке под управлением Windows, Mac или Linux. Самые изощренные энтузиасты могут даже использовать для этого одноплатный компьютер Raspberry-Pi. В целом можно ориентироваться на следующие параметры:

  • Процессор: Поддержка инструкций AVX2, 2+ ядра, частота 1.5 ГГц.
  • Оперативная память: Минимум 16 ГБ (8 ГБ подойдет для простых моделей, но это скажется на общей производительности и результате).
  • Видеокарта: NVIDIA с поддержкой CUDA и минимум 8 ГБ видеопамяти. Число CUDA ядер можно найти в официальном списке от NVIDIA. ИИ можно использовать и без видеокарты, силами процессора, но это значительно скажется на производительности.
  • SSD: 5-400 ГБ свободного места на диске. Рекомендуется использовать SSD/NVMe накопитель для быстрого чтения данных.
  • ОС: Windows 10 (64-бит); MacOS 11 Big Sur; Linux.

Примерный список языковых моделей под определенные задачи и их обозначения

  • Qwen 2.5, Phi3: подходят для генерации и редактирования кода.
  • DeepSeek-R1: работа с текстом, задачами и создание идей.
  • Llama 3.2: используется для общих задач, например, создания текста, генерации идей или ответа на вопросы.
  • Llava: умеет создавать и читать изображения.

Обозначения LLM

Ollama

Ollama сайт

Ollama позволяет ставить языковые модели на свой ПК за считанные минуты. Этот open-source проект отличается своим минимализмом, простотой установки и широким выбором LLM, таких как Llama, Mistral, Gemma, DeepSeek, Phi-4 и других. Если вы новичок и не слишком разбираетесь в технических аспектах, то Ollama станет отличным вариантом. Работа с ней осуществляется через командную строку, но для большего удобства рекомендуется поставить Docker + Open WebUI. Список всех интеграций можно посмотреть здесь на GitHub.

Базовая установка Ollama

  1. Переходим на официальный сайт Ollama и скачиваем установщик для своей ОС, например, Windows.
  2. Открываем файл и устанавливаем инструментарий Ollama на ПК.
  3. После завершения установки открываем командную строку (CMD). Ее можно открыть через меню Пуск или с помощью комбинации Win+R написав cmd.
  4. Вводим в командной строке ollama run llama3.2. Для установки других языковых моделей можно использовать команды из документации, например, ollama run deepseek-r1:7b
  5. Ждем пока языковая модель установится и запустится на компьютере. Чтобы убедиться, что ИИ работает, можно перейти по локальному адресу в браузере: localhost:11434
  6. Сразу после завершения установки вы можете начать диалог с ИИ прямо внутри командной строки, но такой способ общения подойдет не всем.
  7. Для завершения диалога используем команду /bye

Установка Docker и WebUI

Если вам неудобно работать с языковой моделью через Терминал/Командную строку, то вам однозначно стоит установить OpenWebUI и Docker.

Что за Docker и зачем он нужен?

Docker позволяет запускать приложения (контейнеры) в локальном окружении/среде. Внутри таких контейнеров находятся все необходимые данные: библиотеки, код, и остальные параметры. Обычно он используется для упрощенной разработки, тестирования программ, чтобы в дальнейшем разместить проект.

В нашем случае Docker пригодится для развертывания Web-интерфейса, чтобы взаимодействовать с языковой моделью прямо из браузера.

  1. Переходим на сайт Docker и скачиваем установщик для Windows или любой другой ОС.
  2. Устанавливаем Docker и перезагружаем компьютер.
  3. После перезапуска в Windows откроется окно Docker с авторизацией по почте. Создаем аккаунт или используем для этого аккаунт от другого сервиса, например, Google.
  4. Docker должен открыть командную строку и установить окружение Linux для Windows (при помощи команды wsl). Без установки Linux, Docker Desktop работать не будет.
  5. После успешной установки, переходим на страницу GitHub OpenWebUI и листаем до раздела Installation with Default Configuration.
  6. Копируем нужную команду, например, из раздела “If Ollama is on your computer” и вставляем ее в Командную строку. Начнется установка WebUI.
  7. После успешной установки, в Docker Desktop появится новый контейтер open-webui с портом 3000:8080.
  8. Открываем ссылку в браузере localhost:3000 и попадаем в личный кабинет интерфейса WebUI.
  9. Нажимаем кнопку “Get started”.
  10. Создаем локальный аккаунт указывая свою почту, имя и пароль.
  11. После входа в аккаунт вы попадете в интерфейс для общения с языковой моделью, например, Llama 3.2:Latest.

Функционал такого сайта практически не отличается от популярных нейросетей ChatGPT, DeepSeek или Grok. Переключаться между языковыми моделями можно прямо из интерфейса (при условии, что вы установили другие LLM).

На этом настройка Ollama и OpenWebUI закончена. Теперь вы можете общаться с любой языковой моделью прямиком из браузера на своем компьютере. Если у вас остались вопросы, или вы столкнулись с проблемами, рекомендую обратиться в FAQ ниже.

LM Studio

LM Studio сайт

LM Studio имеет схожие возможности с Ollama. Этот сервис имеет привлекательный интерфейс (GUI) и большой набор языковых моделей: Llama, Mistral, DeepSeek и других. LM Studio можно рекомендовать как новичкам, так и энтузиастам, которые хотят использовать ИИ в стиле ChatGPT прямо на своем ПК и без лишних проблем. Весь список моделей можно посмотреть на официальном сайте.

Установка LM Studio

  1. Переходим на официальный сайт LM Studio и скачиваем с главной страницы установщик под свою ОС.
  2. Запускаем установочный файл и следуем инструкциям мастера установки.
  3. После установки запускаем LM Studio. Вы увидите интерфейс с разделами для загрузки моделей и чата.
  4. В LM Studio открываем вкладку Download и выбираем нужную модель, например, DeepSeek, Llama, Mistral.
  5. Выбираем вариант модель с квантированием, например Q4 и устанавливаем.
  6. Переходим в раздел AI Chat (иконка чата), выбираем загруженную модель и начиаем общение.

Отличия между Ollama и LM Studio

OllamaLM Studio
Минимальный интерфейсУдобный графический интерфейс (GUI)
Гибкая кастомизацияШирокий набор готовых функций
Большой каталог доступных моделей (LLM)Большой каталог доступных моделей (LLM)
КроссплатформенностьКроссплатформенность
Открытый исходный кодБыстрый старт без лишних настроек

FAQ

Какие операционные системы поддерживаются?

Я хочу узнать больше об Ollama и языковых моделях. Есть ли наглядное видео?

Какие минимальные системные требования для использования ИИ?

Можно ли установить LLM на свой VPS (виртуальный сервер)?

Как остановить работу ИИ?

Как обновлять установленные языковые модели?

Как проверить список загруженных языковых моделей?

Как удалить языковую модель с компьютера?

Как посмотреть производительность ИИ после каждого запроса?

Как посмотреть производительность видеокарты во время работы с ИИ?

Какая языковая модель самая лучшая на текущий момент?

Я хочу поставить ChatGPT/Grok/Gemini себе на компьютер. Это возможно?

Где хранятся установленные модели по умолчанию?

Что делать если моя языковая модель работает очень медленно?

Как продолжить обучение локальной модели?

А поддерживаются ли русскоязычные языковые модели от Yandex, Sber и других?

В заключении

Установить языковую модель на свой компьютер теперь не кажется чем-то невозможным. Теперь любой пользователь может использовать ИИ в качестве полезного инструмента в зависимости от своего технического уровня, требуемых функций и конкретных потребностей.

Ollama ориентирован на тех, кто ищет простые, удобные и гибкие в использовании LLM. LM Studio подойдет тем, кто ищет дополнительные функции и возможности для быстрого размещения. Даже если вы не найдете особого применения в таких локальных языковых моделях, данный способ позволит поближе понять принцип работы нейросетей.