Як встановити Ollama на Mac, Windows і Linux: повний гайд 2026

Оновлено:
Як встановити Ollama на Mac, Windows і Linux: повний гайд 2026

ChatGPT і Claude працюють через браузер — відкрив вкладку і пишеш. Ollama працює інакше: спочатку встановлюєш програму на комп'ютер, потім завантажуєш модель — і після цього AI працює локально, без інтернету і без підписок.

Увесь процес займає 5–10 хвилин. Ця стаття проведе через кожен крок — від перевірки системних вимог до першого запиту до моделі. Окремо для macOS, Windows і Linux, з типовими помилками і їх вирішенням.

Якщо ти ще не знаєш що таке Ollama і навіщо запускати AI локально — почни з вступної статті.

📚 Зміст статті

🎯 Що потрібно перед встановленням: системні вимоги

Перш ніж встановлювати Ollama, переконайся що твій комп'ютер відповідає мінімальним вимогам. Ollama працює на CPU без додаткових налаштувань, але наявність GPU значно прискорює генерацію відповідей.

Параметр Мінімум Рекомендовано
RAM 8 ГБ 16 ГБ і більше
Вільне місце на диску 4 ГБ (програма) + 2–5 ГБ (модель) SSD з 20+ ГБ вільного місця
Операційна система macOS 14+, Windows 10 (10240+), Ubuntu 18.04+ Остання версія ОС
GPU (опціонально) NVIDIA 525+, Apple Silicon (M1–M4), AMD ROCm 6.x
Інтернет Потрібен для завантаження Після завантаження не потрібен

Правило вибору моделі за RAM: модель 7B у квантизації Q4 займає ~4–5 ГБ RAM. Модель 3B — близько 2 ГБ. Завжди залишай 2–3 ГБ вільної пам'яті для операційної системи.

Детальніше про вибір моделі під твоє залізо — у статті Ollama на слабкому залізі: що запустити на 8 ГБ RAM.

GPU: що підтримується і що налаштовувати

  • Apple Silicon (M1/M2/M3/M4): Metal GPU-прискорення працює автоматично. Завдяки unified memory чіп використовує RAM і VRAM одночасно — це найзручніша платформа для Ollama. Нічого налаштовувати не потрібно.
  • NVIDIA (Windows/Linux): потрібен драйвер версії 525 або новіший (рекомендовано 550+). Перевір командою nvidia-smi. Ollama автоматично виявить GPU після встановлення драйвера.
  • AMD (тільки Linux): підтримка через ROCm 6.x. На Windows нативне GPU-прискорення AMD поки не підтримується Ollama.
  • Без GPU: Ollama запуститься і працюватиме на CPU. Повільніше, але повністю функціонально. Для моделей до 3B — цілком прийнятна швидкість.

🎯 Встановлення на macOS: два способи за 3 хвилини

macOS — найпростіша платформа для Ollama. На Apple Silicon (M1 і новіші) модель автоматично використовує GPU без жодних налаштувань. Два способи встановлення: через офіційний сайт або через Homebrew.

Спосіб 1: Завантаження з офіційного сайту (рекомендовано)

  1. Перейди на ollama.com/download
  2. Натисни Download for macOS
  3. Відкрий завантажений .dmg файл
  4. Перетягни Ollama в папку Applications
  5. Запусти Ollama з Launchpad або Applications

Після запуску іконка Ollama (лама) з'явиться у menu bar (верхня панель). Це означає що сервер працює у фоні і готовий приймати команди.

Спосіб 2: Через Homebrew

Якщо використовуєш Homebrew — встановлення одним рядком:

brew install ollama

Після встановлення запусти сервер вручну:

ollama serve

Перевірка встановлення

Відкрий Terminal і виконай:

ollama --version

Очікуваний результат: ollama version 0.6.2 (або новіша версія).

Типові помилки на macOS та їх вирішення

«command not found: ollama» — якщо встановив через .dmg, команда ollama доступна в терміналі тільки коли програма запущена. Відкрий Ollama з Launchpad — іконка з'явиться у menu bar, після чого термінальні команди працюватимуть.

Повільна робота на Intel Mac — Ollama використовує Metal тільки на Apple Silicon. На Intel Mac модель працюватиме виключно на CPU, що значно повільніше. Для прийнятної швидкості обирай моделі до 3B параметрів: ollama run llama3.2:1b.

«Not enough memory» — модель завелика для обсягу RAM твого Mac. Спробуй меншу версію: ollama run llama3.2:1b (1B параметрів, ~1.3 ГБ) замість стандартної 3B.

Ollama не оновлюється — завантаж нову версію з ollama.com і встанови поверх поточної. Моделі залишаться на місці — перезавантажувати їх не потрібно.

🎯 Встановлення на Windows: PowerShell, .exe або winget

Windows підтримує Ollama нативно починаючи з 2024 року. У 2025–2026 з'явилася повна підтримка CUDA GPU-прискорення і нативний ARM64-білд для пристроїв на Snapdragon. Три способи встановлення — обирай зручний.

Спосіб 1: Через PowerShell (найшвидший)

Відкрий PowerShell і виконай:

irm https://ollama.com/install.ps1 | iex

Встановлення повністю автоматичне — Ollama з'явиться у PATH і запуститься як фоновий сервіс. Права адміністратора не потрібні.

Спосіб 2: Через інсталятор (.exe)

  1. Перейди на ollama.com/download
  2. Натисни Download for Windows
  3. Запусти OllamaSetup.exe
  4. Дотримуйся інструкцій майстра встановлення

Ollama не потребує прав адміністратора — програма встановлюється у домашню директорію користувача і не змінює системні файли.

Спосіб 3: Через winget

winget install Ollama.Ollama

Перевірка встановлення

Важливо: відкрий нове вікно PowerShell або Command Prompt. У старому вікні PATH ще не оновився і команда не буде знайдена.

ollama --version

Також перевір наявність іконки Ollama (лама) у системному треї (правий нижній кут панелі задач) — це означає що сервер працює.

Налаштування NVIDIA GPU на Windows

Якщо у тебе NVIDIA GPU, переконайся що драйвер актуальний:

nvidia-smi

Команда повинна показати версію драйвера — 525+ обов'язково, 550+ рекомендовано. Ollama автоматично виявить GPU і використає його. Якщо nvidia-smi не знайдена — завантаж драйвер з nvidia.com/drivers.

Типові помилки на Windows та їх вирішення

«ollama is not recognized» — закрий PowerShell і відкрий нове вікно. PATH оновлюється тільки в нових сесіях. Якщо не допомогло — перезавантаж комп'ютер.

Windows Defender / SmartScreen блокує встановлення — Windows може попередити про невідомого видавця. Натисни «More info» → «Run anyway». Ollama — відкритий проєкт під ліцензією MIT, він безпечний.

Моделі займають багато місця на диску C: — за замовчуванням моделі зберігаються у C:\Users\ІМ'Я\.ollama. Якщо на системному диску мало місця — змінити шлях можна через змінну середовища OLLAMA_MODELS. Відкрий «Змінні середовища» у налаштуваннях Windows і вкажи папку на іншому диску.

Повільна робота без GPU — перевір nvidia-smi. Якщо команда не працює — встанови або онови драйвер NVIDIA. Без GPU Ollama працюватиме на CPU — повільніше, але функціонально. Для CPU обирай моделі до 3B.

AMD GPU на Windows — нативне GPU-прискорення для AMD на Windows поки не підтримується Ollama. Варіант для досвідчених: WSL2 з Linux-середовищем і ROCm, але це експериментальна підтримка.

Як встановити Ollama на Mac, Windows і Linux: повний гайд 2026

🎯 Встановлення на Linux: одна команда і що після неї

На Linux встановлення Ollama — одна команда. Скрипт автоматично визначить архітектуру системи (x86_64, ARM64), завантажить потрібний бінарник і зареєструє Ollama як systemd-сервіс.

Встановлення

curl -fsSL https://ollama.com/install.sh | sh

Якщо потрібен sudo:

curl -fsSL https://ollama.com/install.sh | sudo sh

Перевірка встановлення

ollama --version

Перевір що systemd-сервіс запущений:

systemctl status ollama

Статус повинен бути active (running). Якщо ні — запусти вручну: sudo systemctl start ollama.

Налаштування GPU на Linux

NVIDIA

nvidia-smi

Версія драйвера повинна бути 525+ (рекомендовано 550+). Для максимальної швидкості генерації увімкни Flash Attention. Відкрий файл сервісу:

sudo nano /etc/systemd/system/ollama.service

Додай у секцію [Service]:

Environment="OLLAMA_FLASH_ATTENTION=1"

Перезапусти сервіс:

sudo systemctl daemon-reload
sudo systemctl restart ollama

AMD (ROCm)

ROCm 6.x підтримується на Linux. Переконайся що ROCm встановлений і rocminfo показує твій GPU. Ollama автоматично виявить AMD GPU через ROCm.

Доступ з локальної мережі

За замовчуванням Ollama доступна тільки на localhost. Щоб відкрити доступ для інших пристроїв у мережі (наприклад для Open WebUI на іншому комп'ютері), додай у файл сервісу /etc/systemd/system/ollama.service:

Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"

І перезапусти:

sudo systemctl daemon-reload
sudo systemctl restart ollama

Типові помилки на Linux та їх вирішення

«permission denied» — використай sudo при встановленні: curl -fsSL https://ollama.com/install.sh | sudo sh.

Ollama не бачить NVIDIA GPU — перевір nvidia-smi. Якщо команда не працює — встанови драйвер NVIDIA і CUDA toolkit. Переконайся що версії драйвера і CUDA сумісні між собою.

«port 11434 already in use» — інший процес Ollama вже працює. Зупини його: sudo systemctl stop ollama, потім запусти знову: sudo systemctl start ollama.

Завантаження моделі перервалось — Ollama підтримує відновлення завантаження. Просто повтори ollama pull назва_моделі — завантаження продовжиться з місця зупинки, а не спочатку.

Оновлення Ollama — повтори ту ж команду встановлення: curl -fsSL https://ollama.com/install.sh | sh. Скрипт виявить існуючу версію і оновить її. Моделі залишаться на місці.

🎯 Встановлення через Docker: універсальний спосіб для будь-якої ОС

Docker — зручний варіант якщо ти не хочеш встановлювати програми глобально, або плануєш розгорнути Ollama на сервері. Один контейнер — і все працює ізольовано від основної системи.

Базовий запуск (тільки CPU)

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Прапор -v ollama:/root/.ollama зберігає завантажені моделі у Docker volume — вони залишаться навіть після зупинки контейнера.

Запуск з NVIDIA GPU

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Для GPU у Docker на Linux потрібен NVIDIA Container Toolkit. Встанови його перед запуском контейнера.

Запуск моделі у контейнері

docker exec -it ollama ollama run llama3.2

Docker Compose (для постійного розгортання)

Створи файл docker-compose.yml:

version: '3.8'
services:
  ollama:
    image: ollama/ollama
    container_name: ollama
    ports:
      - "11434:11434"
    volumes:
      - ollama_data:/root/.ollama
    restart: unless-stopped
    # Для GPU розкоментуй:
    # deploy:
    #   resources:
    #     reservations:
    #       devices:
    #         - capabilities: [gpu]

volumes:
  ollama_data:

Запусти:

docker compose up -d

Типові помилки з Docker

Docker на Mac не підтримує GPU-прохідку — у Docker на macOS модель працюватиме тільки на CPU, навіть якщо у тебе Apple Silicon. Для GPU-прискорення на Mac — встановлюй Ollama нативно, а не через Docker.

«docker: command not found» — встанови Docker Desktop для macOS/Windows або Docker Engine для Linux.

Контейнер не бачить GPU — перевір що NVIDIA Container Toolkit встановлений коректно:

docker run --rm --gpus all nvidia/cuda:12.0-base nvidia-smi

Якщо команда показує GPU — усе в порядку, проблема в іншому. Якщо помилка — перевстанови NVIDIA Container Toolkit.

🎯 Не хочеш термінал? Графічний інтерфейс для Ollama

Не всім зручно працювати в командному рядку. Ollama має два варіанти графічного інтерфейсу — власний десктопний застосунок і сторонній веб-інтерфейс Open WebUI.

Варіант 1: Десктопний застосунок Ollama

З липня 2025 року Ollama має власний десктопний застосунок з графічним інтерфейсом для macOS і Windows. Завантажуєш з сайту, встановлюєш — і отримуєш вікно для чату без терміналу. Підтримує drag-and-drop PDF і зображень для мультимодальних моделей.

Варіант 2: Open WebUI — повноцінний веб-інтерфейс

Open WebUI — це окремий проєкт з відкритим кодом, який дає інтерфейс схожий на ChatGPT: перемикання між моделями, збереження історії чатів, завантаження документів, мультикористувацький режим для команди.

Встановлення через Docker (Ollama повинна бути вже запущена):

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  --name open-webui \
  ghcr.io/open-webui/open-webui:main

Після запуску відкрий http://localhost:3000 у браузері.

При першому вході потрібно створити обліковий запис адміністратора — це локальний акаунт, дані нікуди не відправляються.

Детальніше про налаштування і функції Open WebUI — у статті Ollama + Open WebUI: локальний ChatGPT у браузері.

🎯 Перевірка: три команди щоб переконатись що все працює

Після встановлення (будь-яким способом) виконай три перевірки, щоб переконатись що Ollama готова до роботи.

1. Версія Ollama

ollama --version

Очікуваний результат: ollama version 0.6.x (або новіша).

2. Список моделей

ollama list

Якщо ще не завантажував моделі — список буде порожнім. Це нормально — моделі з'являться після першого ollama pull.

3. API-відповідь сервера

curl http://localhost:11434

Очікуваний результат: Ollama is running. Ця перевірка підтверджує що сервер працює і API доступний на порту 11434.

Усі три перевірки пройшли? Ollama встановлена і готова до роботи. Переходимо до завантаження першої моделі.

Як встановити Ollama на Mac, Windows і Linux: повний гайд 2026

🎯 Перша модель: завантаження і перший запит

Ollama встановлена, сервер працює — час завантажити модель і поставити їй перше питання.

Крок 1: Завантаження моделі

ollama pull llama3.2

Llama 3.2 — легка модель від Meta з 3B параметрами (~2 ГБ). Вона оптимізована для edge-пристроїв і запуститься навіть на комп'ютері з 8 ГБ RAM. Ідеальний вибір для першого знайомства з локальним AI.

Завантаження займе 1–5 хвилин залежно від швидкості інтернету. Якщо з'єднання перерветься — повтори команду, завантаження продовжиться з місця зупинки.

Крок 2: Запуск і перший запит

ollama run llama3.2

Відкриється інтерактивний чат у терміналі. Напиши будь-що, наприклад:

>>> Що таке Ollama? Відповідай українською.

Модель згенерує відповідь прямо у терміналі. Вітаю — AI працює локально на твоєму комп'ютері, без хмари і без підписок!

Крок 3: Вихід з чату

Щоб вийти з інтерактивного режиму:

>>> /bye

Хочеш потужнішу модель?

Llama 3.2 (3B) — це модель початкового рівня. Якщо у тебе достатньо RAM і хочеш кращої якості, спробуй:

Модель Розмір RAM Для чого
llama3.2:1b ~1.3 ГБ 4+ ГБ Мінімальна модель, максимальна швидкість
llama3.2 ~2 ГБ 8+ ГБ Базова модель для знайомства
llama3.1:8b ~5 ГБ 16+ ГБ Якісна модель для щоденних задач
mistral ~4.1 ГБ 12+ ГБ Добре працює з текстом і інструкціями
deepseek-r1:8b ~5 ГБ 16+ ГБ Складне міркування і код
qwen2.5-coder:7b ~4.7 ГБ 16+ ГБ Програмування, автодоповнення коду

Завантажити будь-яку модель: ollama pull назва_моделі. Повний каталог моделей — ollama.com/search.

Детальне порівняння моделей з рекомендаціями по задачах — у статті Топ-10 моделей Ollama у 2026: яку вибрати.

Корисні команди для старту

Команда Що робить
ollama pull llama3.2 Завантажити модель
ollama run llama3.2 Запустити інтерактивний чат з моделлю
ollama list Показати всі завантажені моделі
ollama ps Показати запущені зараз моделі
ollama show llama3.2 Детальна інформація про модель
ollama rm llama3.2 Видалити модель і звільнити місце на диску
ollama cp llama3.2 my-model Скопіювати модель під новим ім'ям

❓ Часті питання (FAQ)

Чи потрібні права адміністратора для встановлення?

На macOS і Windows — ні. Ollama встановлюється у домашню директорію без зміни системних файлів. На Linux — потрібен sudo для встановлення через скрипт, але після цього Ollama працює як звичайний systemd-сервіс.

Скільки місця на диску займають моделі?

Програма — близько 4 ГБ. Кожна модель — від 1 до 50+ ГБ залежно від розміру і квантизації. Перша модель Llama 3.2 (3B) займає ~2 ГБ. Моделі зберігаються у ~/.ollama/models (macOS/Linux) або C:\Users\ІМ'Я\.ollama (Windows). Шлях можна змінити через змінну середовища OLLAMA_MODELS.

Ollama працює у фоні після встановлення?

На macOS — працює у фоні коли запущена (іконка у menu bar). На Windows — стартує при завантаженні системи (іконка у системному треї). На Linux — зареєстрована як systemd-сервіс. Це потрібно щоб API на порту 11434 був завжди доступний для запитів.

Чи можна встановити декілька моделей одночасно?

Так. Завантажуй стільки моделей, скільки дозволяє місце на диску. Перемикайся між ними: ollama run llama3.2 або ollama run mistral. Видалити непотрібну — ollama rm назва_моделі.

Як оновити Ollama до нової версії?

macOS — завантаж нову версію з ollama.com і встанови поверх поточної. Windows — так само, або winget upgrade Ollama.Ollama. Linux — повтори команду: curl -fsSL https://ollama.com/install.sh | sh. Моделі залишаються на місці — перезавантажувати їх не потрібно.

Модель генерує відповіді дуже повільно — що робити?

Перевір чи використовується GPU: ollama ps покаже де працює модель. Якщо GPU не активний — оновіть драйвер (NVIDIA 550+). Якщо GPU немає — спробуй меншу модель (llama3.2:1b). Також HDD значно повільніший за SSD при завантаженні моделі у пам'ять — різниця в 3–5 разів.

Ollama збирає мої дані?

Ні. Ollama — відкритий проєкт під ліцензією MIT. Усі запити обробляються локально на твоєму комп'ютері. Після завантаження моделі інтернет не потрібен і жодні дані не відправляються назовні.

Чи можна використовувати Ollama без терміналу?

Так. Десктопний застосунок Ollama (macOS і Windows, з липня 2025) має графічний інтерфейс для чату. Також можна встановити Open WebUI — веб-інтерфейс у стилі ChatGPT, який працює у браузері на localhost:3000.

Чи підтримує Ollama українську мову?

Залежить від моделі. Llama 3.2 і Mistral розуміють і генерують українською, хоча якість нижча ніж англійською. Для кращої якості українською спробуй llama3.1:8b або qwen2.5:7b — ці моделі тренувались на ширшому наборі мультимовних даних.

✅ Висновки

Встановлення Ollama у 2026 році — це 5–10 хвилин незалежно від платформи. Одна команда в терміналі або один інсталятор — і ти маєш повноцінний AI на своєму комп'ютері.

Коротко по платформах:

  • macOS: найпростіший досвід, особливо на Apple Silicon. Завантажив з сайту — перетягнув в Applications — працює. GPU-прискорення автоматичне.
  • Windows: повна підтримка з CUDA-прискоренням. PowerShell-скрипт, .exe-інсталятор або winget — на вибір. Права адміністратора не потрібні.
  • Linux: одна команда curl — і готово. Автоматичний systemd-сервіс. Ідеально для серверного розгортання.
  • Docker: універсальний варіант для будь-якої ОС і для продакшн-деплою. Але на macOS у Docker немає GPU-прискорення.

Після встановлення — завантаж першу модель (ollama pull llama3.2) і зроби перший запит. Далі можна рухатись глибше: вибрати оптимальну модель під задачу, налаштувати автодоповнення коду у VS Code або підняти повноцінний веб-інтерфейс Open WebUI.

📎 Джерела

  1. Офіційна документація Ollama
  2. Ollama для Windows
  3. Ollama GitHub (MIT License)
  4. Ollama Blog: Llama 3.2
  5. SitePoint: Ollama Setup Guide 2026
  6. Open WebUI GitHub
  7. NVIDIA Container Toolkit
  8. Ollama Model Library

Останні статті

Читайте більше цікавих матеріалів

Чому Google відключив медичний AI: архітектурний розбір збою RAG

Чому Google відключив медичний AI: архітектурний розбір збою RAG

Google тихо відкотив функцію What People Suggest для медичних запитів. Офіційне формулювання — «якість відповідей». Але за цим стоїть конкретна архітектурна проблема: retrieval-система витягала семантично схожі, але клінічно несумісні фрагменти — і модель...

Як встановити Ollama на Mac, Windows і Linux: повний гайд 2026

Як встановити Ollama на Mac, Windows і Linux: повний гайд 2026

ChatGPT і Claude працюють через браузер — відкрив вкладку і пишеш. Ollama працює інакше: спочатку встановлюєш програму на комп'ютер, потім завантажуєш модель — і після цього AI працює локально, без інтернету і без підписок. Увесь процес займає 5–10 хвилин. Ця...

Bitchat, Briar і Meshtastic: три підходи до mesh-комунікацій без інтернету

Bitchat, Briar і Meshtastic: три підходи до mesh-комунікацій без інтернету

Коли інтернет відключають — навмисно чи через катастрофу — традиційні месенджери перестають працювати. Три проекти пропонують різні відповіді на одне питання: як спілкуватись без інфраструктури?Спойлер: Bitchat, Briar і Meshtastic — не конкуренти, а три архітектурні моделі з різними компромісами...

Як працює Bitchat: архітектура Bluetooth-mesh месенджера

Як працює Bitchat: архітектура Bluetooth-mesh месенджера

Більшість месенджерів побудовані за одною схемою: ваш пристрій → сервер компанії → пристрій співрозмовника. Bitchat робить це інакше — повідомлення передається безпосередньо між смартфонами через Bluetooth, без жодного сервера посередині.Спойлер: це можливо завдяки комбінації BLE mesh і протоколу...

Bitchat  месенджер без інтернету, який працює через Bluetooth-мережу

Bitchat месенджер без інтернету, який працює через Bluetooth-мережу

У липні 2025 року Джек Дорсі — засновник Twitter і компанії Block — оголосив відкритий месенджер, який працює без інтернету та без серверів. Він передає повідомлення через Bluetooth між пристроями поруч. Ця стаття пояснює, що це таке, і в яких ситуаціях це може бути корисним.📚 Зміст статті📌 Що...

Ollama у 2026 що це таке і чому розробники масово переходять на локальний AI

Ollama у 2026 що це таке і чому розробники масово переходять на локальний AI

ChatGPT і Claude — зручні інструменти. Але вони працюють у хмарі: твої запити обробляються на зовнішніх серверах, а доступ до них коштує $20 на місяць і вимагає інтернету. Ollama вирішує це інакше: модель запускається прямо на твоєму комп'ютері. Без підписки, без інтернету...