link

Блог Дмитра

Спробував локально запускати ШІ

Пару тижнів тому спілкувався із приятелем, і той спитав, чи я юзав ШІ у вигляді великих мовних моделей (LLM). Я сказав, що трохи грався з OpenAI, і вцілому був приємно вражений відповідями на свої запити (мене легко приємно вразити), і ще пробував локально запускати Ollama. Після чого дізнався, що до Ollam'и є ще і веб-інтерфейс. Я спробував його локально поставити, і воно досить прикольно працює.

Оскільки я досить давно полюю на цікаві ноутбуки, і перейшов з Thinkpad P50 на P1 gen1 (і це був прям крутий апгрейд, як на мене), я вирішив на ньому все це запустити, бо ресурси дозволяють.

Десь у четвертий раз перевстановив систему (бо "були причини", хоч і не суттєві), і нарешті дійшли руки поставити Докер, WSL2 та Ollama + OpenWebUI.

Про Докер та WSL писати не буду, бо це вже досить просто ставиться.

Так само, як і Ollama - у терміналі WSL виконується команда для інсталяції:

curl -fsSL https://ollama.com/install.sh | sh

І потім запускається мовна модель:

ollama run llama3

Далі запускається докерівський контейнер, який до цього всього під'єднується (але не у WSL - це вже у хост-системі запускається):

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Далі все дуже просто - відкриваємо http://localhost:3000/ та створюємо обліковий запис. Створюємо там новий чат та насолоджуємось не дуже швидким(може і ні - залежить від вашої системи), але локально працюючим ШІ.

Моралі не буде.