Локальний AI
Запускайте підтримувані локальні AI-моделі безпосередньо на пристрої та спілкуйтеся з ними (доступність залежить від пристрою).
Огляд
Локальний AI надає інтерфейс чату на пристрої з двома бекендами:
- Apple Foundation (коли доступний на вашій ОС/пристрої)
- LLM.swift (використовує локально збережені файли моделей)
Також відображається поточне використання CPU та пам’яті, щоб ви могли бачити ресурси, які споживає завантаження та робота моделі.
Зміст
- Швидкий старт
- Панель керування
- Бекенди
- Бібліотека моделей
- Завантаження та вивантаження
- Чат
- Знімок продуктивності
- Експорт розмови
- Примітки та обмеження
Швидкий старт
- Відкрийте Інструменти -> Local AI.
- Виберіть бекенд (Apple Foundation або LLM.swift).
- Натисніть Завантажити.
- Введіть запит і надішліть його.
Панель керування
У верхній частині екрана чату панель керування має три стани розгортання:
Компактний (за замовчуванням)
Відображає:
- Статус моделі (не завантажено/завантажується/завантажено/недоступно)
- Меню вибору бекенду
- Вибір моделі (тільки для LLM.swift)
- Кнопки Завантажити / Вивантажити
Середній розгорнутий
Натисніть на панель керування, щоб розгорнути її та побачити додаткові індикатори:
- Поточний індикатор використання CPU
- Поточний індикатор використання пам’яті
Повністю розгорнутий
Натисніть ще раз, щоб відкрити повний екран деталей із трьома картками:
- Картка статусу моделі — показує назву бекенду, назву моделі та розмір файлу (для моделей LLM.swift). Містить меню вибору бекенду та моделі.
- Картка продуктивності — порівнює «Базовий рівень» і «Поточний» стан використання CPU та пам’яті. Натисніть Зберегти базовий рівень, щоб зафіксувати поточні значення, і спостерігайте, як змінюється споживання ресурсів під час завантаження та роботи моделі.
- Картка дій — містить Завантажити модель / Вивантажити модель, Нова розмова (очищає повідомлення та перезавантажує), Керування моделями (відкриває Бібліотеку моделей) та Експорт розмови.
Панель керування запам’ятовує свій стан розгортання між сесіями.
Бекенди
Apple Foundation
Apple Foundation використовує вбудований фреймворк Apple FoundationModels. Потрібна iOS 26.0+ або visionOS 26.0+ і сумісне обладнання. Якщо фреймворк недоступний на вашому пристрої, Lirum відобразить повідомлення про недоступність. Доступність перевіряється щоразу, коли додаток переходить у передній план.
LLM.swift
LLM.swift запускає файли моделей GGUF локально на вашому пристрої. Використовується шаблон повідомлень ChatML, а відповіді транслюються токен за токеном у міру генерації.
Технічні деталі:
- Історія розмови зберігається з лімітом у 8 реплік — старіші повідомлення видаляються для збереження контексту.
- Відповіді мають тайм-аут 2 хвилини. Якщо модель не видає результату за цей час, відображається помилка.
- Спеціальні токени моделі (наприклад, маркери
<|...|>) автоматично видаляються з відповідей. - У разі помилки кешу KV Lirum показує діагностичне повідомлення.
Бібліотека моделей
Відкрийте Бібліотеку моделей через меню панелі інструментів, щоб завантажувати, керувати та вибирати моделі. Бібліотека має три розділи: