在设备上运行支持的本地 AI 模型并与其对话(可用性因设备而异)。
本地 AI:带有紧凑控制栏的聊天视图。
本地 AI 提供设备端聊天界面,支持两种后端:
- Apple Foundation(在您的操作系统/设备支持时可用)
- LLM.swift(使用本地存储的模型文件)
它还会显示实时 CPU 和内存使用情况,让您了解加载和运行模型的资源消耗。
快速入门
- 打开 工具 -> 本地 AI。
- 选择后端(Apple Foundation 或 LLM.swift)。
- 点击 加载。
- 输入提示词并发送。
控制栏
在聊天界面顶部,控制栏有三种展开状态:
紧凑模式(默认)