Это приложение для Windows под названием LocalAI, последнюю версию которого можно загрузить как v1.30.0.zip. Его можно запустить онлайн на бесплатном хостинг-провайдере OnWorks для рабочих станций.
Загрузите и запустите онлайн это приложение под названием LocalAI с помощью OnWorks бесплатно.
Следуйте этим инструкциям, чтобы запустить это приложение:
- 1. Загрузил это приложение на свой компьютер.
- 2. Введите в нашем файловом менеджере https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.
- 3. Загрузите это приложение в такой файловый менеджер.
- 4. Запустите любой онлайн-эмулятор OS OnWorks с этого сайта, но лучше онлайн-эмулятор Windows.
- 5. В только что запущенной ОС Windows OnWorks перейдите в наш файловый менеджер https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.
- 6. Скачайте приложение и установите его.
- 7. Загрузите Wine из репозиториев программного обеспечения вашего дистрибутива Linux. После установки вы можете дважды щелкнуть приложение, чтобы запустить его с помощью Wine. Вы также можете попробовать PlayOnLinux, необычный интерфейс поверх Wine, который поможет вам установить популярные программы и игры для Windows.
Wine - это способ запустить программное обеспечение Windows в Linux, но без Windows. Wine - это уровень совместимости с Windows с открытым исходным кодом, который может запускать программы Windows непосредственно на любом рабочем столе Linux. По сути, Wine пытается заново реализовать Windows с нуля, чтобы можно было запускать все эти Windows-приложения, фактически не нуждаясь в Windows.
СКРИНШОТЫ:
Локальный AI
ОПИСАНИЕ:
Самостоятельный, управляемый сообществом, локальный API, совместимый с OpenAI. Прямая замена OpenAI, запускающего LLM на оборудовании потребительского уровня. Бесплатная альтернатива OpenAI с открытым исходным кодом. Графический процессор не требуется. Работает с ggml, GPTQ, onnx, TF-совместимыми моделями: лама, gpt4all, rwkv, шепот, викунья, коала, gpt4all-j, cerebras, falcon, Dolly, Starcoder и многие другие. LocalAI — это замена REST API, совместимая со спецификациями OpenAI API для локального вывода. Он позволяет запускать LLM (и не только) локально или локально на оборудовании потребительского уровня, поддерживая несколько семейств моделей, совместимых с форматом ggml. Не требует графического процессора.
Особенности
- Локальный альтернативный REST API OpenAI
- НЕ требуется графический процессор
- Поддерживает несколько моделей
- После первой загрузки модели сохраняются в памяти для более быстрого вывода.
- Не использует оболочки, но использует привязки C++ для более быстрого вывода и повышения производительности.
- Вы владеете своими данными
Язык программирования
Go
Категории
Это приложение также можно загрузить с https://sourceforge.net/projects/localai.mirror/. Он размещен в OnWorks, чтобы его можно было проще запускать в Интернете из одной из наших бесплатных операционных систем.