Это приложение для Windows под названием llm, последнюю версию которого можно загрузить как llm-cli-x86_64-pc-windows-msvc.zip. Его можно запустить онлайн на бесплатном хостинг-провайдере OnWorks для рабочих станций.
Загрузите и запустите онлайн это приложение под названием llm с помощью OnWorks бесплатно.
Следуйте этим инструкциям, чтобы запустить это приложение:
- 1. Загрузил это приложение на свой компьютер.
- 2. Введите в нашем файловом менеджере https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.
- 3. Загрузите это приложение в такой файловый менеджер.
- 4. Запустите любой онлайн-эмулятор OS OnWorks с этого сайта, но лучше онлайн-эмулятор Windows.
- 5. В только что запущенной ОС Windows OnWorks перейдите в наш файловый менеджер https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.
- 6. Скачайте приложение и установите его.
- 7. Загрузите Wine из репозиториев программного обеспечения вашего дистрибутива Linux. После установки вы можете дважды щелкнуть приложение, чтобы запустить его с помощью Wine. Вы также можете попробовать PlayOnLinux, необычный интерфейс поверх Wine, который поможет вам установить популярные программы и игры для Windows.
Wine - это способ запустить программное обеспечение Windows в Linux, но без Windows. Wine - это уровень совместимости с Windows с открытым исходным кодом, который может запускать программы Windows непосредственно на любом рабочем столе Linux. По сути, Wine пытается заново реализовать Windows с нуля, чтобы можно было запускать все эти Windows-приложения, фактически не нуждаясь в Windows.
СКРИНШОТЫ
Ad
LLM
ОПИСАНИЕ
llm — это экосистема библиотек Rust для работы с большими языковыми моделями, построенная на основе быстрой и эффективной библиотеки GGML для машинного обучения. Основной точкой входа для разработчиков является крейт llm, который содержит базу llm и крейты поддерживаемых моделей. Документация к выпущенной версии доступна на Docs.rs. Для конечных пользователей существует CLI-приложение llm-cli, предоставляющее удобный интерфейс для взаимодействия с поддерживаемыми моделями. Генерация текста может выполняться единовременно на основе подсказки или в интерактивном режиме через режимы REPL или чата. CLI также можно использовать для сериализации (печати) декодированных моделей, квантования файлов GGML или вычисления сложности модели. Его можно загрузить из последней версии GitHub или установить с сайта crates.io.
Особенности
- llm основан на тензорной библиотеке ggml и призван привнести надежность и простоту использования Rust в мир больших языковых моделей.
- Этот проект зависит от Rust v1.65.0 или выше и современного набора инструментов C.
- Библиотека llm разработана с учетом преимуществ аппаратных ускорителей, таких как cuda и metal, для оптимизации производительности.
- Чтобы llm мог использовать эти ускорители, необходимо выполнить некоторые предварительные шаги по настройке.
- Самый простой способ начать работу с llm-cli — загрузить готовый исполняемый файл из выпущенной версии llm.
- По умолчанию сборка llm поддерживает удаленное получение токенизатора из центра моделей Hugging Face.
Язык программирования
Ржавчина
Категории
Это приложение также можно загрузить с https://sourceforge.net/projects/llm.mirror/. Он размещен в OnWorks, чтобы его можно было проще запускать в Интернете из одной из наших бесплатных операционных систем.