Это приложение для Linux под названием Web LLM, последнюю версию которого можно загрузить как v0.2.0.zip. Его можно запустить онлайн в бесплатном хостинг-провайдере OnWorks для рабочих станций.
Загрузите и бесплатно запустите онлайн это приложение под названием Web LLM с OnWorks.
Следуйте этим инструкциям, чтобы запустить это приложение:
- 1. Загрузил это приложение на свой компьютер.
- 2. Введите в нашем файловом менеджере https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.
- 3. Загрузите это приложение в такой файловый менеджер.
- 4. Запустите онлайн-эмулятор OnWorks Linux или Windows или онлайн-эмулятор MACOS с этого веб-сайта.
- 5. В только что запущенной ОС OnWorks Linux перейдите в наш файловый менеджер https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.
- 6. Скачайте приложение, установите его и запустите.
СКРИНШОТЫ
Ad
Веб LLM
ОПИСАНИЕ
WebLLM — это модульный настраиваемый пакет JavaScript, который переносит чаты языковых моделей непосредственно в веб-браузеры с аппаратным ускорением. Все работает внутри браузера без поддержки сервера и ускоряется с помощью WebGPU. Мы можем предложить множество интересных возможностей для создания помощников с искусственным интеллектом для всех и обеспечения конфиденциальности, одновременно наслаждаясь ускорением графического процессора. WebLLM предлагает минималистичный и модульный интерфейс для доступа к чат-боту в браузере. Сам пакет WebLLM не имеет пользовательского интерфейса и спроектирован по модульному принципу, позволяющему подключаться к любому из компонентов пользовательского интерфейса. В следующем фрагменте кода показан простой пример создания потокового ответа на веб-странице.
Особенности
- WebLLM поставляется с поддержкой API для WebWorker, поэтому вы можете подключить процесс генерации к отдельному рабочему потоку, чтобы вычисления в веб-воркере не нарушали пользовательский интерфейс.
- Вы можете найти полный пример приложения для чата в example/simple-chat.
- WebLLM работает как сопутствующий проект MLC LLM.
- Он повторно использует артефакт модели и строит поток MLC LLM.
- Сборка пакета WebLLM из исходного кода
- Пакет WebLLM — это веб-среда выполнения, разработанная для MLC LLM.
Язык программирования
TypeScript
Категории
Это приложение также можно загрузить с https://sourceforge.net/projects/web-llm.mirror/. Он размещен в OnWorks, чтобы его можно было проще запускать в Интернете из одной из наших бесплатных операционных систем.