АнглийскийФранцузскийИспанский

Значок OnWorks

Скачать Web LLM для Windows

Бесплатно загрузите приложение Web LLM для Windows и запустите онлайн-выигрыш Wine в Ubuntu онлайн, Fedora онлайн или Debian онлайн.

Это приложение для Windows под названием Web LLM, последнюю версию которого можно загрузить как v0.2.0.zip. Его можно запустить онлайн на бесплатном хостинг-провайдере OnWorks для рабочих станций.

Загрузите и бесплатно запустите онлайн это приложение под названием Web LLM с OnWorks.

Следуйте этим инструкциям, чтобы запустить это приложение:

- 1. Загрузил это приложение на свой компьютер.

- 2. Введите в нашем файловом менеджере https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.

- 3. Загрузите это приложение в такой файловый менеджер.

- 4. Запустите любой онлайн-эмулятор OS OnWorks с этого сайта, но лучше онлайн-эмулятор Windows.

- 5. В только что запущенной ОС Windows OnWorks перейдите в наш файловый менеджер https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.

- 6. Скачайте приложение и установите его.

- 7. Загрузите Wine из репозиториев программного обеспечения вашего дистрибутива Linux. После установки вы можете дважды щелкнуть приложение, чтобы запустить его с помощью Wine. Вы также можете попробовать PlayOnLinux, необычный интерфейс поверх Wine, который поможет вам установить популярные программы и игры для Windows.

Wine - это способ запустить программное обеспечение Windows в Linux, но без Windows. Wine - это уровень совместимости с Windows с открытым исходным кодом, который может запускать программы Windows непосредственно на любом рабочем столе Linux. По сути, Wine пытается заново реализовать Windows с нуля, чтобы можно было запускать все эти Windows-приложения, фактически не нуждаясь в Windows.

СКРИНШОТЫ

Ad


Веб LLM


ОПИСАНИЕ

WebLLM — это модульный настраиваемый пакет JavaScript, который переносит чаты языковых моделей непосредственно в веб-браузеры с аппаратным ускорением. Все работает внутри браузера без поддержки сервера и ускоряется с помощью WebGPU. Мы можем предложить множество интересных возможностей для создания помощников с искусственным интеллектом для всех и обеспечения конфиденциальности, одновременно наслаждаясь ускорением графического процессора. WebLLM предлагает минималистичный и модульный интерфейс для доступа к чат-боту в браузере. Сам пакет WebLLM не имеет пользовательского интерфейса и спроектирован по модульному принципу, позволяющему подключаться к любому из компонентов пользовательского интерфейса. В следующем фрагменте кода показан простой пример создания потокового ответа на веб-странице.



Особенности

  • WebLLM поставляется с поддержкой API для WebWorker, поэтому вы можете подключить процесс генерации к отдельному рабочему потоку, чтобы вычисления в веб-воркере не нарушали пользовательский интерфейс.
  • Вы можете найти полный пример приложения для чата в example/simple-chat.
  • WebLLM работает как сопутствующий проект MLC LLM.
  • Он повторно использует артефакт модели и строит поток MLC LLM.
  • Сборка пакета WebLLM из исходного кода
  • Пакет WebLLM — это веб-среда выполнения, разработанная для MLC LLM.


Язык программирования

TypeScript


Категории

Большие языковые модели (LLM)

Это приложение также можно загрузить с https://sourceforge.net/projects/web-llm.mirror/. Он размещен в OnWorks, чтобы его можно было проще запускать в Интернете из одной из наших бесплатных операционных систем.


Бесплатные серверы и рабочие станции

Скачать приложения для Windows и Linux

Команды Linux

Ad