Đây là ứng dụng Windows có tên ChatLLM Web có bản phát hành mới nhất có thể được tải xuống dưới dạng v1.0.0.zip. Nó có thể được chạy trực tuyến trong nhà cung cấp dịch vụ lưu trữ miễn phí OnWorks dành cho máy trạm.
Tải xuống và chạy trực tuyến ứng dụng này có tên ChatLLM Web với OnWorks miễn phí.
Làm theo các hướng dẫn sau để chạy ứng dụng này:
- 1. Đã tải ứng dụng này xuống PC của bạn.
- 2. Nhập vào trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 3. Tải lên ứng dụng này trong trình quản lý tệp như vậy.
- 4. Khởi động bất kỳ trình giả lập trực tuyến OS OnWorks nào từ trang web này, nhưng trình giả lập trực tuyến Windows tốt hơn.
- 5. Từ Hệ điều hành Windows OnWorks bạn vừa khởi động, hãy truy cập trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 6. Tải xuống ứng dụng và cài đặt nó.
- 7. Tải xuống Wine từ kho phần mềm phân phối Linux của bạn. Sau khi cài đặt, bạn có thể nhấp đúp vào ứng dụng để chạy chúng với Wine. Bạn cũng có thể thử PlayOnLinux, một giao diện đẹp mắt trên Wine sẽ giúp bạn cài đặt các chương trình và trò chơi phổ biến của Windows.
Wine là một cách để chạy phần mềm Windows trên Linux, nhưng không cần Windows. Wine là một lớp tương thích Windows mã nguồn mở có thể chạy các chương trình Windows trực tiếp trên bất kỳ máy tính để bàn Linux nào. Về cơ bản, Wine đang cố gắng triển khai lại đủ Windows từ đầu để nó có thể chạy tất cả các ứng dụng Windows đó mà không thực sự cần đến Windows.
MÀN HÌNH
Ad
ChatLLM Web
MÔ TẢ
Trò chuyện với LLM như Vicuna hoàn toàn trong trình duyệt của bạn với WebGPU, an toàn, riêng tư và không cần máy chủ. Được cung cấp bởi web-llm. Để sử dụng ứng dụng này, bạn cần có trình duyệt hỗ trợ WebGPU, chẳng hạn như Chrome 113 hoặc Chrome Canary. Phiên bản Chrome 112 không được hỗ trợ. Bạn sẽ cần một GPU có bộ nhớ khoảng 6.4GB. Nếu GPU của bạn có ít bộ nhớ hơn, ứng dụng sẽ vẫn chạy nhưng thời gian phản hồi sẽ chậm hơn. Lần đầu tiên sử dụng ứng dụng, bạn sẽ cần tải xuống mô hình. Đối với mẫu Vicuna-7b mà chúng tôi hiện đang sử dụng, dung lượng tải xuống là khoảng 4GB. Sau lần tải xuống đầu tiên, mô hình sẽ được tải từ bộ đệm của trình duyệt để sử dụng nhanh hơn.
Tính năng
- Mọi thứ chạy bên trong trình duyệt không có sự hỗ trợ của máy chủ và được tăng tốc bằng WebGPU
- Mô hình chạy trong webworker, đảm bảo rằng nó không chặn giao diện người dùng và mang lại trải nghiệm liền mạch
- Dễ dàng triển khai miễn phí chỉ với một cú nhấp chuột trên Vercel trong vòng chưa đầy 1 phút, sau đó bạn sẽ có được Web ChatLLM của riêng mình
- Bộ nhớ đệm mô hình được hỗ trợ, vì vậy bạn chỉ cần tải xuống mô hình một lần
- Trò chuyện nhiều cuộc trò chuyện, với tất cả dữ liệu được lưu trữ cục bộ trong trình duyệt để đảm bảo quyền riêng tư
- Hỗ trợ đánh dấu và phản hồi trực tuyến: toán học, tô sáng mã, v.v.
Ngôn ngữ lập trình
JavaScript
Danh Mục
Đây là một ứng dụng cũng có thể được tải xuống từ https://sourceforge.net/projects/chatllm-web.mirror/. Nó đã được lưu trữ trên OnWorks để có thể chạy trực tuyến một cách dễ dàng nhất từ một trong các Hệ điều hành miễn phí của chúng tôi.