Đây là ứng dụng Windows có tên LocalAI có bản phát hành mới nhất có thể được tải xuống dưới dạng v1.30.0.zip. Nó có thể được chạy trực tuyến trong nhà cung cấp dịch vụ lưu trữ miễn phí OnWorks dành cho máy trạm.
Tải xuống và chạy trực tuyến ứng dụng này có tên LocalAI với OnWorks miễn phí.
Làm theo các hướng dẫn sau để chạy ứng dụng này:
- 1. Đã tải ứng dụng này xuống PC của bạn.
- 2. Nhập vào trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 3. Tải lên ứng dụng này trong trình quản lý tệp như vậy.
- 4. Khởi động bất kỳ trình giả lập trực tuyến OS OnWorks nào từ trang web này, nhưng trình giả lập trực tuyến Windows tốt hơn.
- 5. Từ Hệ điều hành Windows OnWorks bạn vừa khởi động, hãy truy cập trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 6. Tải xuống ứng dụng và cài đặt nó.
- 7. Tải xuống Wine từ kho phần mềm phân phối Linux của bạn. Sau khi cài đặt, bạn có thể nhấp đúp vào ứng dụng để chạy chúng với Wine. Bạn cũng có thể thử PlayOnLinux, một giao diện đẹp mắt trên Wine sẽ giúp bạn cài đặt các chương trình và trò chơi phổ biến của Windows.
Wine là một cách để chạy phần mềm Windows trên Linux, nhưng không cần Windows. Wine là một lớp tương thích Windows mã nguồn mở có thể chạy các chương trình Windows trực tiếp trên bất kỳ máy tính để bàn Linux nào. Về cơ bản, Wine đang cố gắng triển khai lại đủ Windows từ đầu để nó có thể chạy tất cả các ứng dụng Windows đó mà không thực sự cần đến Windows.
MÀN HÌNH
Ad
AI cục bộ
MÔ TẢ
API tương thích OpenAI cục bộ, tự lưu trữ, hướng đến cộng đồng. Giải pháp thay thế dành cho OpenAI chạy LLM trên phần cứng cấp độ người tiêu dùng. Nguồn mở OpenAI miễn phí thay thế. Không cần GPU. Chạy các mô hình tương thích với ggml, GPTQ, onnx, TF: llama, gpt4all, rwkv, thì thầm, vicuna, koala, gpt4all-j, cerebras, falcon, dolly, starcoding và nhiều mô hình khác. LocalAI là API REST thay thế có thể cài đặt sẵn, tương thích với các thông số API OpenAI để suy luận cục bộ. Nó cho phép bạn chạy LLM (và không chỉ) cục bộ hoặc tại chỗ với phần cứng cấp độ người tiêu dùng, hỗ trợ nhiều dòng mô hình tương thích với định dạng ggml. Không yêu cầu GPU.
Tính năng
- API REST thay thế thả xuống cục bộ, OpenAI
- KHÔNG cần GPU
- Hỗ trợ nhiều mô hình
- Sau khi được tải lần đầu tiên, nó sẽ giữ các mô hình được tải trong bộ nhớ để suy luận nhanh hơn
- Không loại bỏ mà sử dụng các liên kết C++ để suy luận nhanh hơn và hiệu suất tốt hơn
- Bạn sở hữu dữ liệu của mình
Ngôn ngữ lập trình
Go
Categories
Đây là một ứng dụng cũng có thể được tải xuống từ https://sourceforge.net/projects/localai.mirror/. Nó đã được lưu trữ trên OnWorks để có thể chạy trực tuyến một cách dễ dàng nhất từ một trong các Hệ điều hành miễn phí của chúng tôi.