Đây là ứng dụng Windows có tên LLM Foundry có bản phát hành mới nhất có thể được tải xuống dưới dạng v0.3.0.zip. Nó có thể được chạy trực tuyến trong nhà cung cấp dịch vụ lưu trữ miễn phí OnWorks dành cho máy trạm.
Tải xuống và chạy trực tuyến ứng dụng này có tên LLM Foundry with OnWorks miễn phí.
Làm theo các hướng dẫn sau để chạy ứng dụng này:
- 1. Đã tải ứng dụng này xuống PC của bạn.
- 2. Nhập vào trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 3. Tải lên ứng dụng này trong trình quản lý tệp như vậy.
- 4. Khởi động bất kỳ trình giả lập trực tuyến OS OnWorks nào từ trang web này, nhưng trình giả lập trực tuyến Windows tốt hơn.
- 5. Từ Hệ điều hành Windows OnWorks bạn vừa khởi động, hãy truy cập trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 6. Tải xuống ứng dụng và cài đặt nó.
- 7. Tải xuống Wine từ kho phần mềm phân phối Linux của bạn. Sau khi cài đặt, bạn có thể nhấp đúp vào ứng dụng để chạy chúng với Wine. Bạn cũng có thể thử PlayOnLinux, một giao diện đẹp mắt trên Wine sẽ giúp bạn cài đặt các chương trình và trò chơi phổ biến của Windows.
Wine là một cách để chạy phần mềm Windows trên Linux, nhưng không cần Windows. Wine là một lớp tương thích Windows mã nguồn mở có thể chạy các chương trình Windows trực tiếp trên bất kỳ máy tính để bàn Linux nào. Về cơ bản, Wine đang cố gắng triển khai lại đủ Windows từ đầu để nó có thể chạy tất cả các ứng dụng Windows đó mà không thực sự cần đến Windows.
MÀN HÌNH
Ad
Xưởng đúc LLM
MÔ TẢ
Giới thiệu MPT-7B, mục đầu tiên trong Chuỗi nền tảng khảm ML của chúng tôi. MPT-7B là một máy biến áp được đào tạo từ đầu trên mã thông báo và mã 1T. Nó là nguồn mở, có sẵn cho mục đích sử dụng thương mại và phù hợp với chất lượng của LLaMA-7B. MPT-7B đã được đào tạo trên nền tảng KhảmML trong 9.5 ngày mà không cần sự can thiệp của con người với chi phí ~ 200 nghìn đô la. Các mô hình ngôn ngữ lớn (LLM) đang thay đổi thế giới, nhưng đối với những người ở bên ngoài các phòng thí nghiệm công nghiệp có nguồn lực tốt, việc đào tạo và triển khai các mô hình này có thể cực kỳ khó khăn. Điều này đã dẫn đến một loạt hoạt động tập trung vào LLM nguồn mở, chẳng hạn như chuỗi LLaMA từ Meta, chuỗi Pythia từ EleutherAI, chuỗi StableLM từ StabilityAI và mô hình OpenLLaMA từ Berkeley AI Research.
Tính năng
- Được cấp phép cho mục đích thương mại (không giống như LLaMA)
- Được đào tạo trên một lượng lớn dữ liệu (mã thông báo 1T như LLaMA so với 300B cho Pythia, 300B cho OpenLLaMA và 800B cho StableLM)
- Sẵn sàng xử lý các đầu vào cực dài nhờ ALiBi (chúng tôi đã đào tạo về tối đa 65 nghìn đầu vào và có thể xử lý lên tới 84k so với 2k-4k đối với các mô hình nguồn mở khác)
- Tối ưu hóa để đào tạo và suy luận nhanh (thông qua FlashAttention và FasterTransformer)
- Được trang bị mã đào tạo nguồn mở hiệu quả cao
- MPT-7B Base là máy biến áp kiểu giải mã với thông số 6.7B
Ngôn ngữ lập trình
Python
Danh Mục
Đây là một ứng dụng cũng có thể được tải xuống từ https://sourceforge.net/projects/llm-foundry.mirror/. Nó đã được lưu trữ trên OnWorks để có thể chạy trực tuyến một cách dễ dàng nhất từ một trong các Hệ điều hành miễn phí của chúng tôi.