Đây là ứng dụng Windows có tên GPT2 cho nhiều ngôn ngữ có bản phát hành mới nhất có thể tải xuống dưới dạng V1.0Release.zip. Nó có thể được chạy trực tuyến trong nhà cung cấp dịch vụ lưu trữ miễn phí OnWorks cho máy trạm.
Tải xuống và chạy trực tuyến ứng dụng này có tên là GPT2 cho nhiều ngôn ngữ với OnWorks miễn phí.
Làm theo các hướng dẫn sau để chạy ứng dụng này:
- 1. Đã tải ứng dụng này xuống PC của bạn.
- 2. Nhập vào trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 3. Tải lên ứng dụng này trong trình quản lý tệp như vậy.
- 4. Khởi động bất kỳ trình giả lập trực tuyến OS OnWorks nào từ trang web này, nhưng trình giả lập trực tuyến Windows tốt hơn.
- 5. Từ Hệ điều hành Windows OnWorks bạn vừa khởi động, hãy truy cập trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 6. Tải xuống ứng dụng và cài đặt nó.
- 7. Tải xuống Wine từ kho phần mềm phân phối Linux của bạn. Sau khi cài đặt, bạn có thể nhấp đúp vào ứng dụng để chạy chúng với Wine. Bạn cũng có thể thử PlayOnLinux, một giao diện đẹp mắt trên Wine sẽ giúp bạn cài đặt các chương trình và trò chơi phổ biến của Windows.
Wine là một cách để chạy phần mềm Windows trên Linux, nhưng không cần Windows. Wine là một lớp tương thích Windows mã nguồn mở có thể chạy các chương trình Windows trực tiếp trên bất kỳ máy tính để bàn Linux nào. Về cơ bản, Wine đang cố gắng triển khai lại đủ Windows từ đầu để nó có thể chạy tất cả các ứng dụng Windows đó mà không thực sự cần đến Windows.
MÀN HÌNH
Ad
GPT2 cho nhiều ngôn ngữ
MÔ TẢ
Chỉ với 2 lần nhấp (không bao gồm quy trình xác thực Colab), bản demo mô hình Trung Quốc được đào tạo trước 1.5 tỷ đã sẵn sàng hoạt động. Nội dung trong kho lưu trữ này là dành cho mục đích nghiên cứu học thuật và chúng tôi không đưa ra bất kỳ nhận xét mang tính kết luận nào. Nghiên cứu được hỗ trợ với Cloud TPU từ các tập lệnh đào tạo GPT2 được đơn giản hóa của TensorFlow Research Cloud (TFRC) của Google(dựa trên Grover, hỗ trợ TPU). Ported bert tokenizer, tương thích với văn bản đa ngôn ngữ. Mô hình Trung Quốc được đào tạo trước 1.5B GPT2 (~15G kho văn bản, 10w bước). Bản demo Colab đi kèm pin. Mô hình Trung Quốc được đào tạo trước 1.5B GPT2 (~30G kho văn bản, 22w bước).
Tính năng
- Tập lệnh đào tạo GPT2 được đơn giản hóa(dựa trên Grover, hỗ trợ TPU)
- Ported bert tokenizer, tương thích với văn bản đa ngôn ngữ
- Mô hình Trung Quốc được đào tạo trước 1.5B GPT2 ( ~15G kho văn bản, 10w bước )
- Bản demo Colab đi kèm pin
- Mô hình Trung Quốc được đào tạo trước 1.5B GPT2 ( ~30G kho văn bản, 22w bước )
- Nghiên cứu được hỗ trợ với Cloud TPU từ TensorFlow Research Cloud (TFRC) của Google
Ngôn ngữ lập trình
Python
Danh Mục
Đây là một ứng dụng cũng có thể được tìm nạp từ https://sourceforge.net/projects/gpt2-for-multiple-lang.mirror/. Nó đã được lưu trữ trong OnWorks để có thể chạy trực tuyến theo cách dễ dàng nhất từ một trong các Hệ điều hành miễn phí của chúng tôi.