นี่คือแอป Windows ชื่อ GPT2 สำหรับหลายภาษา ซึ่งสามารถดาวน์โหลดรุ่นล่าสุดเป็น V1.0Release.zip สามารถเรียกใช้ออนไลน์ได้ใน OnWorks ผู้ให้บริการโฮสต์ฟรีสำหรับเวิร์กสเตชัน
ดาวน์โหลดและเรียกใช้แอปนี้ทางออนไลน์ชื่อ GPT2 สำหรับหลายภาษาด้วย OnWorks ฟรี
ทำตามคำแนะนำเหล่านี้เพื่อเรียกใช้แอปนี้:
- 1. ดาวน์โหลดแอปพลิเคชั่นนี้ในพีซีของคุณ
- 2. เข้าไปที่ file manager https://www.onworks.net/myfiles.php?username=XXXXX ด้วยชื่อผู้ใช้ที่คุณต้องการ
- 3. อัปโหลดแอปพลิเคชันนี้ในตัวจัดการไฟล์ดังกล่าว
- 4. เริ่มโปรแกรมจำลองออนไลน์ของ OS OnWorks จากเว็บไซต์นี้ แต่โปรแกรมจำลองออนไลน์ของ Windows ที่ดีกว่า
- 5. จากระบบปฏิบัติการ Windows ของ OnWorks ที่คุณเพิ่งเริ่มต้น ไปที่ตัวจัดการไฟล์ของเรา https://www.onworks.net/myfiles.php?username=XXXXX พร้อมชื่อผู้ใช้ที่คุณต้องการ
- 6. ดาวน์โหลดแอปพลิเคชั่นและติดตั้ง
- 7. ดาวน์โหลดไวน์จากที่เก็บซอฟต์แวร์ลีนุกซ์ดิสทริบิวชันของคุณ เมื่อติดตั้งแล้ว คุณสามารถดับเบิลคลิกที่แอปเพื่อเรียกใช้แอปด้วย Wine คุณยังสามารถลองใช้ PlayOnLinux ซึ่งเป็นอินเทอร์เฟซแฟนซีบน Wine ที่จะช่วยคุณติดตั้งโปรแกรมและเกมยอดนิยมของ Windows
ไวน์เป็นวิธีเรียกใช้ซอฟต์แวร์ Windows บน Linux แต่ไม่จำเป็นต้องใช้ Windows Wine เป็นเลเยอร์ความเข้ากันได้ของ Windows แบบโอเพ่นซอร์สที่สามารถเรียกใช้โปรแกรม Windows ได้โดยตรงบนเดสก์ท็อป Linux โดยพื้นฐานแล้ว Wine พยายามนำ Windows กลับมาใช้ใหม่ให้เพียงพอตั้งแต่เริ่มต้น เพื่อให้สามารถเรียกใช้แอปพลิเคชัน Windows เหล่านั้นทั้งหมดโดยไม่จำเป็นต้องใช้ Windows จริงๆ
ภาพหน้าจอ
Ad
GPT2 สำหรับหลายภาษา
DESCRIPTION
เพียงคลิก 2 ครั้ง (ไม่รวมกระบวนการตรวจสอบสิทธิ์ของ Colab) การสาธิตโมเดลภาษาจีนที่ได้รับการฝึกล่วงหน้า 1.5B ก็พร้อมใช้งานแล้ว เนื้อหาในที่เก็บข้อมูลนี้มีวัตถุประสงค์เพื่อการวิจัยทางวิชาการ และเราไม่ได้ให้ข้อคิดเห็นที่เป็นข้อสรุปใดๆ การวิจัยรองรับ Cloud TPUs จาก TensorFlow Research Cloud (TFRC) สคริปต์รถไฟ GPT2 แบบง่ายของ Google (อ้างอิงจาก Grover ซึ่งรองรับ TPU) ported bert tokenizer รองรับคลังข้อมูลหลายภาษา โมเดลจีนสำเร็จรูป 1.5B GPT2 (~15G คลังข้อมูล ขั้นละ 10w) การสาธิต Colab แบบรวมแบตเตอรี่ 1.5B GPT2 โมเดลจีนที่ได้รับการฝึกฝนล่วงหน้า (คลังข้อมูลประมาณ 30G, ขั้นละ 22w)
คุณสมบัติ
- สคริปต์รถไฟ GPT2 แบบง่าย (อ้างอิงจาก Grover ซึ่งรองรับ TPU)
- ported bert tokenizer รองรับคลังข้อมูลหลายภาษา
- โมเดลจีนสำเร็จรูป 1.5B GPT2 ( ~15G คลังข้อมูล ขั้นละ 10 วัตต์)
- การสาธิต Colab แบบรวมแบตเตอรี่
- โมเดลจีนสำเร็จรูป 1.5B GPT2 ( ~30G คลังข้อมูล ขั้นละ 22 วัตต์)
- การวิจัยรองรับ Cloud TPU จาก TensorFlow Research Cloud (TFRC) ของ Google
ภาษาโปรแกรม
หลาม
หมวดหมู่
นี่เป็นแอปพลิเคชันที่สามารถเรียกได้จาก https://sourceforge.net/projects/gpt2-for-multiple-lang.mirror/ มีการโฮสต์ใน OnWorks เพื่อให้ทำงานออนไลน์ด้วยวิธีที่ง่ายที่สุดจากหนึ่งในระบบปฏิบัติการฟรีของเรา