นี่คือแอป Windows ชื่อ LLM Foundry ซึ่งสามารถดาวน์โหลดรุ่นล่าสุดเป็น v0.3.0.zip สามารถทำงานออนไลน์ได้ใน OnWorks ผู้ให้บริการโฮสติ้งฟรีสำหรับเวิร์กสเตชัน
ดาวน์โหลดและเรียกใช้แอปออนไลน์ชื่อ LLM Foundry พร้อม OnWorks ฟรี
ทำตามคำแนะนำเหล่านี้เพื่อเรียกใช้แอปนี้:
- 1. ดาวน์โหลดแอปพลิเคชั่นนี้ในพีซีของคุณ
- 2. เข้าไปที่ file manager https://www.onworks.net/myfiles.php?username=XXXXX ด้วยชื่อผู้ใช้ที่คุณต้องการ
- 3. อัปโหลดแอปพลิเคชันนี้ในตัวจัดการไฟล์ดังกล่าว
- 4. เริ่มโปรแกรมจำลองออนไลน์ของ OS OnWorks จากเว็บไซต์นี้ แต่โปรแกรมจำลองออนไลน์ของ Windows ที่ดีกว่า
- 5. จากระบบปฏิบัติการ Windows ของ OnWorks ที่คุณเพิ่งเริ่มต้น ไปที่ตัวจัดการไฟล์ของเรา https://www.onworks.net/myfiles.php?username=XXXXX พร้อมชื่อผู้ใช้ที่คุณต้องการ
- 6. ดาวน์โหลดแอปพลิเคชั่นและติดตั้ง
- 7. ดาวน์โหลดไวน์จากที่เก็บซอฟต์แวร์ลีนุกซ์ดิสทริบิวชันของคุณ เมื่อติดตั้งแล้ว คุณสามารถดับเบิลคลิกที่แอปเพื่อเรียกใช้แอปด้วย Wine คุณยังสามารถลองใช้ PlayOnLinux ซึ่งเป็นอินเทอร์เฟซแฟนซีบน Wine ที่จะช่วยคุณติดตั้งโปรแกรมและเกมยอดนิยมของ Windows
ไวน์เป็นวิธีเรียกใช้ซอฟต์แวร์ Windows บน Linux แต่ไม่จำเป็นต้องใช้ Windows Wine เป็นเลเยอร์ความเข้ากันได้ของ Windows แบบโอเพ่นซอร์สที่สามารถเรียกใช้โปรแกรม Windows ได้โดยตรงบนเดสก์ท็อป Linux โดยพื้นฐานแล้ว Wine พยายามนำ Windows กลับมาใช้ใหม่ให้เพียงพอตั้งแต่เริ่มต้น เพื่อให้สามารถเรียกใช้แอปพลิเคชัน Windows เหล่านั้นทั้งหมดโดยไม่จำเป็นต้องใช้ Windows จริงๆ
ภาพหน้าจอ
Ad
โรงหล่อ LLM
DESCRIPTION
ขอแนะนำ MPT-7B รายการแรกในซีรี่ส์ Foundation MosaicML ของเรา MPT-7B เป็นหม้อแปลงไฟฟ้าที่ได้รับการฝึกอบรมตั้งแต่เริ่มต้นบนโทเค็นข้อความและโค้ดขนาด 1T เป็นโอเพ่นซอร์ส พร้อมใช้งานเชิงพาณิชย์ และตรงกับคุณภาพของ LLaMA-7B MPT-7B ได้รับการฝึกบนแพลตฟอร์ม MosaicML ใน 9.5 วัน โดยไม่มีการแทรกแซงของมนุษย์ ในราคาประมาณ 200 ดอลลาร์ โมเดลภาษาขนาดใหญ่ (LLM) กำลังเปลี่ยนแปลงโลก แต่สำหรับห้องปฏิบัติการอุตสาหกรรมภายนอกที่มีทรัพยากรเพียงพอ การฝึกอบรมและปรับใช้โมเดลเหล่านี้อาจเป็นเรื่องยากมาก สิ่งนี้นำไปสู่กิจกรรมที่วุ่นวายซึ่งมีศูนย์กลางอยู่ที่ LLM แบบโอเพ่นซอร์ส เช่น ซีรีส์ LLaMA จาก Meta, ซีรีส์ Pythia จาก EleutherAI, ซีรีส์ StableLM จาก StabilityAI และโมเดล OpenLLaMA จาก Berkeley AI Research
คุณสมบัติ
- ได้รับอนุญาตให้ใช้ในเชิงพาณิชย์ (ต่างจาก LLaMA)
- ฝึกฝนกับข้อมูลจำนวนมาก (โทเค็น 1T เช่น LLaMA กับ 300B สำหรับ Pythia, 300B สำหรับ OpenLLaMA และ 800B สำหรับ StableLM)
- เตรียมรับมือกับอินพุตที่ยาวมากด้วย ALiBi (เราฝึกกับอินพุตสูงสุด 65k และสามารถรองรับอินพุตสูงสุด 84k เทียบกับ 2k-4k สำหรับรุ่นโอเพ่นซอร์สอื่นๆ)
- ปรับให้เหมาะสมเพื่อการฝึกอบรมและการอนุมานที่รวดเร็ว (ผ่าน FlashAttention และ FasterTransformer)
- ติดตั้งโค้ดการฝึกอบรมโอเพ่นซอร์สที่มีประสิทธิภาพสูง
- MPT-7B Base เป็นหม้อแปลงแบบถอดรหัสที่มีพารามิเตอร์ 6.7B
ภาษาโปรแกรม
หลาม
หมวดหมู่
นี่คือแอปพลิเคชันที่สามารถดึงข้อมูลจากhttps://sourceforge.net/projects/llm-foundry.mirror/ มีการโฮสต์ไว้ใน OnWorks เพื่อใช้งานออนไลน์ด้วยวิธีที่ง่ายที่สุดจากหนึ่งในระบบปฏิบัติการฟรีของเรา