นี่คือแอป Windows ชื่อ llama2-webui ซึ่งสามารถดาวน์โหลดรุ่นล่าสุดเป็น v0.1.14Release.zip สามารถทำงานออนไลน์ได้ใน OnWorks ผู้ให้บริการโฮสติ้งฟรีสำหรับเวิร์กสเตชัน
ดาวน์โหลดและเรียกใช้แอปออนไลน์ชื่อ llama2-webui พร้อม OnWorks ฟรี
ทำตามคำแนะนำเหล่านี้เพื่อเรียกใช้แอปนี้:
- 1. ดาวน์โหลดแอปพลิเคชั่นนี้ในพีซีของคุณ
- 2. เข้าไปที่ file manager https://www.onworks.net/myfiles.php?username=XXXXX ด้วยชื่อผู้ใช้ที่คุณต้องการ
- 3. อัปโหลดแอปพลิเคชันนี้ในตัวจัดการไฟล์ดังกล่าว
- 4. เริ่มโปรแกรมจำลองออนไลน์ของ OS OnWorks จากเว็บไซต์นี้ แต่โปรแกรมจำลองออนไลน์ของ Windows ที่ดีกว่า
- 5. จากระบบปฏิบัติการ Windows ของ OnWorks ที่คุณเพิ่งเริ่มต้น ไปที่ตัวจัดการไฟล์ของเรา https://www.onworks.net/myfiles.php?username=XXXXX พร้อมชื่อผู้ใช้ที่คุณต้องการ
- 6. ดาวน์โหลดแอปพลิเคชั่นและติดตั้ง
- 7. ดาวน์โหลดไวน์จากที่เก็บซอฟต์แวร์ลีนุกซ์ดิสทริบิวชันของคุณ เมื่อติดตั้งแล้ว คุณสามารถดับเบิลคลิกที่แอปเพื่อเรียกใช้แอปด้วย Wine คุณยังสามารถลองใช้ PlayOnLinux ซึ่งเป็นอินเทอร์เฟซแฟนซีบน Wine ที่จะช่วยคุณติดตั้งโปรแกรมและเกมยอดนิยมของ Windows
ไวน์เป็นวิธีเรียกใช้ซอฟต์แวร์ Windows บน Linux แต่ไม่จำเป็นต้องใช้ Windows Wine เป็นเลเยอร์ความเข้ากันได้ของ Windows แบบโอเพ่นซอร์สที่สามารถเรียกใช้โปรแกรม Windows ได้โดยตรงบนเดสก์ท็อป Linux โดยพื้นฐานแล้ว Wine พยายามนำ Windows กลับมาใช้ใหม่ให้เพียงพอตั้งแต่เริ่มต้น เพื่อให้สามารถเรียกใช้แอปพลิเคชัน Windows เหล่านั้นทั้งหมดโดยไม่จำเป็นต้องใช้ Windows จริงๆ
ภาพหน้าจอ:
llama2-webui
รายละเอียด:
ใช้งาน Llama 2 ด้วย gradio web UI บน GPU หรือ CPU จากทุกที่ (Linux/Windows/Mac)
คุณสมบัติ
- รองรับ Llama 2 ทุกรุ่น (7B, 13B, 70B, GPTQ, GGML) ด้วยโหมด 8 บิต, 4 บิต
- ใช้ llama2-wrapper เป็นแบ็กเอนด์ llama2 ในเครื่องของคุณสำหรับ Generative Agents/Apps ตัวอย่างโคแล็บ
- เรียกใช้ OpenAI Compatible API บนรุ่น Llama2
- รุ่นที่รองรับ: Llama-2-7b/13b/70b, Llama-2-GPTQ ทั้งหมด, Llama-2-GGML ทั้งหมด
- แบ็กเอนด์โมเดลที่รองรับ: ทรานฟอร์เมอร์, บิตแซนด์ไบต์ (การอนุมาน 8 บิต), AutoGPTQ (การอนุมาน 4 บิต), llama.cpp
- การสาธิต: เรียกใช้ Llama2 บน MacBook Air; เรียกใช้ Llama2 บน Colab T4 GPU ฟรี
ภาษาโปรแกรม
หลาม
หมวดหมู่
นี่คือแอปพลิเคชันที่สามารถดึงมาจาก https://sourceforge.net/projects/llama2-webui.mirror/ มีการโฮสต์ไว้ใน OnWorks เพื่อใช้งานออนไลน์ด้วยวิธีที่ง่ายที่สุดจากหนึ่งในระบบปฏิบัติการฟรีของเรา