นี่คือแอป Linux ชื่อ LocalAI ซึ่งสามารถดาวน์โหลดรุ่นล่าสุดเป็น v1.30.0.zip สามารถทำงานออนไลน์ได้ใน OnWorks ผู้ให้บริการโฮสติ้งฟรีสำหรับเวิร์กสเตชัน
ดาวน์โหลดและเรียกใช้แอปออนไลน์ชื่อ LocalAI พร้อม OnWorks ฟรี
ทำตามคำแนะนำเหล่านี้เพื่อเรียกใช้แอปนี้:
- 1. ดาวน์โหลดแอปพลิเคชั่นนี้ในพีซีของคุณ
- 2. เข้าไปที่ file manager https://www.onworks.net/myfiles.php?username=XXXXX ด้วยชื่อผู้ใช้ที่คุณต้องการ
- 3. อัปโหลดแอปพลิเคชันนี้ในตัวจัดการไฟล์ดังกล่าว
- 4. เริ่มโปรแกรมจำลองออนไลน์ของ OnWorks Linux หรือ Windows ออนไลน์ หรือโปรแกรมจำลองออนไลน์ MACOS จากเว็บไซต์นี้
- 5. จาก OnWorks Linux OS คุณเพิ่งเริ่มต้น ไปที่ตัวจัดการไฟล์ของเรา https://www.onworks.net/myfiles.php?username=XXXXX พร้อมชื่อผู้ใช้ที่คุณต้องการ
- 6. ดาวน์โหลดแอปพลิเคชั่น ติดตั้ง และเรียกใช้
ภาพหน้าจอ
Ad
LocalAI
DESCRIPTION
API ที่เข้ากันได้กับ OpenAI ในพื้นที่ที่ขับเคลื่อนโดยชุมชนและโฮสต์เอง การทดแทนแบบดรอปอินสำหรับ OpenAI ที่ใช้ LLM บนฮาร์ดแวร์ระดับผู้บริโภค ทางเลือก OpenAI ฟรีแบบโอเพ่นซอร์ส ไม่จำเป็นต้องมี GPU รัน ggml, GPTQ, onnx, รุ่นที่รองรับ TF: llama, gpt4all, rwkv, กระซิบ, vicuna, koala, gpt4all-j, cerebras, Falcon, Dolly, Starcoder และอื่นๆ อีกมากมาย LocalAI เป็น REST API ทดแทนแบบดรอปอินที่เข้ากันได้กับข้อกำหนดเฉพาะของ OpenAI API สำหรับการอนุมานเฉพาะที่ ช่วยให้คุณสามารถเรียกใช้ LLM (และไม่เพียงแต่) ในเครื่องหรือในองค์กรด้วยฮาร์ดแวร์ระดับผู้บริโภค ซึ่งรองรับตระกูลโมเดลหลายตระกูลที่เข้ากันได้กับรูปแบบ ggml ไม่ต้องใช้ GPU
คุณสมบัติ
- REST API ทางเลือกแบบดรอปอินในเครื่องและ OpenAI
- ไม่จำเป็นต้องใช้ GPU
- รองรับหลายรุ่น
- เมื่อโหลดครั้งแรก โมเดลจะโหลดโมเดลไว้ในหน่วยความจำเพื่อการอนุมานที่รวดเร็วยิ่งขึ้น
- ไม่ต้องใช้เชลล์ แต่ใช้การเชื่อมโยง C++ เพื่อการอนุมานที่เร็วขึ้นและประสิทธิภาพที่ดีขึ้น
- คุณเป็นเจ้าของข้อมูลของคุณ
ภาษาโปรแกรม
Go
หมวดหมู่
นี่คือแอปพลิเคชันที่สามารถดึงข้อมูลจาก https://sourceforge.net/projects/localai.mirror/ มีการโฮสต์ไว้ใน OnWorks เพื่อใช้งานออนไลน์ด้วยวิธีที่ง่ายที่สุดจากหนึ่งในระบบปฏิบัติการฟรีของเรา