이것은 최신 릴리스를 v2Release.zip으로 다운로드할 수 있는 llama0.1.14-webui라는 Windows 앱입니다. 워크스테이션용 무료 호스팅 제공업체인 OnWorks에서 온라인으로 실행할 수 있습니다.
OnWorks를 사용하여 llama2-webui라는 이 앱을 무료로 다운로드하여 온라인으로 실행하세요.
이 앱을 실행하려면 다음 지침을 따르세요.
- 1. 이 애플리케이션을 PC에 다운로드했습니다.
- 2. 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX에 원하는 사용자 이름을 입력합니다.
- 3. 이러한 파일 관리자에서 이 응용 프로그램을 업로드합니다.
- 4. 이 웹사이트에서 모든 OS OnWorks 온라인 에뮬레이터를 시작하지만 더 나은 Windows 온라인 에뮬레이터를 시작합니다.
- 5. 방금 시작한 OnWorks Windows OS에서 원하는 사용자 이름으로 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX로 이동합니다.
- 6. 애플리케이션을 다운로드하여 설치합니다.
- 7. Linux 배포 소프트웨어 저장소에서 Wine을 다운로드합니다. 설치가 완료되면 앱을 두 번 클릭하여 Wine과 함께 실행할 수 있습니다. 인기 있는 Windows 프로그램 및 게임을 설치하는 데 도움이 되는 Wine을 통한 멋진 인터페이스인 PlayOnLinux를 사용해 볼 수도 있습니다.
Wine은 Linux에서 Windows 소프트웨어를 실행하는 방법이지만 Windows가 필요하지 않습니다. Wine은 모든 Linux 데스크탑에서 직접 Windows 프로그램을 실행할 수 있는 오픈 소스 Windows 호환성 계층입니다. 본질적으로 Wine은 Windows가 필요하지 않고 모든 Windows 응용 프로그램을 실행할 수 있도록 Windows를 처음부터 충분히 다시 구현하려고 합니다.
스크린 샷
Ad
llama2-webui
기술
어디서나(Linux/Windows/Mac) GPU 또는 CPU에서 Gradio 웹 UI를 사용하여 Llama 2를 실행합니다.
기능
- 2비트, 7비트 모드로 모든 Llama 13 모델(70B, 8B, 4B, GPTQ, GGML) 지원
- 생성 에이전트/앱의 로컬 llama2 백엔드로 llama2-wrapper를 사용하세요. 공동 연구 예시
- Llama2 모델에서 OpenAI 호환 API 실행
- 지원 모델: Llama-2-7b/13b/70b, 모든 Llama-2-GPTQ, 모든 Llama-2-GGML
- 지원 모델 백엔드: Transformers, Bitsandbytes(8비트 추론), AutoGPTQ(4비트 추론), llama.cpp
- 데모: MacBook Air에서 Llama2를 실행하세요. 무료 Colab T2 GPU에서 Llama4 실행
프로그래밍 언어
Python
카테고리
이는 https://sourceforge.net/projects/llama2-webui.mirror/에서도 가져올 수 있는 애플리케이션입니다. 무료 운영 시스템 중 하나에서 가장 쉬운 방법으로 온라인으로 실행하기 위해 OnWorks에서 호스팅되었습니다.