이것은 최신 릴리스를 v1.0.0.zip으로 다운로드할 수 있는 ChatLLM Web이라는 Windows 앱입니다. 워크스테이션용 무료 호스팅 제공업체인 OnWorks에서 온라인으로 실행할 수 있습니다.
ChatLLM Web with OnWorks라는 이 앱을 무료로 온라인으로 다운로드하여 실행하세요.
이 앱을 실행하려면 다음 지침을 따르세요.
- 1. 이 애플리케이션을 PC에 다운로드했습니다.
- 2. 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX에 원하는 사용자 이름을 입력합니다.
- 3. 이러한 파일 관리자에서 이 응용 프로그램을 업로드합니다.
- 4. 이 웹사이트에서 모든 OS OnWorks 온라인 에뮬레이터를 시작하지만 더 나은 Windows 온라인 에뮬레이터를 시작합니다.
- 5. 방금 시작한 OnWorks Windows OS에서 원하는 사용자 이름으로 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX로 이동합니다.
- 6. 애플리케이션을 다운로드하여 설치합니다.
- 7. Linux 배포 소프트웨어 저장소에서 Wine을 다운로드합니다. 설치가 완료되면 앱을 두 번 클릭하여 Wine과 함께 실행할 수 있습니다. 인기 있는 Windows 프로그램 및 게임을 설치하는 데 도움이 되는 Wine을 통한 멋진 인터페이스인 PlayOnLinux를 사용해 볼 수도 있습니다.
Wine은 Linux에서 Windows 소프트웨어를 실행하는 방법이지만 Windows가 필요하지 않습니다. Wine은 모든 Linux 데스크탑에서 직접 Windows 프로그램을 실행할 수 있는 오픈 소스 Windows 호환성 계층입니다. 본질적으로 Wine은 Windows가 필요하지 않고 모든 Windows 응용 프로그램을 실행할 수 있도록 Windows를 처음부터 충분히 다시 구현하려고 합니다.
스크린 샷
Ad
ChatLLM 웹
기술
WebGPU를 사용하여 브라우저에서 서버 없이 안전하게 비공개로 Vicuna와 같은 LLM과 채팅하세요. 제공: web-llm. 이 앱을 사용하려면 Chrome 113이나 Chrome Canary 등 WebGPU를 지원하는 브라우저가 필요합니다. Chrome 버전 ≤ 112는 지원되지 않습니다. 약 6.4GB의 메모리를 갖춘 GPU가 필요합니다. GPU에 메모리가 적으면 앱은 계속 실행되지만 응답 시간은 느려집니다. 앱을 처음 사용하는 경우 모델을 다운로드해야 합니다. 현재 저희가 사용하고 있는 Vicuna-7b 모델의 경우 다운로드 용량은 약 4GB 정도입니다. 초기 다운로드 후에는 더 빠른 사용을 위해 브라우저 캐시에서 모델이 로드됩니다.
기능
- 모든 것이 서버 지원 없이 브라우저 내에서 실행되며 WebGPU로 가속화됩니다.
- 모델은 웹 작업자에서 실행되어 사용자 인터페이스를 차단하지 않고 원활한 경험을 제공합니다.
- 1분 이내에 Vercel을 한 번 클릭하면 무료로 쉽게 배포할 수 있으며 나만의 ChatLLM 웹을 얻을 수 있습니다.
- 모델 캐싱이 지원되므로 모델을 한 번만 다운로드하면 됩니다.
- 개인정보 보호를 위해 모든 데이터가 브라우저에 로컬로 저장되는 다중 대화 채팅
- 마크다운 및 스트리밍 응답 지원: 수학, 코드 강조 표시 등
프로그래밍 언어
자바 스크립트
카테고리
이는 https://sourceforge.net/projects/chatllm-web.mirror/에서도 가져올 수 있는 애플리케이션입니다. 무료 운영 시스템 중 하나에서 가장 쉬운 방법으로 온라인으로 실행하기 위해 OnWorks에서 호스팅되었습니다.