이는 최신 릴리스를 v0.2.0.zip으로 다운로드할 수 있는 Web LLM이라는 Windows 앱입니다. 워크스테이션용 무료 호스팅 제공업체인 OnWorks에서 온라인으로 실행할 수 있습니다.
OnWorks가 포함된 Web LLM이라는 앱을 무료로 온라인으로 다운로드하여 실행해 보세요.
이 앱을 실행하려면 다음 지침을 따르세요.
- 1. 이 애플리케이션을 PC에 다운로드했습니다.
- 2. 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX에 원하는 사용자 이름을 입력합니다.
- 3. 이러한 파일 관리자에서 이 응용 프로그램을 업로드합니다.
- 4. 이 웹사이트에서 모든 OS OnWorks 온라인 에뮬레이터를 시작하지만 더 나은 Windows 온라인 에뮬레이터를 시작합니다.
- 5. 방금 시작한 OnWorks Windows OS에서 원하는 사용자 이름으로 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX로 이동합니다.
- 6. 애플리케이션을 다운로드하여 설치합니다.
- 7. Linux 배포 소프트웨어 저장소에서 Wine을 다운로드합니다. 설치가 완료되면 앱을 두 번 클릭하여 Wine과 함께 실행할 수 있습니다. 인기 있는 Windows 프로그램 및 게임을 설치하는 데 도움이 되는 Wine을 통한 멋진 인터페이스인 PlayOnLinux를 사용해 볼 수도 있습니다.
Wine은 Linux에서 Windows 소프트웨어를 실행하는 방법이지만 Windows가 필요하지 않습니다. Wine은 모든 Linux 데스크탑에서 직접 Windows 프로그램을 실행할 수 있는 오픈 소스 Windows 호환성 계층입니다. 본질적으로 Wine은 Windows가 필요하지 않고 모든 Windows 응용 프로그램을 실행할 수 있도록 Windows를 처음부터 충분히 다시 구현하려고 합니다.
스크린 샷
Ad
웹 LLM
기술
WebLLM은 하드웨어 가속을 통해 언어 모델 채팅을 웹 브라우저에 직접 가져오는 사용자 정의 가능한 모듈식 자바스크립트 패키지입니다. 모든 것이 서버 지원 없이 브라우저 내에서 실행되며 WebGPU로 가속화됩니다. GPU 가속을 즐기면서 모든 사람을 위한 AI 도우미를 구축하고 개인 정보 보호를 활성화할 수 있는 많은 재미있는 기회를 가져올 수 있습니다. WebLLM은 브라우저에서 챗봇에 액세스할 수 있는 최소한의 모듈식 인터페이스를 제공합니다. WebLLM 패키지 자체에는 UI가 포함되어 있지 않으며 모든 UI 구성 요소에 연결할 수 있는 모듈식 방식으로 설계되었습니다. 다음 코드 조각은 웹페이지에서 스트리밍 응답을 생성하는 간단한 예를 보여줍니다.
기능
- WebLLM은 WebWorker에 대한 API 지원과 함께 제공되므로 생성 프로세스를 별도의 작업자 스레드에 연결하여 WebWorker의 컴퓨팅이 UI를 방해하지 않도록 할 수 있습니다.
- example/simple-chat에서 완전한 채팅 앱 예제를 찾을 수 있습니다.
- WebLLM은 MLC LLM의 동반 프로젝트로 작동합니다.
- 모델 아티팩트를 재사용하고 MLC LLM의 흐름을 구축합니다.
- 소스에서 WebLLM 패키지 빌드
- WebLLM 패키지는 MLC LLM용으로 설계된 웹 런타임입니다.
프로그래밍 언어
유형 스크립트
카테고리
이는 https://sourceforge.net/projects/web-llm.mirror/에서도 가져올 수 있는 애플리케이션입니다. 무료 운영 시스템 중 하나에서 가장 쉬운 방법으로 온라인으로 실행하기 위해 OnWorks에서 호스팅되었습니다.