이것은 llm-cli-x86_64-pc-windows-msvc.zip으로 최신 릴리스를 다운로드할 수 있는 llm이라는 Windows 앱입니다. 워크스테이션용 무료 호스팅 제공업체인 OnWorks에서 온라인으로 실행할 수 있습니다.
OnWorks가 포함된 llm이라는 앱을 무료로 온라인으로 다운로드하여 실행하세요.
이 앱을 실행하려면 다음 지침을 따르세요.
- 1. 이 애플리케이션을 PC에 다운로드했습니다.
- 2. 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX에 원하는 사용자 이름을 입력합니다.
- 3. 이러한 파일 관리자에서 이 응용 프로그램을 업로드합니다.
- 4. 이 웹사이트에서 모든 OS OnWorks 온라인 에뮬레이터를 시작하지만 더 나은 Windows 온라인 에뮬레이터를 시작합니다.
- 5. 방금 시작한 OnWorks Windows OS에서 원하는 사용자 이름으로 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX로 이동합니다.
- 6. 애플리케이션을 다운로드하여 설치합니다.
- 7. Linux 배포 소프트웨어 저장소에서 Wine을 다운로드합니다. 설치가 완료되면 앱을 두 번 클릭하여 Wine과 함께 실행할 수 있습니다. 인기 있는 Windows 프로그램 및 게임을 설치하는 데 도움이 되는 Wine을 통한 멋진 인터페이스인 PlayOnLinux를 사용해 볼 수도 있습니다.
Wine은 Linux에서 Windows 소프트웨어를 실행하는 방법이지만 Windows가 필요하지 않습니다. Wine은 모든 Linux 데스크탑에서 직접 Windows 프로그램을 실행할 수 있는 오픈 소스 Windows 호환성 계층입니다. 본질적으로 Wine은 Windows가 필요하지 않고 모든 Windows 응용 프로그램을 실행할 수 있도록 Windows를 처음부터 충분히 다시 구현하려고 합니다.
스크린 샷
Ad
llm
기술
llm은 대규모 언어 모델 작업을 위한 Rust 라이브러리 생태계로, 기계 학습을 위한 빠르고 효율적인 GGML 라이브러리를 기반으로 구축되었습니다. 개발자의 기본 진입점은 llm-base와 지원되는 모델 상자를 래핑하는 llm 상자입니다. 출시된 버전에 대한 문서는 Docs.rs에서 볼 수 있습니다. 최종 사용자를 위해 지원되는 모델과 상호 작용하기 위한 편리한 인터페이스를 제공하는 CLI 애플리케이션 llm-cli가 있습니다. 텍스트 생성은 프롬프트를 기반으로 일회성으로 수행하거나 REPL 또는 채팅 모드를 통해 대화형으로 수행할 수 있습니다. CLI는 디코딩된 모델을 직렬화(인쇄)하거나, GGML 파일을 양자화하거나, 모델의 복잡성을 계산하는 데에도 사용할 수 있습니다. 최신 GitHub 릴리스에서 다운로드하거나 crates.io에서 설치할 수 있습니다.
기능
- llm은 ggml 텐서 라이브러리에 의해 구동되며 대규모 언어 모델의 세계에 Rust의 견고성과 사용 편의성을 제공하는 것을 목표로 합니다.
- 이 프로젝트는 Rust v1.65.0 이상과 최신 C 툴체인에 의존합니다.
- llm 라이브러리는 최적화된 성능을 위해 cuda 및 metal과 같은 하드웨어 가속기를 활용하도록 설계되었습니다.
- LLM이 이러한 가속기를 활용할 수 있도록 하려면 몇 가지 예비 구성 단계가 필요합니다.
- llm-cli를 시작하는 가장 쉬운 방법은 출시된 llm 버전에서 사전 빌드된 실행 파일을 다운로드하는 것입니다.
- 기본적으로 llm은 Hugging Face의 모델 허브에서 토크나이저를 원격으로 가져오는 기능을 지원하여 빌드됩니다.
프로그래밍 언어
녹
카테고리
이는 https://sourceforge.net/projects/llm.mirror/에서도 가져올 수 있는 애플리케이션입니다. 무료 운영 시스템 중 하나에서 가장 쉬운 방법으로 온라인으로 실행하기 위해 OnWorks에서 호스팅되었습니다.