이것은 최신 릴리스를 v0.1.5sourcecode.zip으로 다운로드할 수 있는 Ollama라는 Linux 앱입니다. 워크스테이션용 무료 호스팅 제공업체인 OnWorks에서 온라인으로 실행할 수 있습니다.
OnWorks가 포함된 Ollama라는 앱을 무료로 온라인으로 다운로드하여 실행해 보세요.
이 앱을 실행하려면 다음 지침을 따르세요.
- 1. 이 애플리케이션을 PC에 다운로드했습니다.
- 2. 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX에 원하는 사용자 이름을 입력합니다.
- 3. 이러한 파일 관리자에서 이 응용 프로그램을 업로드합니다.
- 4. 이 웹사이트에서 OnWorks Linux 온라인 또는 Windows 온라인 에뮬레이터 또는 MACOS 온라인 에뮬레이터를 시작합니다.
- 5. 방금 시작한 OnWorks Linux OS에서 원하는 사용자 이름으로 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX로 이동합니다.
- 6. 응용 프로그램을 다운로드하여 설치하고 실행합니다.
스크린 샷
Ad
올라마
기술
LLM(대형 언어 모델)을 실행, 생성 및 공유합니다. 대규모 언어 모델을 로컬에서 시작하고 실행하세요. macOS에서 Llama 2 및 기타 모델을 실행하세요. 자신만의 것을 맞춤화하고 만드세요.
기능
- 대규모 언어 모델을 로컬에서 시작 및 실행
- macOS에서 Llama 2 및 기타 모델 실행
- 나만의 맞춤 설정 및 만들기
- macOS에서 사용 가능
- LLM(대형 언어 모델) 실행, 생성 및 공유
- Windows 및 Linux용 다운로드(곧 제공 예정)
프로그래밍 언어
C
카테고리
이는 https://sourceforge.net/projects/ollama.mirror/에서도 가져올 수 있는 애플리케이션입니다. 무료 운영 시스템 중 하나에서 가장 쉬운 방법으로 온라인으로 실행하기 위해 OnWorks에서 호스팅되었습니다.