최신 릴리스를 ApacheTVMv0.11.1.zip으로 다운로드할 수 있는 tvm이라는 Windows 앱입니다. 워크스테이션용 무료 호스팅 제공업체인 OnWorks에서 온라인으로 실행할 수 있습니다.
OnWorks와 함께 tvm이라는 이 앱을 무료로 다운로드하여 온라인에서 실행하십시오.
이 앱을 실행하려면 다음 지침을 따르세요.
- 1. 이 애플리케이션을 PC에 다운로드했습니다.
- 2. 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX에 원하는 사용자 이름을 입력합니다.
- 3. 이러한 파일 관리자에서 이 응용 프로그램을 업로드합니다.
- 4. 이 웹사이트에서 모든 OS OnWorks 온라인 에뮬레이터를 시작하지만 더 나은 Windows 온라인 에뮬레이터를 시작합니다.
- 5. 방금 시작한 OnWorks Windows OS에서 원하는 사용자 이름으로 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX로 이동합니다.
- 6. 애플리케이션을 다운로드하여 설치합니다.
- 7. Linux 배포 소프트웨어 저장소에서 Wine을 다운로드합니다. 설치가 완료되면 앱을 두 번 클릭하여 Wine과 함께 실행할 수 있습니다. 인기 있는 Windows 프로그램 및 게임을 설치하는 데 도움이 되는 Wine을 통한 멋진 인터페이스인 PlayOnLinux를 사용해 볼 수도 있습니다.
Wine은 Linux에서 Windows 소프트웨어를 실행하는 방법이지만 Windows가 필요하지 않습니다. Wine은 모든 Linux 데스크탑에서 직접 Windows 프로그램을 실행할 수 있는 오픈 소스 Windows 호환성 계층입니다. 본질적으로 Wine은 Windows가 필요하지 않고 모든 Windows 응용 프로그램을 실행할 수 있도록 Windows를 처음부터 충분히 다시 구현하려고 합니다.
스크린 샷
Ad
tvm
기술
Apache TVM은 CPU, GPU 및 기계 학습 가속기를 위한 오픈 소스 기계 학습 컴파일러 프레임워크입니다. 기계 학습 엔지니어가 모든 하드웨어 백엔드에서 효율적으로 계산을 최적화하고 실행할 수 있도록 하는 것을 목표로 합니다. Apache TVM 프로젝트의 비전은 기계 학습, 컴파일러 및 시스템 아키텍처의 다양한 전문가 및 실무자 커뮤니티를 호스트하여 모든 하드웨어에 대해 현재 및 새로운 기계 학습 모델을 최적화하는 액세스 가능하고 확장 가능하며 자동화된 오픈 소스 프레임워크를 구축하는 것입니다. 플랫폼. Keras, MXNet, PyTorch, Tensorflow, CoreML, DarkNet 등에서 딥 러닝 모델을 컴파일합니다. 지금 Python과 함께 TVM을 사용하기 시작하고 다음 날에는 C++, Rust 또는 Java를 사용하여 프로덕션 스택을 구축하십시오.
기능
- 딥 러닝 모델을 배포 가능한 최소 모듈로 컴파일
- 더 나은 성능으로 더 많은 백엔드에서 모델을 자동으로 생성하고 최적화하는 인프라
- 컴파일 및 최소 런타임은 일반적으로 기존 하드웨어에서 ML 워크로드를 잠금 해제합니다.
- CPU, GPU, 브라우저, 마이크로컨트롤러, FPGA 등
- 더 많은 백엔드에서 텐서 연산자를 자동으로 생성하고 최적화합니다.
- TVM은 아파치 커미터 모델을 채택합니다.
프로그래밍 언어
Python
카테고리
이것은 https://sourceforge.net/projects/tvm.mirror/에서도 가져올 수 있는 애플리케이션입니다. 무료 운영 체제 중 하나에서 가장 쉬운 방법으로 온라인으로 실행하기 위해 OnWorks에서 호스팅되었습니다.