これは tvm という名前の Linux アプリで、最新リリースは ApacheTVMv0.11.1.zip としてダウンロードできます。 ワークステーション用の無料ホスティング プロバイダー OnWorks でオンラインで実行できます。
OnWorks を使用して tvm という名前のこのアプリをオンラインで無料でダウンロードして実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショット:
テレビ
説明:
Apache TVM は、CPU、GPU、および機械学習アクセラレータ用のオープンソースの機械学習コンパイラ フレームワークです。 これは、機械学習エンジニアがあらゆるハードウェア バックエンドで計算を最適化し、効率的に実行できるようにすることを目的としています。 Apache TVM プロジェクトのビジョンは、機械学習、コンパイラー、システム アーキテクチャの専門家と実践者の多様なコミュニティをホストし、あらゆるハードウェア向けに現在および新たな機械学習モデルを最適化する、アクセス可能で拡張可能で自動化されたオープンソース フレームワークを構築することです。プラットホーム。 Keras、MXNet、PyTorch、Tensorflow、CoreML、DarkNet などでの深層学習モデルのコンパイル。 今すぐ Python で TVM の使用を開始し、翌日には C++、Rust、または Java を使用して運用スタックを構築します。
特徴
- 深層学習モデルを最小限の展開可能なモジュールにコンパイルする
- より優れたパフォーマンスでより多くのバックエンドでモデルを自動生成および最適化するインフラストラクチャ
- 通常、コンパイルと最小限のランタイムにより、既存のハードウェアで ML ワークロードのロックが解除されます。
- CPU、GPU、ブラウザ、マイクロコントローラー、FPGA など
- より多くのバックエンドでテンソル演算子を自動的に生成して最適化する
- TVMはApacheコミッターモデルを採用
プログラミング言語
Python
カテゴリー
これは https://sourceforge.net/projects/tvm.mirror/ から取得できるアプリケーションです。 無料のオペレーティング システムの XNUMX つから最も簡単な方法でオンラインで実行できるように、OnWorks でホストされています。