これは oneDNN という名前の Linux アプリで、その最新リリースは v3.3.zip としてダウンロードできます。 これは、ワークステーション用の無料のホスティング プロバイダーである OnWorks でオンラインで実行できます。
OneDNN with OnWorks という名前のこのアプリをオンラインで無料でダウンロードして実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショットは
Ad
ワンDNN
DESCRIPTION
このソフトウェアは、以前はディープ ニューラル ネットワーク用インテル(R) マス カーネル ライブラリ (インテル(R) MKL-DNN) およびディープ ニューラル ネットワーク ライブラリ (DNNL) として知られていました。 oneAPI Deep Neural Network Library (oneDNN) は、ディープ ラーニング アプリケーションの基本的なビルディング ブロックのオープンソース クロスプラットフォーム パフォーマンス ライブラリです。 oneDNN は oneAPI の一部です。 このライブラリーは、インテル(R) アーキテクチャー・プロセッサー、インテル・プロセッサー・グラフィックス、および Xe アーキテクチャー・グラフィックス用に最適化されています。 oneDNN は、Arm* 64 ビット・アーキテクチャー (AArch64)、NVIDIA* GPU、OpenPOWER* Power ISA (PPC64)、IBMz* (s390x)、および RISC-V のアーキテクチャーを実験的にサポートしています。 oneDNN は、Intel CPU および GPU でのアプリケーション パフォーマンスの向上に関心のあるディープ ラーニング アプリケーションおよびフレームワーク開発者を対象としています。 深層学習の実践者は、oneDNN で有効になっているアプリケーションのいずれかを使用する必要があります。
特徴
- Intel 64 または AMD64 が必要
- OpenPOWER / IBM Power ISA が必要
- Intel Atom(R) プロセッサー向けに最適化
- oneDNN は、実行時に命令セット アーキテクチャ (ISA) を検出します。
- 将来の ISA では、ライブラリの初期サポートがデフォルトで無効になる可能性があります
- oneDNN は Arm Compute Library 統合で構築可能
プログラミング言語
C + +
カテゴリー
これは https://sourceforge.net/projects/onednn.mirror/ からも取得できるアプリケーションです。 これは、OnWorks でホストされており、無料のオペレーティング システムの XNUMX つからオンラインで簡単に実行できます。