これは AWS Neuron という名前の Linux アプリで、最新リリースは NeuronSDKRelease- September26,2023.zip としてダウンロードできます。 ワークステーション用の無料ホスティング プロバイダー OnWorks でオンラインで実行できます。
AWS Neuron with OnWorks という名前のこのアプリをオンラインで無料でダウンロードして実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショットは
Ad
AWS ニューロン
DESCRIPTION
AWS Neuron は、AWS Inferentia チップを使用して機械学習推論を実行するためのソフトウェア開発キット (SDK) です。 これは、開発者が AWS Inferentia ベースの Amazon EC2 Inf1 インスタンスを使用して高性能で低レイテンシーの推論を実行できるようにするコンパイラ、ランタイム、およびプロファイリング ツールで構成されています。 Neuron を使用する開発者は、TensorFlow、PyTorch、MXNet などの一般的なフレームワークで機械学習モデルを簡単にトレーニングし、Amazon EC2 Inf1 インスタンスで最適に実行できます。 現在使用しているのと同じ ML フレームワークを引き続き使用し、最小限のコード変更でベンダー固有のソリューションに縛られることなく、ソフトウェアを Inf1 インスタンスに移行できます。 Neuron は、TensorFlow、MXNet、Pytorch などの一般的な機械学習フレームワークに事前に統合されており、トレーニングから推論までのシームレスなワークフローを提供します。 これには、コンパイラ、ランタイム ドライバ、および視覚化のための TensorBoard プラグインを備えたデバッグおよびプロファイリング ユーティリティが含まれています。
特徴
- Inf1 インスタンスを開始するための最速かつ最も簡単な方法は、Amazon SageMaker です
- AWS Neuron SDK は、TensorFlow、PyTorch、MXNet などの一般的なフレームワークと統合されています
- Amazon Deep Learning AMI および Amazon Deep Learning Containers にプリインストールされています。
- AWS Neuron SDK により、Inferentia チップへの効率的なプログラミングとランタイム アクセスが可能になります。
- Neuron は一般的な機械学習フレームワークと統合されているため、開発者は最小限のコード変更で既存のモデルを EC2 Inf1 インスタンスにデプロイします
- 事前トレーニング済みのモデルを使用して、推論をコンパイルおよび実行する機能をお客様に提供します
プログラミング言語
Python
カテゴリー
これは https://sourceforge.net/projects/aws-neuron.mirror/ からも取得できるアプリケーションです。 これは、OnWorks でホストされており、無料のオペレーティング システムの XNUMX つからオンラインで簡単に実行できます。