これは Keras Attendant Mechanism という名前の Linux アプリで、最新リリースは SupportsthescorefunctionsofLuongandBahdanau..zip としてダウンロードできます。 ワークステーション用の無料ホスティング プロバイダー OnWorks でオンラインで実行できます。
Keras Attention Mechanism with OnWorks という名前のこのアプリをオンラインで無料でダウンロードして実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショットは
Ad
Keras の注意メカニズム
DESCRIPTION
Keras の多対 250 のアテンション メカニズム。 注意を使用すると、IMDB データセットでより高い精度が得られることを示します。 1 つの LSTM ネットワークを考えます。XNUMX つはこの注意層を持ち、もう XNUMX つは完全に接続された層を持ちます。 公平に比較するために、どちらも同じ数のパラメーターを持っています (XNUMXK)。 注意は、デリミタの後が最も高いと予想されます。 トレーニングの概要を以下に示します。上はアテンション マップを表し、下はグラウンド トゥルースを表します。 トレーニングが進むにつれて、モデルはタスクを学習し、アテンション マップはグラウンド トゥルースに収束します。 同じ長さの多くの XNUMXD シーケンスを考慮します。 タスクは、各シーケンスの最大値を見つけることです。 RNN 層によって処理された完全なシーケンスをアテンション層に渡します。 アテンションレイヤーが各シーケンスの最大値に焦点を当てることを期待しています。
特徴
- シーケンスの最大値を見つける
- Keras の多対 XNUMX のアテンション メカニズム
- 注意メカニズムの実装
- 例を参照
プログラミング言語
Python
カテゴリー
これは https://sourceforge.net/projects/keras-attention-mechani.mirror/ からも取得できるアプリケーションです。 これは、OnWorks でホストされており、無料のオペレーティング システムの XNUMX つからオンラインで簡単に実行できます。