Il s'agit de l'application Windows nommée Keras Attention Mechanism dont la dernière version peut être téléchargée en tant que SupportsthescorefunctionsofLuongandBahdanau..zip. Il peut être exécuté en ligne dans le fournisseur d'hébergement gratuit OnWorks pour les postes de travail.
Téléchargez et exécutez gratuitement en ligne cette application nommée Keras Attention Mechanism avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.
- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application et installez-la.
- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.
Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.
CAPTURES D'ÉCRAN
Ad
Mécanisme d'attention de Keras
DESCRIPTION
Mécanisme d'attention plusieurs à un pour Keras. Nous démontrons que l'utilisation de l'attention donne une plus grande précision sur l'ensemble de données IMDB. Nous considérons deux réseaux LSTM : l'un avec cette couche d'attention et l'autre avec une couche entièrement connectée. Les deux ont le même nombre de paramètres pour une comparaison équitable (250K). L'attention devrait être la plus élevée après les délimiteurs. Un aperçu de la formation est présenté ci-dessous, où le haut représente la carte d'attention et le bas la vérité terrain. Au fur et à mesure que la formation progresse, le modèle apprend la tâche et la carte d'attention converge vers la vérité terrain. Nous considérons plusieurs séquences 1D de même longueur. La tâche consiste à trouver le maximum de chaque séquence. Nous donnons la séquence complète traitée par la couche RNN à la couche d'attention. Nous nous attendons à ce que la couche d'attention se concentre sur le maximum de chaque séquence.
Caractéristiques
- Trouver le max d'une séquence
- Mécanisme d'attention plusieurs à un pour Keras
- Mise en œuvre du mécanisme d'attention
- Parcourir les exemples
Langage de programmation
Python
Catégories
Il s'agit d'une application qui peut également être récupérée sur https://sourceforge.net/projects/keras-attention-mechani.mirror/. Il a été hébergé dans OnWorks afin d'être exécuté en ligne de la manière la plus simple à partir de l'un de nos systèmes d'exploitation gratuits.