Il s'agit de l'application Windows nommée Video Diffusion - Pytorch dont la dernière version peut être téléchargée en tant que 0.6.0.zip. Il peut être exécuté en ligne dans le fournisseur d'hébergement gratuit OnWorks pour les postes de travail.
Téléchargez et exécutez en ligne gratuitement cette application nommée Video Diffusion - Pytorch avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.
- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application et installez-la.
- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.
Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.
CAPTURES D'ÉCRAN
Ad
Diffusion vidéo - Pytorch
DESCRIPTION
Implémentation de modèles de diffusion vidéo, le nouvel article de Jonathan Ho étendant les DDPM à la génération vidéo - dans Pytorch. Implémentation de modèles de diffusion vidéo, le nouvel article de Jonathan Ho étendant les DDPM à la génération vidéo - dans Pytorch. Il utilise un U-net factorisé spatio-temporel spécial, étendant la génération d'images 2D à des vidéos 3D. 14k pour les mnist mobiles difficiles (convergent beaucoup plus vite et mieux que NUWA) - wip. Tous les nouveaux développements pour la synthèse texte-vidéo seront centralisés chez Imagen-pytorch. Pour le conditionnement sur le texte, ils ont dérivé des incorporations de texte en passant d'abord le texte tokenisé via BERT-large. Vous pouvez également transmettre directement les descriptions de la vidéo sous forme de chaînes, si vous prévoyez d'utiliser la base BERT pour le conditionnement du texte. Ce référentiel contient également une classe Trainer pratique pour s'entraîner sur un dossier de gifs. Chaque gif doit avoir les bonnes dimensions image_size et num_frames.
Caractéristiques
- Des images 2D aux vidéos 3D
- Images et vidéo de co-formation
- Des exemples de vidéos (sous forme de fichiers gif) seront enregistrés périodiquement dans ./results, tout comme les paramètres du modèle de diffusion
- Vous pouvez également transmettre directement les descriptions de la vidéo sous forme de chaînes
- Implementation of Video Diffusion Models, le nouvel article de Jonathan Ho
- Il utilise un U-net factorisé spatio-temporel spécial
Langage de programmation
Python
Catégories
Il s'agit d'une application qui peut également être récupérée sur https://sourceforge.net/projects/video-diffusion-pytorch.mirror/. Il a été hébergé dans OnWorks afin d'être exécuté en ligne de la manière la plus simple à partir de l'un de nos systèmes d'exploitation gratuits.