هذا هو تطبيق Windows المسمى Keras Attention Mechanism الذي يمكن تنزيل أحدث إصدار له باعتباره SupportsthescorefunctionsofLuongandBahdanau..zip. يمكن تشغيله عبر الإنترنت في مزود الاستضافة المجاني OnWorks لمحطات العمل.
قم بتنزيل وتشغيل هذا التطبيق المسمى Keras Attention Mechanism مع OnWorks مجانًا.
اتبع هذه التعليمات لتشغيل هذا التطبيق:
- 1. قم بتنزيل هذا التطبيق على جهاز الكمبيوتر الخاص بك.
- 2. أدخل في مدير الملفات الخاص بنا https://www.onworks.net/myfiles.php؟username=XXXXX باسم المستخدم الذي تريده.
- 3. تحميل هذا التطبيق في هذا الملف.
- 4. ابدأ تشغيل أي محاكي لنظام التشغيل OnWorks عبر الإنترنت من موقع الويب هذا ، ولكن أفضل محاكي Windows عبر الإنترنت.
- 5. من نظام التشغيل OnWorks Windows الذي بدأته للتو ، انتقل إلى مدير الملفات الخاص بنا https://www.onworks.net/myfiles.php؟username=XXXXX مع اسم المستخدم الذي تريده.
- 6. قم بتنزيل التطبيق وتثبيته.
- 7. قم بتنزيل Wine من مستودعات برامج توزيعات Linux الخاصة بك. بمجرد التثبيت ، يمكنك النقر نقرًا مزدوجًا فوق التطبيق لتشغيله باستخدام Wine. يمكنك أيضًا تجربة PlayOnLinux ، وهي واجهة رائعة على Wine والتي ستساعدك على تثبيت برامج وألعاب Windows الشائعة.
يعد Wine طريقة لتشغيل برامج Windows على نظام Linux ، ولكن بدون الحاجة إلى Windows. Wine عبارة عن طبقة توافق Windows مفتوحة المصدر يمكنها تشغيل برامج Windows مباشرة على أي سطح مكتب Linux. بشكل أساسي ، يحاول Wine إعادة تنفيذ ما يكفي من Windows من البداية حتى يتمكن من تشغيل جميع تطبيقات Windows دون الحاجة إلى Windows بالفعل.
لقطات الشاشة:
آلية انتباه كيراس
الوصف:
آلية انتباه متعدد إلى واحد لـ Keras. نوضح أن استخدام الانتباه يؤدي إلى دقة أعلى في مجموعة بيانات IMDB. نحن نعتبر شبكتين LSTM: واحدة مع طبقة الانتباه هذه والأخرى بطبقة متصلة بالكامل. كلاهما لهما نفس عدد المعلمات للمقارنة العادلة (250 ألف). من المتوقع أن يكون الاهتمام أعلى بعد المحددات. يتم عرض نظرة عامة على التدريب أدناه ، حيث يمثل الجزء العلوي خريطة الاهتمام والجزء السفلي يمثل الحقيقة الأساسية. مع تقدم التدريب ، يتعلم النموذج المهمة وتتقارب خريطة الانتباه مع الحقيقة الأساسية. نحن نعتبر العديد من التسلسلات 1D بنفس الطول. المهمة هي إيجاد الحد الأقصى لكل تسلسل. نعطي التسلسل الكامل الذي تتم معالجته بواسطة طبقة RNN لطبقة الانتباه. نتوقع أن تركز طبقة الانتباه على الحد الأقصى لكل تسلسل.
المميزات
- البحث عن الحد الأقصى من التسلسل
- آلية انتباه متعدد إلى واحد لـ Keras
- آلية الانتباه التنفيذ
- تصفح الأمثلة
لغة البرمجة
بايثون
فئات
هذا تطبيق يمكن جلبه أيضًا من https://sourceforge.net/projects/keras-attention-mechani.mirror/. تمت استضافته في OnWorks ليتم تشغيله عبر الإنترنت بأسهل طريقة من أحد أنظمتنا التشغيلية المجانية.