Ini ialah apl Linux bernama TensorFlow Serving yang keluaran terbarunya boleh dimuat turun sebagai 2.13.1.zip. Ia boleh dijalankan dalam talian dalam penyedia pengehosan percuma OnWorks untuk stesen kerja.
Muat turun dan jalankan dalam talian apl bernama TensorFlow Serving with OnWorks ini secara percuma.
Ikut arahan ini untuk menjalankan apl ini:
- 1. Memuat turun aplikasi ini dalam PC anda.
- 2. Masukkan dalam pengurus fail kami https://www.onworks.net/myfiles.php?username=XXXXX dengan nama pengguna yang anda mahukan.
- 3. Muat naik aplikasi ini dalam pengurus filem tersebut.
- 4. Mulakan OnWorks Linux dalam talian atau emulator dalam talian Windows atau emulator dalam talian MACOS dari tapak web ini.
- 5. Daripada OS Linux OnWorks yang baru anda mulakan, pergi ke pengurus fail kami https://www.onworks.net/myfiles.php?username=XXXX dengan nama pengguna yang anda mahukan.
- 6. Muat turun aplikasi, pasang dan jalankan.
SKRIN
Ad
TensorFlow Serving
DESCRIPTION
TensorFlow Serving ialah sistem penyajian berprestasi tinggi yang fleksibel untuk model pembelajaran mesin, direka bentuk untuk persekitaran pengeluaran. Ia memperkatakan aspek inferens pembelajaran mesin, mengambil model selepas latihan dan mengurus jangka hayat mereka, menyediakan pelanggan dengan akses versi melalui jadual carian berprestasi tinggi yang dikira rujukan. TensorFlow Serving menyediakan integrasi luar biasa dengan model TensorFlow, tetapi boleh diperluaskan dengan mudah untuk menyediakan jenis model dan data lain. Cara paling mudah dan paling lurus untuk menggunakan TensorFlow Serving ialah dengan imej Docker. Kami sangat mengesyorkan laluan ini melainkan anda mempunyai keperluan khusus yang tidak ditangani dengan menjalankan dalam bekas. Untuk menyediakan model Tensorflow, hanya eksport SavedModel daripada program Tensorflow anda. SavedModel ialah format bersiri yang neutral bahasa, boleh dipulihkan, hermetik yang membolehkan sistem dan alatan peringkat lebih tinggi untuk menghasilkan, menggunakan dan mengubah model TensorFlow.
Ciri-ciri
- Boleh menyajikan berbilang model, atau berbilang versi model yang sama secara serentak
- Mendedahkan kedua-dua gRPC serta titik akhir inferens HTTP
- Membenarkan penggunaan versi model baharu tanpa mengubah sebarang kod pelanggan
- Menyokong versi baharu kenari dan model percubaan ujian A/B
- Menambah kependaman minimum pada masa inferens disebabkan oleh pelaksanaan overhed yang cekap dan rendah
- Mempunyai penjadual yang mengumpulkan permintaan inferens individu ke dalam kelompok untuk pelaksanaan bersama pada GPU, dengan kawalan kependaman boleh dikonfigurasikan
Bahasa Pengaturcaraan
C + +
Kategori
Ini adalah aplikasi yang juga boleh diambil dari https://sourceforge.net/projects/tensorflow-serving.mirror/. Ia telah dihoskan dalam OnWorks untuk dijalankan dalam talian dengan cara yang paling mudah daripada salah satu Sistem Operasi percuma kami.