ນີ້ແມ່ນແອັບ Linux ທີ່ມີຊື່ວ່າ TensorFlow Serving ເຊິ່ງລຸ້ນຫຼ້າສຸດສາມາດດາວໂຫຼດໄດ້ເປັນ 2.13.1.zip. ມັນສາມາດດໍາເນີນການອອນໄລນ໌ຢູ່ໃນຜູ້ໃຫ້ບໍລິການໂຮດຕິ້ງຟຣີ OnWorks ສໍາລັບສະຖານີເຮັດວຽກ.
ດາວນ໌ໂຫລດແລະດໍາເນີນການອອນໄລນ໌ app ນີ້ມີຊື່ TensorFlow ການບໍລິການກັບ OnWorks ໄດ້ຟຣີ.
ປະຕິບັດຕາມຄໍາແນະນໍາເຫຼົ່ານີ້ເພື່ອດໍາເນີນການ app ນີ້:
- 1. ດາວໂຫຼດຄໍາຮ້ອງສະຫມັກນີ້ໃນ PC ຂອງທ່ານ.
- 2. ໃສ່ໃນຕົວຈັດການໄຟລ໌ຂອງພວກເຮົາ https://www.onworks.net/myfiles.php?username=XXXXX ດ້ວຍຊື່ຜູ້ໃຊ້ທີ່ທ່ານຕ້ອງການ.
- 3. ອັບໂຫລດແອັບພລິເຄຊັນນີ້ຢູ່ໃນຕົວຈັດການໄຟລ໌ດັ່ງກ່າວ.
- 4. ເລີ່ມ OnWorks Linux ອອນລາຍ ຫຼື Windows online emulator ຫຼື MACOS online emulator ຈາກເວັບໄຊທ໌ນີ້.
- 5. ຈາກ OnWorks Linux OS ທີ່ເຈົ້າຫາກໍ່ເລີ່ມຕົ້ນ, ໄປທີ່ຕົວຈັດການໄຟລ໌ຂອງພວກເຮົາ https://www.onworks.net/myfiles.php?username=XXXXX ດ້ວຍຊື່ຜູ້ໃຊ້ທີ່ທ່ານຕ້ອງການ.
- 6. ດາວນ໌ໂຫລດຄໍາຮ້ອງສະຫມັກ, ຕິດຕັ້ງມັນແລະດໍາເນີນການ.
ໜ້າ ຈໍ
Ad
ການໃຫ້ບໍລິການ TensorFlow
ລາຍລະອຽດ
TensorFlow Serving ເປັນລະບົບການໃຫ້ບໍລິການທີ່ມີຄວາມຍືດຫຍຸ່ນ, ປະສິດທິພາບສູງສໍາລັບຮູບແບບການຮຽນຮູ້ເຄື່ອງຈັກ, ອອກແບບສໍາລັບສະພາບແວດລ້ອມການຜະລິດ. ມັນກ່ຽວຂ້ອງກັບລັກສະນະ inference ຂອງການຮຽນຮູ້ຂອງເຄື່ອງຈັກ, ເອົາແບບຈໍາລອງຫຼັງຈາກການຝຶກອົບຮົມແລະການຄຸ້ມຄອງຊີວິດຂອງເຂົາເຈົ້າ, ສະຫນອງລູກຄ້າທີ່ມີການເຂົ້າເຖິງສະບັບໂດຍຜ່ານຕາຕະລາງການອ້າງອີງການນັບປະສິດທິພາບສູງ. TensorFlow Serving ສະຫນອງການເຊື່ອມໂຍງກັບແບບຈໍາລອງ TensorFlow, ແຕ່ສາມາດຂະຫຍາຍໄດ້ງ່າຍເພື່ອຮັບໃຊ້ປະເພດອື່ນໆຂອງແບບຈໍາລອງແລະຂໍ້ມູນ. ວິທີທີ່ງ່າຍທີ່ສຸດ ແລະກົງໄປກົງມາທີ່ສຸດຂອງການໃຊ້ TensorFlow Serving ແມ່ນກັບຮູບພາບ Docker. ພວກເຮົາແນະນໍາໃຫ້ເສັ້ນທາງນີ້ຢ່າງສູງເວັ້ນເສຍແຕ່ວ່າທ່ານມີຄວາມຕ້ອງການສະເພາະທີ່ບໍ່ໄດ້ຮັບການແກ້ໄຂໂດຍການແລ່ນໃນຕູ້ຄອນເທນເນີ. ເພື່ອຮັບໃຊ້ຮູບແບບ Tensorflow, ພຽງແຕ່ສົ່ງອອກ SavedModel ຈາກໂຄງການ Tensorflow ຂອງທ່ານ. SavedModel ເປັນພາສາທີ່ເປັນກາງ, ສາມາດຟື້ນຕົວໄດ້, ຮູບແບບ serialization hermetic ທີ່ຊ່ວຍໃຫ້ລະບົບ ແລະ ເຄື່ອງມືລະດັບສູງໃນການຜະລິດ, ບໍລິໂພກ ແລະ ຫັນປ່ຽນຕົວແບບ TensorFlow.
ຄຸນລັກສະນະ
- ສາມາດຮັບໃຊ້ຫຼາຍແບບ, ຫຼືຫຼາຍຮຸ່ນຂອງແບບດຽວກັນໃນເວລາດຽວກັນ
- ເປີດເຜີຍທັງ gRPC ເຊັ່ນດຽວກັນກັບ HTTP inference endpoints
- ອະນຸຍາດໃຫ້ການນໍາໃຊ້ສະບັບຕົວແບບໃຫມ່ໂດຍບໍ່ມີການປ່ຽນແປງລະຫັດລູກຄ້າໃດໆ
- ຮອງຮັບ Canarying ລຸ້ນໃໝ່ ແລະ A/B ທົດລອງທົດລອງ
- ເພີ່ມເວລາ latency ໜ້ອຍສຸດໃຫ້ກັບເວລາ inference ເນື່ອງຈາກການປະຕິບັດທີ່ມີປະສິດທິພາບ, ຕໍ່າສຸດ
- ມີລັກສະນະເປັນຕົວກໍານົດເວລາທີ່ຈັດກຸ່ມຄໍາຮ້ອງຂໍ inference ສ່ວນບຸກຄົນເຂົ້າໄປໃນ batches ສໍາລັບການປະຕິບັດຮ່ວມກັນໃນ GPU, ທີ່ມີການຄວບຄຸມການ latency ທີ່ສາມາດກໍານົດໄດ້.
ພາສາການຂຽນໂປຣແກຣມ
C ++
ປະເພດ
ນີ້ແມ່ນແອັບພລິເຄຊັນທີ່ຍັງສາມາດເອົາມາຈາກ https://sourceforge.net/projects/tensorflow-serving.mirror/. ມັນໄດ້ຖືກຈັດຢູ່ໃນ OnWorks ເພື່ອໃຫ້ດໍາເນີນການອອນໄລນ໌ໃນວິທີທີ່ງ່າຍທີ່ສຸດຈາກຫນຶ່ງໃນລະບົບປະຕິບັດງານຟຣີຂອງພວກເຮົາ.