Mục lục:

Bạn phục vụ mô hình TensorFlow như thế nào?
Bạn phục vụ mô hình TensorFlow như thế nào?

Video: Bạn phục vụ mô hình TensorFlow như thế nào?

Video: Bạn phục vụ mô hình TensorFlow như thế nào?
Video: tf serving tutorial | tensorflow serving tutorial | Deep Learning Tutorial 48 (Tensorflow, Python) 2024, Có thể
Anonim

Để phục vụ mô hình Tensorflow , chỉ cần xuất một SavedModel từ Tensorflow chương trình. SavedModel là một định dạng tuần tự hóa kín ngôn ngữ, có thể phục hồi, cho phép các hệ thống và công cụ cấp cao hơn sản xuất, tiêu thụ và chuyển đổi Mô hình TensorFlow.

Theo đó, làm cách nào để chạy mô hình TensorFlow?

Đây là các bước chúng tôi sẽ làm:

  1. Làm một mô hình ngu ngốc làm ví dụ, đào tạo và lưu trữ nó.
  2. Tìm nạp các biến bạn cần từ mô hình được lưu trữ của bạn.
  3. Xây dựng thông tin tensor từ chúng.
  4. Tạo chữ ký mô hình.
  5. Tạo và lưu trình tạo mô hình.
  6. Tải xuống hình ảnh Docker với phục vụ TensorFlow đã được biên dịch trên đó.

Ngoài ra, TensorFlow đang phục vụ những gì? TensorFlow phục vụ là một linh hoạt, hiệu suất cao phục vụ hệ thống cho các mô hình học máy, được thiết kế cho môi trường sản xuất. TensorFlow phục vụ cung cấp tích hợp ngoài hộp với TensorFlow nhưng có thể dễ dàng mở rộng sang phục vụ các loại mô hình và dữ liệu khác.

Về điều này, TensorFlow phục vụ hoạt động như thế nào?

TensorFlow phục vụ cho phép chúng tôi chọn phiên bản của mô hình hoặc "dịch vụ" mà chúng tôi muốn sử dụng khi chúng tôi đưa ra các yêu cầu suy luận. Mỗi phiên bản sẽ được xuất sang một thư mục con khác nhau theo đường dẫn đã cho.

Máy chủ mô hình là gì?

Máy chủ mô hình cho Apache MXNet (MMS) là một thành phần mã nguồn mở được thiết kế để đơn giản hóa nhiệm vụ triển khai học sâu người mẫu để suy luận ở quy mô lớn. Triển khai người mẫu để suy luận không phải là một nhiệm vụ tầm thường.

Đề xuất: