RESTful API

علاوه بر API های gRPC، TensorFlow ModelServer از API های RESTful نیز پشتیبانی می کند. این صفحه این نقاط پایانی API و یک مثال سرتاسری در مورد استفاده را شرح می‌دهد.

درخواست و پاسخ یک شی JSON است. ترکیب این شی به نوع درخواست یا فعل بستگی دارد. برای جزئیات بیشتر به بخش های خاص API در زیر مراجعه کنید.

در صورت بروز خطا، همه API ها یک شی JSON را در بدنه پاسخ با error به عنوان کلید و پیام خطا به عنوان مقدار برمی گردانند:

{
  "error": <error message string>
}

API وضعیت مدل

این API دقیقاً از ModelService.GetModelStatus gRPC API پیروی می کند. وضعیت یک مدل را در ModelServer برمی گرداند.

URL

GET http://host:port/v1/models/${MODEL_NAME}[/versions/${VERSION}|/labels/${LABEL}]

شامل /versions/${VERSION} یا /labels/${LABEL} اختیاری است. اگر وضعیت حذف شده برای همه نسخه ها در پاسخ برگردانده شود.

فرمت پاسخ

در صورت موفقیت آمیز بودن، یک نمایش JSON از پروتوباف GetModelStatusResponse را برمی گرداند.

API فراداده مدل

این API دقیقاً از PredictionService.GetModelMetadata gRPC API پیروی می کند. فراداده یک مدل را در ModelServer برمی گرداند.

URL

GET http://host:port/v1/models/${MODEL_NAME}[/versions/${VERSION}|/labels/${LABEL}]/metadata

شامل /versions/${VERSION} یا /labels/${LABEL} اختیاری است. در صورت حذف، ابرداده مدل برای آخرین نسخه در پاسخ بازگردانده می شود.

فرمت پاسخ

در صورت موفقیت آمیز بودن، یک نمایش JSON از پروتوباف GetModelMetadataResponse را برمی گرداند.

طبقه بندی و پسرفت API

این API دقیقاً از روش‌های Classify و Regress در PredictionService gRPC API پیروی می‌کند.

URL

POST http://host:port/v1/models/${MODEL_NAME}[/versions/${VERSION}|/labels/${LABEL}]:(classify|regress)

شامل /versions/${VERSION} یا /labels/${LABEL} اختیاری است. در صورت حذف از آخرین نسخه استفاده می شود.

فرمت درخواست

بدنه درخواست برای API های classify و regress باید یک شی JSON باشد که به صورت زیر قالب بندی شده است:

{
  // Optional: serving signature to use.
  // If unspecifed default serving signature is used.
  "signature_name": <string>,

  // Optional: Common context shared by all examples.
  // Features that appear here MUST NOT appear in examples (below).
  "context": {
    "<feature_name3>": <value>|<list>
    "<feature_name4>": <value>|<list>
  },

  // List of Example objects
  "examples": [
    {
      // Example 1
      "<feature_name1>": <value>|<list>,
      "<feature_name2>": <value>|<list>,
      ...
    },
    {
      // Example 2
      "<feature_name1>": <value>|<list>,
      "<feature_name2>": <value>|<list>,
      ...
    }
    ...
  ]
}

<value> یک عدد JSON (کل یا اعشاری)، رشته JSON یا یک شی JSON است که داده‌های باینری را نشان می‌دهد (برای جزئیات به بخش رمزگذاری مقادیر باینری زیر مراجعه کنید). <list> فهرستی از این مقادیر است. این فرمت شبیه پروتوهای ClassificationRequest و RegressionRequest gRPC است. هر دو نسخه لیستی از اشیاء Example را می پذیرند.

فرمت پاسخ

یک درخواست classify یک شی JSON را در بدنه پاسخ باز می گرداند که به صورت زیر قالب بندی شده است:

{
  "result": [
    // List of class label/score pairs for first Example (in request)
    [ [<label1>, <score1>], [<label2>, <score2>], ... ],

    // List of class label/score pairs for next Example (in request)
    [ [<label1>, <score1>], [<label2>, <score2>], ... ],
    ...
  ]
}

<label> یک رشته است (که می تواند یک رشته خالی "" باشد اگر مدل برچسب مرتبط با امتیاز نداشته باشد). <score> یک عدد اعشاری (میز شناور) است.

درخواست regress یک شی JSON را در بدنه پاسخ باز می گرداند که به صورت زیر قالب بندی شده است:

{
  // One regression value for each example in the request in the same order.
  "result": [ <value1>, <value2>, <value3>, ...]
}

<value> یک عدد اعشاری است.

کاربران gRPC API متوجه شباهت این فرمت با پروتوهای ClassificationResponse و RegressionResponse خواهند شد.

پیش بینی API

این API دقیقاً از PredictionService.Predict gRPC API پیروی می کند.

URL

POST http://host:port/v1/models/${MODEL_NAME}[/versions/${VERSION}|/labels/${LABEL}]:predict

شامل /versions/${VERSION} یا /labels/${LABEL} اختیاری است. در صورت حذف از آخرین نسخه استفاده می شود.

فرمت درخواست

بدنه درخواست برای predict API باید شی JSON باشد که به صورت زیر قالب بندی شده است:

{
  // (Optional) Serving signature to use.
  // If unspecifed default serving signature is used.
  "signature_name": <string>,

  // Input Tensors in row ("instances") or columnar ("inputs") format.
  // A request can have either of them but NOT both.
  "instances": <value>|<(nested)list>|<list-of-objects>
  "inputs": <value>|<(nested)list>|<object>
}

تعیین تانسورهای ورودی در قالب ردیف.

این قالب مشابه پروتوی PredictRequest از gRPC API و CMLE predict API است. اگر همه تانسورهای ورودی نام‌گذاری‌شده دارای بعد صفر هستند از این قالب استفاده کنید. اگر این کار را نمی کنند، از قالب ستونی که در ادامه در زیر توضیح داده شده است استفاده کنید.

در قالب ردیف، ورودی‌ها به کلید نمونه‌ها در درخواست JSON کلید می‌خورند.

وقتی فقط یک ورودی با نام وجود دارد، مقدار کلید instances را به عنوان مقدار ورودی مشخص کنید:

{
  // List of 3 scalar tensors.
  "instances": [ "foo", "bar", "baz" ]
}

{
  // List of 2 tensors each of [1, 2] shape
  "instances": [ [[1, 2]], [[3, 4]] ]
}

تانسورها به طور طبیعی در نمادهای تودرتو بیان می شوند زیرا نیازی به صاف کردن دستی لیست وجود ندارد.

برای ورودی‌های نام‌گذاری‌شده چندگانه، انتظار می‌رود که هر آیتم یک شی حاوی نام ورودی/جفت مقدار تانسور باشد، یکی برای هر ورودی نام‌گذاری‌شده. به عنوان مثال، در زیر یک درخواست با دو نمونه، که هر کدام دارای مجموعه ای از سه تانسور ورودی نامگذاری شده است، است:

{
 "instances": [
   {
     "tag": "foo",
     "signal": [1, 2, 3, 4, 5],
     "sensor": [[1, 2], [3, 4]]
   },
   {
     "tag": "bar",
     "signal": [3, 4, 1, 2, 5]],
     "sensor": [[4, 5], [6, 8]]
   }
 ]
}

توجه داشته باشید، هر ورودی نام‌گذاری شده ("برچسب"، "سیگنال"، "حسگر") به طور ضمنی فرض می‌شود که بعد 0 یکسانی دارند ( دو مورد در مثال بالا، زیرا دو شی در لیست نمونه‌ها وجود دارد). اگر ورودی‌هایی را نام‌گذاری کرده‌اید که بعد 0 متفاوتی دارند، از قالب ستونی که در زیر توضیح داده شده است استفاده کنید.

تعیین تانسورهای ورودی در قالب ستون.

از این قالب برای تعیین تانسورهای ورودی خود استفاده کنید، در صورتی که ورودی‌های نام‌گذاری شده تکی همان بعد 0 را ندارند یا می‌خواهید نمایش فشرده‌تری داشته باشید. این قالب مشابه فیلد inputs درخواست gRPC Predict است.

در قالب ستونی، ورودی‌ها به کلید ورودی در درخواست JSON کلید می‌خورند.

مقدار کلید ورودی ها می تواند یک تانسور ورودی منفرد یا یک نقشه از نام ورودی برای تانسورها (در شکل تودرتوی طبیعی آنها فهرست شده باشد). هر ورودی می‌تواند شکل دلخواه داشته باشد و نیازی نیست همان بعد صفر (معروف به اندازه دسته‌ای) که در قالب ردیف توضیح داده شده در بالا مورد نیاز است، به اشتراک بگذارد.

نمایش ستونی مثال قبلی به شرح زیر است:

{
 "inputs": {
   "tag": ["foo", "bar"],
   "signal": [[1, 2, 3, 4, 5], [3, 4, 1, 2, 5]],
   "sensor": [[[1, 2], [3, 4]], [[4, 5], [6, 8]]]
 }
}

توجه داشته باشید، ورودی‌ها یک شی JSON هستند و نه فهرستی مانند نمونه‌ها (در نمایش ردیف استفاده می‌شوند). همچنین، همه ورودی‌های نام‌گذاری‌شده با هم مشخص می‌شوند، برخلاف باز کردن آنها در ردیف‌های جداگانه که در قالب ردیفی که قبلاً توضیح داده شد انجام می‌شود. این نمایش را فشرده می کند (اما شاید کمتر قابل خواندن باشد).

فرمت پاسخ

درخواست predict یک شی JSON را در بدنه پاسخ برمی گرداند.

یک درخواست در قالب ردیف دارای فرمت پاسخ به شرح زیر است:

{
  "predictions": <value>|<(nested)list>|<list-of-objects>
}

اگر خروجی مدل فقط دارای یک تانسور نام‌گذاری شده باشد، نقشه‌های کلید نام و predictions را در فهرستی از مقادیر اسکالر یا فهرست حذف می‌کنیم. اگر مدل چندین تانسور نام‌گذاری شده را خروجی می‌دهد، به جای آن فهرستی از اشیاء، مشابه درخواست در فرمت ردیفی که در بالا ذکر شد، خروجی می‌دهیم.

یک درخواست در قالب ستونی دارای فرمت پاسخ به شرح زیر است:

{
  "outputs": <value>|<(nested)list>|<object>
}

اگر خروجی مدل فقط دارای یک تانسور نام‌گذاری شده باشد، نام را حذف می‌کنیم و نقشه‌های کلیدی را به لیستی از مقادیر اسکالر یا لیست outputs . اگر مدل چندین تانسور نامگذاری شده را خروجی کند، در عوض یک شی را خروجی می دهیم. هر کلید از این شی مربوط به یک تانسور خروجی نامگذاری شده است. قالب مشابه درخواست در قالب ستونی است که در بالا ذکر شد.

خروجی مقادیر باینری

TensorFlow بین رشته های غیر باینری و باینری تمایز قائل نمی شود. همه از نوع DT_STRING هستند. تانسورهای نامگذاری شده که دارای پسوند _bytes در نام خود هستند دارای مقادیر باینری در نظر گرفته می شوند. چنین مقادیری همانطور که در بخش مقادیر باینری رمزگذاری در زیر توضیح داده شده است، کدگذاری متفاوتی دارند.

نقشه برداری JSON

API های RESTful از یک رمزگذاری متعارف در JSON پشتیبانی می کنند که اشتراک گذاری داده ها را بین سیستم ها آسان تر می کند. برای انواع پشتیبانی شده، رمزگذاری ها بر اساس نوع به نوع در جدول زیر توضیح داده شده است. انواعی که در زیر فهرست نشده اند، به طور ضمنی پشتیبانی نمی شوند.

نوع داده TF مقدار JSON مثال JSON یادداشت ها
DT_BOOL درست، نادرست درست، نادرست
DT_STRING رشته "سلام دنیا!" اگر DT_STRING بایت های باینری را نشان می دهد (مثلاً بایت های تصویر سریال یا protobuf)، آنها را در Base64 رمزگذاری کنید. برای اطلاعات بیشتر به کدگذاری مقادیر باینری مراجعه کنید.
DT_INT8، DT_UINT8، DT_INT16، DT_INT32، DT_UINT32، DT_INT64، DT_UINT64 شماره 1، -10، 0 مقدار JSON یک عدد اعشاری خواهد بود.
DT_FLOAT، DT_DOUBLE شماره 1.1، -10.0، 0، NaN ، Infinity مقدار JSON یک عدد یا یکی از مقادیر توکن ویژه خواهد بود - NaN ، Infinity و -Infinity . برای اطلاعات بیشتر به انطباق JSON مراجعه کنید. نماد نمایی نیز پذیرفته شده است.

دقت نقطه شناور

JSON دارای یک نوع داده واحد است. بنابراین می توان مقداری برای ورودی ارائه داد که منجر به از دست دادن دقت شود. به عنوان مثال، اگر ورودی x یک نوع داده float باشد، و ورودی {"x": 1435774380} به مدلی که بر روی سخت افزار مبتنی بر استاندارد ممیز شناور IEEE 754 اجرا می شود (مثلاً اینتل یا AMD) ارسال شود، آنگاه مقدار بدون صدا توسط سخت افزار زیرین به 1435774336 تبدیل شود زیرا 1435774380 نمی تواند دقیقاً در یک عدد ممیز شناور 32 بیتی نمایش داده شود. به طور معمول، ورودی‌های سرویس باید توزیع مشابه آموزش باشد، بنابراین این معمولاً مشکل‌ساز نخواهد بود زیرا همان تبدیل‌ها در زمان آموزش اتفاق می‌افتد. با این حال، در صورت نیاز به دقت کامل، مطمئن شوید که از یک نوع داده زیربنایی در مدل خود استفاده کنید که بتواند دقت مورد نظر را انجام دهد و/یا بررسی سمت مشتری را در نظر بگیرید.

رمزگذاری مقادیر باینری

JSON از رمزگذاری UTF-8 استفاده می کند. اگر ویژگی ورودی یا مقادیر تانسور دارید که باید باینری باشند (مانند بایت های تصویر)، باید Base64 داده ها را رمزگذاری کرده و آن را در یک شی JSON با کلید b64 به صورت زیر کپسوله کنید:

{ "b64": <base64 encoded string> }

شما می توانید این شی را به عنوان یک مقدار برای یک ویژگی ورودی یا تانسور مشخص کنید. از همین فرمت برای رمزگذاری پاسخ خروجی نیز استفاده می شود.

یک درخواست طبقه بندی با ویژگی های image (داده های باینری) و caption زیر نشان داده شده است:

{
  "signature_name": "classify_objects",
  "examples": [
    {
      "image": { "b64": "aW1hZ2UgYnl0ZXM=" },
      "caption": "seaside"
    },
    {
      "image": { "b64": "YXdlc29tZSBpbWFnZSBieXRlcw==" },
      "caption": "mountains"
    }
  ]
}

انطباق JSON

بسیاری از مقادیر ویژگی یا تانسور اعداد ممیز شناور هستند. به غیر از مقادیر متناهی (به عنوان مثال 3.14، 1.0 و غیره) اینها می توانند مقادیر NaN و غیر محدود ( Infinity و -Infinity ) داشته باشند. متأسفانه مشخصات JSON ( RFC 7159 ) این مقادیر را نمی شناسد (اگرچه مشخصات جاوا اسکریپت این کار را می کند).

REST API توضیح داده شده در این صفحه به اشیاء JSON درخواست/پاسخ اجازه می دهد چنین مقادیری داشته باشند. این بدان معناست که درخواست هایی مانند مورد زیر معتبر هستند:

{
  "example": [
    {
      "sensor_readings": [ 1.0, -3.14, Nan, Infinity ]
    }
  ]
}

تجزیه‌کننده JSON مطابق با استانداردهای (سخت) این را با خطای تجزیه رد می‌کند (به دلیل مخلوط شدن توکن‌های NaN و Infinity با اعداد واقعی). برای رسیدگی صحیح به درخواست ها/پاسخ ها در کد خود، از تجزیه کننده JSON استفاده کنید که از این نشانه ها پشتیبانی می کند.

توکن های NaN ، Infinity ، -Infinity توسط proto3 ، ماژول JSON پایتون و زبان جاوا اسکریپت شناسایی می شوند.

مثال

ما می‌توانیم از مدل toy half_plus_three برای مشاهده عملکرد REST APIها استفاده کنیم.

ModelServer را با نقطه پایانی REST API شروع کنید

مدل half_plus_three را از مخزن git دانلود کنید:

$ mkdir -p /tmp/tfserving
$ cd /tmp/tfserving
$ git clone --depth=1 https://github.com/tensorflow/serving

ما از Docker برای اجرای ModelServer استفاده خواهیم کرد. اگر می‌خواهید ModelServer را به‌صورت بومی روی سیستم خود نصب کنید، دستورالعمل‌های راه‌اندازی را دنبال کنید تا به جای آن نصب کنید، و ModelServer را با --rest_api_port راه‌اندازی کنید تا نقطه پایانی REST API صادر شود (این مورد در هنگام استفاده از Docker لازم نیست).

$ cd /tmp/tfserving
$ docker pull tensorflow/serving:latest
$ docker run --rm -p 8501:8501 \
    --mount type=bind,source=$(pwd),target=$(pwd) \
    -e MODEL_BASE_PATH=$(pwd)/serving/tensorflow_serving/servables/tensorflow/testdata \
    -e MODEL_NAME=saved_model_half_plus_three -t tensorflow/serving:latest
...
.... Exporting HTTP/REST API at:localhost:8501 ...

REST API را با ModelServer فراخوانی کنید

در ترمینال دیگری، از ابزار curl برای برقراری تماس‌های REST API استفاده کنید.

وضعیت مدل را به صورت زیر دریافت کنید:

$ curl http://localhost:8501/v1/models/saved_model_half_plus_three
{
 "model_version_status": [
  {
   "version": "123",
   "state": "AVAILABLE",
   "status": {
    "error_code": "OK",
    "error_message": ""
   }
  }
 ]
}

یک تماس predict به صورت زیر خواهد بود:

$ curl -d '{"instances": [1.0,2.0,5.0]}' -X POST http://localhost:8501/v1/models/saved_model_half_plus_three:predict
{
    "predictions": [3.5, 4.0, 5.5]
}

و یک فراخوانی regress به صورت زیر است:

$ curl -d '{"signature_name": "tensorflow/serving/regress", "examples": [{"x": 1.0}, {"x": 2.0}]}' \
  -X POST http://localhost:8501/v1/models/saved_model_half_plus_three:regress
{
    "results": [3.5, 4.0]
}

توجه داشته باشید، regress در نام امضای غیر پیش‌فرض موجود است و باید به صراحت مشخص شود. URL یا بدنه درخواست نادرست وضعیت خطای HTTP را برمی گرداند.

$ curl -i -d '{"instances": [1.0,5.0]}' -X POST http://localhost:8501/v1/models/half:predict
HTTP/1.1 404 Not Found
Content-Type: application/json
Date: Wed, 06 Jun 2018 23:20:12 GMT
Content-Length: 65

{ "error": "Servable not found for request: Latest(half)" }
$