Я следую этому официальному руководству по tensorflow, чтобы построить модель классификации текста.

Я экспортирую обученную модель как таковую

serving_input_fn = tf.estimator.export.build_parsing_serving_input_receiver_fn(tf.feature_column.make_parse_example_spec([embedded_text_feature_column]))
export_path = estimator.export_saved_model("./models/sentiment", serving_input_fn)

Я не был уверен, как передать образец предложения (например, «это был отличный фильм»), чтобы сделать прогноз при загрузке.

imported = tf.saved_model.load(b'./models/sentiment/1586848142')
infer = imported.signatures["serving_default"]
1
MAS 14 Апр 2020 в 14:29

1 ответ

Это то, что вам нужно, чтобы загрузить модель

imported = tf.saved_model.load(export_path)


def predict(x):
    example = tf.train.Example()
    example.features.feature["sentence"].bytes_list.value.extend([x])
    out = imported.signatures["predict"](examples=tf.constant([example.SerializeToString()]))['probabilities']
    return out

x = b"I am happy"
predict(x)
2
MAS 14 Апр 2020 в 20:21
Подпись имеет только signatures["serving_default"]. Вы знаете, что нам нужно сделать в этом случае?
 – 
sariii
6 Июн 2022 в 21:23