サンプルを動かしてみたのでメモ

"クイックスタート"に従うだけで、非常に簡単だった。面倒なのはプロジェクトをセットアップして課金を設定する部分で、そこができてしまえば簡単。

特にこのページからJSONで実験するだけなら直ぐにできる。対象となる絵はStorageにアップロードして実行するように書かれているが、HTTPのURLを指定してやるだけで動く。

Python からの呼び出し

PythonAPIを使う方法も試してみたが、こちらも簡単。pipでクライアントライブラリをインストールして、呼び出すだけ。

サンプルコードはローカルファイルをアップロードして処理するように書かれているが、これもURLを直接指定することもできる。

import io
import os
from google.cloud import vision
from google.cloud.vision import types

url="絵のURL"

client = vision.ImageAnnotatorClient()
image = types.Image(source=types.ImageSource(image_uri=url))

response = client.label_detection(image=image)
for label in response.label_annotations:
    print(label.description)

所感

簡単便利でいい。詳細度もかなり高く、自動車の車種や犬の犬種も出て来る。イオタはミウラになっちゃったけど。よっぽど特殊なターゲットを扱うのでもなければ、自前で認識器をトレーニングする意味はどんどんなくなってくるだろうなあ。