如何使用Google云视觉API检测暴力或裸体?
How to use the Google Cloud Vision API to detect violence or nudity?
我检查了什么:
我查看了文档:https://cloud.google.com/vision/docs/
看到这个例子:https://github.com/thesandlord/samples/blob/master/cloud-vision-nodejs/index.js
我想要实现的目标:
我想在用户上传的每张图片保存到我的 google 云存储桶之前对其进行分析。
如何使用 Cloud Vision 检测暴力或裸露内容API?
您可以通过 Google Cloud Vision API 使用不当内容检测。要使用此功能,只需将 SAFE_SEARCH_DETECTION
添加到您的 API 请求中:
{
"image": {
"content": "base64ImageString"
},
"features": [
{
"type": "SAFE_SEARCH_DETECTION"
},
// More feature detection types….
]
}
您会收到这样的回复:
"safeSearchAnnotation" : {
"spoof" : "VERY_UNLIKELY",
"medical" : "UNLIKELY",
"adult" : "VERY_UNLIKELY",
"violence" : "VERY_UNLIKELY"
}
要了解有关此功能的更多信息,请阅读 Google 的 blog article。
我检查了什么:
我查看了文档:https://cloud.google.com/vision/docs/
看到这个例子:https://github.com/thesandlord/samples/blob/master/cloud-vision-nodejs/index.js
我想要实现的目标:
我想在用户上传的每张图片保存到我的 google 云存储桶之前对其进行分析。
如何使用 Cloud Vision 检测暴力或裸露内容API?
您可以通过 Google Cloud Vision API 使用不当内容检测。要使用此功能,只需将 SAFE_SEARCH_DETECTION
添加到您的 API 请求中:
{
"image": {
"content": "base64ImageString"
},
"features": [
{
"type": "SAFE_SEARCH_DETECTION"
},
// More feature detection types….
]
}
您会收到这样的回复:
"safeSearchAnnotation" : {
"spoof" : "VERY_UNLIKELY",
"medical" : "UNLIKELY",
"adult" : "VERY_UNLIKELY",
"violence" : "VERY_UNLIKELY"
}
要了解有关此功能的更多信息,请阅读 Google 的 blog article。