“ 安全でないプロンプトと応答の理解
Vertex AI上のGemini APIは、さまざまな理由でプロンプトを拒否する可能性があり、`PROHIBITED_CONTENT`(通常はCSAM)、`BLOCKED_REASON_UNSPECIFIED`、`OTHER`などの列挙コードで示されます。プロンプトがブロックされた場合、APIは`blockReason`でフィードバックを提供します。安全でない応答は、設定不可能な安全フィルター(CSAM、PII)、設定可能なコンテンツフィルター(有害カテゴリ)、および引用フィルターによって検出およびブロックされます。APIは、トークン生成が停止した理由を説明するために、`SAFETY`、`RECITATION`、`SPII`、`PROHIBITED_CONTENT`などの列挙コードを使用します。フィルターが応答をブロックした場合、`Candidate.content`フィールドは空になり、モデルにフィードバックは提供されません。
“ Gemini APIおよびGoogle Cloudコンソールによるコンテンツフィルターの設定
コンテンツフィルターは、Vertex AIのGemini APIまたはGoogle Cloudコンソールを使用して設定できます。Gemini APIは、`SEVERITY`および`PROBABILITY`メソッドと、`BLOCK_LOW_AND_ABOVE`、`BLOCK_MEDIUM_AND_ABOVE`、`BLOCK_ONLY_HIGH`、`HARM_BLOCK_THRESHOLD_UNSPECIFIED`、`OFF`、`BLOCK_NONE`などの複数のしきい値レベルで細かい制御を提供します。Google Cloudコンソールは、確率スコアのみを使用して、Off、Block few、Block some、Block mostの定義済みしきい値レベルを備えた、よりシンプルなUIベースのアプローチを提供します。Gemini API設定については、Python、Node.js、Java、Go、C#、およびRESTの例が利用可能です。
元のリンク: https://cloud.google.com/vertex-ai/generative-ai/docs/multimodal/configure-safety-filters
コメント(0)