米Amazon Web Servicesは、「Amazon Bedrockのガードレール」の画像サポートにおける、マルチモーダル毒性検出のプレビュー提供を12月4日(現地時間)に開始した。
Amazon Bedrockのガードレールは、望ましくないコンテンツをフィルタリングして個人を特定できる情報(PII)を編集し、コンテンツの安全性とプライバシーの強化によって、生成AIアプリケーションの保護実装に役立つ。拒否されたトピック、コンテンツフィルタ、単語フィルタ、PII編集、コンテキストに基づくグラウンドチェック、自動推論チェック(プレビュー)のポリシーを設定して、特定のユースケースと責任あるAIポリシーに合わせて、保護のカスタマイズを可能にする。
今回、プレビュー提供が開始されたマルチモーダル毒性検出を使用することで、テキストに加えて望ましくない画像コンテンツを検出・除外するため、生成AIアプリケーションにおけるユーザーエクスペリエンスの向上とモデル出力の管理に役立つ。
同機能によって、Amazon Bedrockのガードレールにおける既存のコンテンツフィルタポリシーを使って、憎悪、侮辱、性的、暴力といった複数のカテゴリにわたる有害な画像コンテンツを検出してブロックできるようになった。アプリケーションのニーズに合わせて、しきい値を低いものから高いものまで設定可能となっている。
同機能は、画像データをサポートするAmazon Bedrockのすべての基盤モデル(FM)と、ユーザーが独自に微調整したモデルで機能し、テキストと画像のモダリティ全体で一貫した保護レイヤが提供されるため、責任あるAIアプリケーションの構築を容易にする。
画像サポートによるマルチモーダル毒性検出のプレビューは、米国東部(バージニア北部、オハイオ)、米国西部(オレゴン)、アジアパシフィック(ムンバイ、ソウル、シンガポール、東京)、欧州(フランクフルト、アイルランド、ロンドン)、AWS GovCloud(米国西部)の各AWSリージョンにて利用できる。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です