山崎光春のテックユニバース

このブログでは最新のテクノロジーやデバイスなど、テクノロジーとライフスタイルの交差点について共有していきます。

生成AIによるCSAM拡散防止に向けた「Safety by Design」原則発表 山崎光春

生成AIによるCSAM拡散防止に向けた「Safety by Design」原則発表

こんにちは!山崎光春です。

主要なAI企業が、児童性的虐待コンテンツ(CSAM)の作成と拡散を防ぐための「Safety by Design」原則に合意した。

この原則は、非営利団体Thornと All Tech Is Humanが中心となり策定したものだ。Amazon、Anthropic、Civitai、Google、Meta、Metaphysic、Microsoft、Mistral AI、OpenAI、Stability AIの10社が署名している。

企業は、トレーニングデータセットにCSAMが含まれないことを保証し、高リスクなデータセットの使用を回避する。また、CSAM画像やリンクをデータソースから削除することを約束する。 

さらに、AIモデルのストレステストを実施してCSAM画像が生成されないことを確認し、子供の安全性が評価された場合にのみモデルをリリースすることを約束する。

Thornは、生成AIにより1人の加害者が大量のCSAMを簡単に作成できるようになると警告する。オリジナルの画像や動画をAIで改変し、新たなCSAMを生成する可能性があるためだ。

Googleは、この原則を順守するほか、児童保護団体NCMECの取り組みのために広告助成金を増額したことも発表した。

これらの取り組みは、生成AIの悪用によるCSAMの拡散を防ぐ重要な一歩となるだろう。企業と非営利団体が協力し、子供の安全を最優先にした対策を講じることが不可欠だ。

 

米AI大手、生成AIによる児童性的虐待コンテンツ作成を阻止する原則に署名(ITmedia NEWS) - Yahoo!ニュース https://news.yahoo.co.jp/articles/bc817ca3097bfb5429d548fce0db16fa904873ea