ERNIE-ViLG によって生成されたプロンプト「中国」から中国の上に重ねられた画像
中国の主要なテキストから画像への合成モデルであるBaiduのERNIE-ViLGは、「天安門広場」や政治指導者の名前などの政治的なテキストを検閲していると、MIT Technology ReviewのZeyi Yang 氏は報告しています。
画像合成は最近、ソーシャルメディアやオンライン アートコミュニティで人気を博しています。Stable Diffusionや DALL-E 2 などのツールを使用すると、「プロンプト」と呼ばれるテキスト説明を入力することで、想像できるほぼすべての画像を作成できます。
2021年、中国のテック企業BaiduはERNIE-ViLGと呼ばれる独自の画像合成モデルを開発し、公開デモをテストしているうちに、一部のユーザーはそれが政治的なフレーズを検閲していることに気づきました。
MIT Technology Reviewの詳細なレポートに従って、Hugging Face でホストされているERNIE-ViLG デモの独自のテストを実行し、「中国の民主主義」や「中国の国旗」などのフレーズが画像を生成できないことを確認しました。
代わりに、「入力内容が関連するルールを満たしていません。調整してからやり直してください!」という中国語の警告が表示されます。
画像合成の制限に遭遇するのは中国に限ったことではありませんが、これまでのところ、国家の検閲とは異なる形をとっています. DALL-E 2の場合、アメリカの企業 OpenAIのコンテンツポリシーにより、ヌード、暴力、政治的なコンテンツなど、一部の形式のコンテンツが制限されています。しかし、これは OpenAI側の自発的な選択であり、米国政府からの圧力によるものではありません。Midjourneyはまた、一部のコンテンツをキーワードで自発的にフィルタリングします。
ロンドンを拠点とするStability AIの Stable Diffusionには、オープンソースの性質上、無効にできる組み込みの「安全フィルター」が付属しているため、実行する場所に応じて、そのモデルにはほとんどすべてが適用されます。特に、Stability AIの責任者である Emad Mostaque氏は、政府や企業による画像合成モデルの検閲を避けたいと発言しています。
「人々は、これらのモデルやサービスを作る上で最善だと思うことを自由に行うべきだと思う」と彼は先週、Reddit AMAの回答に書きました。
BaiduがERNIE-ViLG モデルを自発的に検閲して中国政府からの潜在的なトラブルを防いでいるのか、それとも潜在的な規制 ( 1 月に提案されたディープフェイクに関する政府の規則など) に対応しているのかは不明です。しかし、テクノロジー メディアの検閲を行ってきた中国の歴史を考えると、AI によって生成されたコンテンツのいくつかの形式がまもなく公式に制限されることは驚くべきことではありません。
(via Arts Technica)
Last Updated on 2022年9月15日 by Editor
関連記事をどうぞ!
※このサイトの記事には「噂」や「疑惑」など、不確定な情報が含まれています。ご了承ください。(管理人)