画像ソース:darky.artist
AIポルノは、あなたが期待するほど不安で不完全です(月の赤毛は、余分な腕フェチを持つ誰かによって生成された可能性は低いです). しかし、技術が向上し続けるにつれて、AI の倫理学者とセックス ワーカーの両方にとって困難な問題が生じる可能性があります。
最新の画像生成システムを使用して作成されたポルノは、4chanのメンバーがオープンソースのStable Diffusionシステムを正式リリース前にリークした後、今月初めにディスカッションボード4chanと Redditを介して最初に現場に到着しました。そして先週、高忠実度のAIポルノ生成に特化した最初の Webサイトの1 つと思われるものが立ち上げられました。
Porn Penと呼ばれるこの Web サイトでは、ユーザーは、「ベイブ」、「ランジェリー モデル」、「ぽっちゃり」、民族 (「ロシア」や「ラティーナ」) と背景 (「ベッドルーム」、「シャワー」、「月」などのワイルドカードなど)。ボタンは、正面、背面、または側面からモデルをキャプチャし、生成された写真の外観を変更できます。
Y CombinatorのHacker Newsフォーラムで、作成者であると称するユーザーは、Porn Penを最先端のテキストから画像へのモデルを使用した「実験」であると説明しています。
「有害な画像が生成されるのを避けるために、カスタム テキストを指定する機能を明示的に削除しました」と彼らは書いています。
しかし、Porn Penは、画像生成システムのバイアスや、それらが生じたデータのソースなど、多くの倫理的問題を提起しています。技術的な影響を超えて、カスタマイズされたポルノを作成するための新しい技術が(それが普及すると仮定して)、同じことで生計を立てているアダルトコンテンツの作成者を傷つける可能性があるかどうかは疑問です。
セックスワーカーであり、コンテンツのモデレーションを含むケースに取り組むピアオーガナイザーであるアシュリーは、Porn Penによって生成されたコンテンツは、現状ではセックスワーカーにとって脅威ではないと考えています。
OnlyFansやManyVidsなどの既存の収益化可能なポルノ サイトでは、アダルトクリエーターは年齢と身元を確認して、同意したアダルトであることを会社が認識できるようにする必要があります。もちろん、AI で生成されたポルノモデルはこれを行うことはできません。それらは本物ではないからです。
ただし、アシュリーは、ポルノサイトが AI ポルノを取り締まれば、 SESTA/FOSTAなどの法律による規制の強化に直面しているセックスワーカーに対する規制が厳しくなる可能性があると心配しています。
議会は、2019 年にSafe Sex Workers Study Actを導入し、オンラインセックスワークをより困難にするこの法律の影響を調査しました。この調査では、オンラインプラットフォームへのアクセスによってもたらされる経済的安定を失った後、コミュニティ組織は、セックスワーカーのホームレスが増加していると報告していることがわかりました。
現在、世界中でディープフェイクポルノに関連する法律はほとんどありません。米国では、バージニア州とカリフォルニア州のみが、フェイクおよびディープフェイクのポルノメディアの特定の使用を制限する規制を設けています。
Stable Diffusion などのシステムは、例によってテキストから画像を生成することを「学習」します。コンテンツを示す注釈が付けられた何十億もの写真 (たとえば、「ダックスフンド、広角レンズ」というラベルの付いた犬の写真) を入力すると、システムは特定の単語やフレーズが特定の芸術スタイル、美学、場所などを指していることを学習します。 .
これは実際には比較的うまく機能します。「ヴァン ゴッホのスタイルで描いた鳥の絵」のようなプロンプトは、鳥を描いたヴァン ゴッホ風のイメージを予想通り生み出します。しかし、プロンプトが曖昧であったり、固定観念を参照したり、システムが慣れていない主題を扱ったりすると、さらに複雑になります。
たとえば、Porn Penは、人がまったくいない画像を生成することがあります。おそらく、システムがプロンプトを理解できていないためです。また、前述のように、典型的には余分な手足、異常な場所の乳首、ゆがんだ肉など、物理的にありそうもないモデルを示している場合もあります。
Porn Pen を支えている可能性が高いシステムの 1 つである Stable Diffusion のトレーニング データセットには比較的少数の「閲覧注意」画像が含まれていますが、Redditorsと4chan ユーザーによる初期の実験では、有名人のポルノ ディープフェイクを生成するのに非常に優れていることが示されています (Porn Pen — おそらく偶然ではないでしょう)。 —「有名人」オプションがあります)。
また、オープン ソースであるため、Porn Pe の作成者が追加のヌード画像でシステムを微調整することを妨げるものは何もありません。
「実在する人物の [ポルノ] を生成するのは絶対に良くありません」とアシュリー氏は言います。
ディープフェイクポルノは、人々を脅したり嫌がらせをするために作成されることがよくあります。これらの画像は、ほとんどの場合、悪意から被験者の同意なしに開発されています。2019 年、調査会社Sensity AIは、オンラインのディープフェイク動画の 96%が同意のないポルノであることを発見しました。
理論的には、ポルノ俳優は、ディープフェイク画像の作成者と戦うために、著作権保護、名誉毀損、さらには人権法を利用することもできます。しかし、MIT Technology Review の記事で指摘されているように、法的な議論を裏付ける証拠を収集することは、非常に困難な作業であることが判明する可能性があります。
より原始的な AIツールが数年前にディープフェイク ポルノを広めたとき、Wiredの調査によると、同意のないディープフェイクビデオが、Pornhubのような主流のポルノ サイトで何百万回も再生されていたことがわかりました。
他のディープフェイク作品は、Porn Penに似たサイトに居場所を見つけました。Sensityのデータによると、上位 4 つのディープフェイク ポルノWebサイトは 2018 年に1 億 3,400 万回以上の再生回数がありました。
(via TechCrunch)
Last Updated on 2022年9月3日 by Editor
関連記事をどうぞ!
※このサイトの記事には「噂」や「疑惑」など、不確定な情報が含まれています。ご了承ください。(管理人)