ディープフェイクとジェンダー暴力
2017年、ジャーナリストのサマンサ・コールは、オープンソースの人工知能(AI)技術を利用して有名人の顔を使った自家製の同意のない性的画像やポルノを作成していた人物をRedditで発見した。この人物は自らを「ディープフェイク」と名乗っていた。 初期のディープフェイクは偽物で非現実的に見えるため、簡単に見分けることができました。しかし、このテクノロジーは非常に洗練されているため、コンピューターと人工知能について中途半端な知識があり、まともなコンピューターにアクセスできる人なら誰でも、まともなディープフェイクを簡単に作成、配布、販売できるようになりました。 ディープフェイカーがしなければならないことは、Instagram などの公開フィードでターゲットにしたい人物の写真を見つけて、非常にリアルな性的な画像やポルノを作成することだけです。 ダルハウジーのシューリッヒ法科大学院の助教授、スージー・ダン氏は、「性的自立の問題や偏見は、生まれてすぐに現実に存在する」と語る。 rabble.ca インタビュー中。 ダン氏は続けて、「今では、接触することなく、実際に非常に深刻な方法で人々に性的暴行を加えることができる人々が存在する可能性がある」と述べた。 新しい形のジェンダー暴力 性的なディープフェイクの作成自体が、性的自律性、つまり個人が干渉されることなく自分の身体とセクシュアリティについて決定する権利の侵害です。 実際の性的コンテンツであると主張しながらディープフェイクをオンラインに投稿することは、親密な画像を同意なく配布することに等しい。結果として生じる公衆被害は同じだからだ。 Sensity AI のレポート「ディープフェイクの現状 2019 年の状況、脅威、影響」によると、ディープフェイクの 96% が同意のない性的コンテンツの作成に使用されていることがわかりました。これらのディープフェイクのうち、99% は女性の画像でした。 これは新しい形のジェンダー暴力です。 「カナダだけでなく世界中で、性的ディープフェイクの害は認識されつつある。これらのディープフェイクがRedditサイトから出始めたとき、多くの人がPornhubやさまざまな場所に投稿した。すぐにPornhubを含むソーシャルメディア企業のほとんどは、その種のコンテンツは許可されていないというポリシーを作成し、我々はそれを我々の同意のないWebサイトが投稿する他の同意のない画像ルールと同じカテゴリーに置いた」とダン氏は述べた。 オーストラリア人のノエル・マーティンさんは、インターネットで彼女を見つけた何者かによって標的にされました。彼らは偽の Photoshop ポルノを作成し始め、最終的にはマーティンのディープフェイクを作成しました。 マーティン氏は、オーストラリアの非同意画像法に「改変画像」という用語を追加するなどの法改正を主張した。改変された画像を含めるということは、本物の肖像であろうとディープフェイクであろうと、本人の同意なしに性的画像を共有する者は誰でも法の対象となることを意味します。 カナダの刑法にはそのような規定はありません。したがって、性的な画像があなたの同意なしに投稿された場合、告発するには実際にあなたの裸体でなければなりません。...