ディープフェイクとして知られる、あらゆる種類の状況に 有名人の顔を置くスキャンダラスな技術に続き、新しいアプリケーションは、ディープラーニングに基づく画像アルゴリズムを女性の画像の裸にもたらします。

DeepNudeと呼ばれるこのソフトウェアは、ニューラルネットワークを使用して画像の衣服に相当する部分を認識し、それをインターネットからダウンロードされた何千枚もの裸の女性の画像から編集された情報に置き換えます。今週公開され、 Motherboardで取り上げられた後、完全版のコストが 50 ドルから 100 ドルに値上げされ、サーバーの稼働を維持することが困難になっています。

ダリがこの「ディープフェイク」で蘇り、最新の展覧会にあなたを招待します

ディープフェイクからディープヌードへ

ディープフェイクからディープヌードへ

このプログラムは人工知能ベースの X 線アプリケーションとして宣伝されており、デスクトップ システム向けに開発されています。低解像度の画像に赤の「FAKE」という文字の透かしが入っていますが、これは上隅にあり簡単に切り取られるため、最新のアルゴリズムの出現後、何が本物で何が偽物なのかについての議論が増幅されています。人工知能。

このアプリケーションが実際に誰かの服を脱がせるのではなく、問題の女性の要素に比較的近い、そして裸の要素を他の要素に置き換えるという仕事をしていることは明らかです。それでも、Photoshop の事前知識がなくても、オンラインで入手可能な画像を同意なく使用することが誰でも可能になります。ディープフェイクの作成プロセスとは何時間もかかり、技術的な知識と強力なデスクトップ コンピューターの使用が必要ですが、この種のアプリケーションは比較的即時で、操作は数回のクリックと 1 分程度の待ち時間に短縮されます。

最新の「ディープフェイク」が示す、誤った情報が私たちを待ち受ける恐ろしい未来

DeepNude は、バークレー大学が開発した pix2pix のソフトウェア実装を使用しており、敵対的生成ネットワーク (GAN) を使用しています。GAN は、地図や自動運転環境の生成などに一般的に使用されており、開発者によると 10,000 枚以上の画像でトレーニングされています, アルベルトと名乗る彼。この大学のコンピューターサイエンス専門家の一人、ハニー・ファリド氏はマザーボードに対し、その適応の容易さに驚いたと語り、次のように指摘した。

「私たちはディープフェイクの検出能力をさらに高める必要があり、学者や研究者は、テクノロジーの進歩が兵器化され、意図的でない有害な方法で使用されないようにする方法について、より批判的に考える必要があるでしょう。さらに、ソーシャルメディアプラットフォームは、このコンテンツに関するルールをどのように定義し、施行するかをより慎重に検討する必要があり、私たちの立法者も、この分野でどのように慎重に規制するかを考える必要があるでしょう。」

このソフトウェアの公開は、女性に対するテクノロジーの使用に関する議論に新たなひねりを加え、同意なしに画像を使用すると、ポルノ コンテンツの悪意のある配布につながる可能性があります。主人公はそれらのイメージが存在することさえ知りません。

米国では、「あらゆる人を虚偽の外見から守る」ことを目的とした法案が今月提出され、すでに進行中である。そして、それだけでは十分ではないようですが、一部の専門家は、いわゆるリベンジポルノであろうと人工知能によって生成されたものであろうと、違法な方法で入手されたポルノ素材の消費を避けるという国民の個人的な責任を指摘しています。

参考資料一覧

  1. https://www.youtube.com/watch?v=uZ5_RbhVu2A
  2. https://www.vice.com/en_us/article/kzm59x/deepnude-app-creates-fake-nudes-of-any-women
  3. https://www.congress.gov/bill/116th-congress/house-bill/3230

深層学習を使用して女性を「脱ぐ」性差別的アプリケーション・関連動画