先週の木曜日、 DeepNude が知られるようになりました。DeepNude は、ディープラーニングまたは人工知能アルゴリズムを使用して、女性のみの写真から衣服を自動的に削除する画像編集作業を可能にする物議を醸したアプリケーションです。最初の出版から数時間以内に展覧会が開催された後、これはおそらく決定的な閉幕となった。
エストニアに拠点を置く開発者 Deepinstruction が唯一の開発者であるように見える理由は、国際的な報道では自分自身を Alberto と呼んでいたが、影響力が大きく、最初のダウンロード数が 50 万件と推定されているためです。 、「悪用される可能性が高すぎる」、そして「彼らはそのようにしてお金を稼ぎたくない」。
深層学習を使用して女性を「脱ぐ」性差別的アプリケーション
誤用はありますが、わずかです
アプリケーションの Twitter アカウントによると、これほど多くの人が使用する場合、画像に透かしを入れるだけの「セキュリティ対策」では不十分であり、「彼らはこの方法で金儲けしたくない」あるいは「許されることを望んでいない」と指摘している。彼らはそれを売っています。」
pic.twitter.com/8uJKBQTZ0o
— deepnudeapp (@deepnudeapp) 2019年6月27日
無料だったこのアプリケーションには、最初は約 50 ドルの費用がかかる拡張バージョンがあり、その後、最初の効果を見て価格が 2 倍に値上げされたことを思い出してください。これにより、最初の数時間でサーバーが崩壊し、Web サイトを閉じる必要さえありました。
DeepNude は、他のバージョンは公開せず、「誰にも使用を許可しない」と述べています。奇妙なことに、この声明は、あたかも完全に逆ではないかのように、「世界はまだディープヌードの準備ができていない」と述べて終わっています。
金を奪って逃げる
実際のところ、アプリケーション自体が他人の画像を無断で悪用することはほぼ当然のこととして想定されているため、これらの「セキュリティ対策」は決して十分とは言えないようです。そして現在、彼はおそらく予想以上に多くの資金と注目を集めているため、このスタイルの適用がもたらす可能性のある法的影響を回避しようとしている。
DeepNude は、バークレー大学が 2017 年に公開したオープンディープラーニングエンジンである pix2pix と連携しました。このエンジンは通常、自動運転システムのトレーニングなどのさまざまなタスクの画像処理を実行するために使用され、衛星画像を介して地図から生成されたり、黒や色を着色したりすることもあります。白い画像が自動的に表示されます。
白黒写真を簡単にカラー化
しかし、これらの画像は何もないところから処理されたわけではなく、DeepNudeが実際に行ったのは、アルベルト自身がMotherboardに認めたように、インターネットから入手した裸の女性の1万枚以上の画像から衣服に相当する部分を他のものに置き換えることだった。確かに、これらにはいかなる種類の利用権もありません。
開発者自身の Web サイト、deepinstruction.com にはアクセスできなくなりました。昨日、彼が取り組んでいると思われる他のプロジェクトがリストされていました。それは、白黒画像をカラー化する DeepOld と、画像の背景を置き換える DeepBackground です。これら 2 つのアプローチはそれほど物議を醸すものではなく、実際、同様のタスクを実行するサイトがすでにたくさんあります。
参考資料一覧
- https://twitter.com/deepnudeapp/status/1144307316231200768?ref_src=twsrc%5Etfw
- https://t.co/8uJKBQTZ0o
- https://www.deepinstruction.com/
- https://phillipi.github.io/pix2pix/
