科学者のグループは、虚偽のコンテンツの作成前と作成後をマークできる人工知能の開発に取り組んでいます。そして、機械学習技術によってサポートされている AI は、あらゆるテキストを受け入れてディープフェイクを生成することができます。したがって、「詐欺師」の顔がどのような言葉を言うかを正確に確立することが可能です。
関与した研究者は、 Adobe Research 、スタンフォード大学、プリンストン大学、マックス・プランク研究所などのさまざまな機関に所属しています。そのソフトウェアはまだ完成していませんが、最初のテストでは、ディープフェイクの作成がますます複雑ではなくなることが示されており、懸念しているのと同じくらい驚くべき結果がすでに提供されています。次のビデオでデモを見ることができます。
現時点では、前述の人工知能は人の頭だけが映っているビデオを処理していることに言及することが重要です。これは、他の手足が映っているとアルゴリズムがその仕事をすることができないためです。もう 1 つの制限は、入力されたテキストが元の資料と大きく異なるものであってはいけないということです。実際、音声なりすまし技術は画像操作のレベルまで進化していないため、新しい単語に適応した音声を録音する必要がありました。
最初の進歩は期待以上のものですが、プロジェクトに参加している科学者たちは、実装すべき改善点がまだたくさんあることを認めています。たとえば、ディープフェイクが気づかれないようにするための重要な特徴である、声の調子や偽の顔の雰囲気を変更することはまだ不可能です。 AI を完成させるにはまだ長い道のりがありますが、完成すれば、最も効率的で先進的な AI の 1 つとなるでしょう。
人工知能は一般人に利用可能になるのでしょうか?その可能性が高いです。アドビ自身も最近、Project VoCo というツールを導入しました。このツールを使用すると、ユーザーは決して話されていない単語を追加して音声録音を変更できます。 VoCo は科学者のソフトウェアに組み込まれているテクノロジーの 1 つであり、これにより音声に関してより良い結果を得ることができました。
Samsung AI が 1 枚の写真から「ディープフェイク」を作成する方法をご覧ください
他の同様の提案でもすでに起こっているように、システムが悪者の手に渡ってしまうのではないかという懸念があります。研究者らは、「悪意のある者がこれらのテクノロジーを利用して個人的な発言を改ざんしたり、著名人を中傷したりする可能性がある」ことを認めている。提案された解決策は、生成されたマテリアルが偽物であることを示す何らかの兆候を示すというものです。ただし、この種のグラフィックは比較的簡単に削除できます。 Adobe はすでに、ビデオからオブジェクトを削除する機能を After Effects で提供しています。
参考資料一覧
- https://www.ohadf.com/projects/text-based-editing/
