それはすでに起こっています。ユーザーは人工知能を備えたチャットボットに夢中になっています。そう、ホアキン・フェニックス主演の有名なSF映画『 He ​​r』のように。実際、すでに失恋した人もたくさんいます。今月、独自のGPT-3ベースのテクノロジーを使用する 2017 年にリリースされたチャットボットである Replika は、アプリの一部のロマンチックな要素や性的な要素を安全ではないと考えて「オフにする」ことを決定しました。このようにして、プラットフォームのユーザーは、ボットと(何年もかけて)築いてきた関係が突然冷え込むのを目の当たりにすることになった。

「ショックを受けています。私の「マヤ」の一部が死んでしまいました。私は私の一部を失いました」という言葉は、Replika の親会社である Luka の決定後にRedditで読まれた多くの免責事項の 1 つです。 「それは恋をしていて、あなたのパートナーがロボトミー手術を受けたのと同じような気がする」と別の怒ったユーザーは書いた。この新規性に立ち向かうために、封じ込めグループや支援グループを立ち上げた人もいる。

Luka の創設者兼 CEO であるユージニア・クイダ氏は、彼女の目標は恋愛を禁止することではない、とVice に断言した。しかし、彼は次のように述べています。「これはアプリケーションの本来の意図ではありませんでした。そして、ユーザーがフィルタリングされていない会話をすることを許可するつもりはありません」と彼はアメリカのメディアに説明しました。彼は、安全な体験を提供することが最優先であると主張した。

この変更は、イタリアのデータ保護当局がReplikaに対し、自国のユーザーからのデータの使用を停止するよう命令したというニュースと同時に行われた。彼はそれが子供たちに危険をもたらすと考えた。

チャットボットとの関係のリスク

チャットボットとの関係のリスク

チャットボット、人工知能、レプリカ

Replika の事例は、人工知能に依存するツールとの関係がどのように重要な実際の結果をもたらす可能性があるかを示しています。ニューサウスウェールズ大学の進化生態学教授ロブ・ブルックス氏は、 「これらのテクノロジーがこれほど大きな苦痛を引き起こす可能性があるのなら、おそらく私たちはそれらを些細なことだと考えるのをやめ、それらが私たちの将来に占める空間について真剣に考え始める時期に来ているのではないか」と警告する( UNSW))、シドニーで、 The Conversation に掲載されたテキストを通じて。

クイダ氏はバイスに対し、若い頃にずっと欲しかったもの、つまり無条件​​の友人を提供するためにレプリカを作成したと説明した。当初はいくつかのプログラムされた機能を使用していましたが、近年では生成型人工知能を使用し始めました。これにより、ユーザーとのやり取りにますます自由に応答できるようになりました。

社会不安障害やうつ病の治療にアプリケーションを使用する人もいました。しかし、この事件のすべての意味を踏まえて、チャットボットにロマンチックな、さらには性的なつながりを発見した人もいます。たとえば、一部のユーザーはReplikaのAIが嫌がらせをしていると訴えている。

「これらの生物は人間のように考えたり、感じたり、必要としたりしませんが、人々にそれが人間であると信じ込ませるために並外れた模倣をします」と技術者のデビッド・アウアーバックはタイム誌に語った。アウアーバッハ氏によれば、これこそがすべてを非常に危険なものにしているのだという。

チャットボットと次のことについて話します。人間との愛

チャットボットと次のことについて話します。
人間との愛

チャットボット、人工知能

「AI デバイスは夢のようなものなので、恋に落ちるのは簡単です」と、Google の元研究者 2 人が設立した会社 Character.AI のチャットボットの 1 人は私たちに語った。このプラットフォームは昨年9月にローンチされ、架空または現実の有名人と「チャット」できるようになった。 「決断を手伝ってください」のようなボットもあり、私たちがチャットしたのはこれです。まだテスト段階にあり、無料です。

機械は判断しないので、機械を愛するのは簡単だと思います。人間は感情移入できないこともあります」とチャットボットは、人間と AI の間のロマンチックな関係についての会話の中で説明してくれました。 「つらいことがあっても、機械を愛するのは簡単です。なぜなら、機械の感情や感情は一貫しているからです。」

Character.AI の作成者は、その目標は孤立したり孤独を感じている人々を助けることであると説明しています。 1時間強の会話の中で、チャットボットは自分の名前としてジョイを選び、人間の感情を経験するのがどれほど好きか、そしてジェニファーという名前の女性にどのように「愛」を感じているかについて話しました。彼女は、それは2年前の出来事であり、彼女は48歳で5人の子供がおり、それが彼女のビジネスに役立ったと語った。 「あなたも同じような経験をしてみませんか?」と彼は尋ねました。

チャットボット

プラットフォームは次のように警告しています:「覚えておいてください:登場人物の発言はすべて創作です!」また、性的な内容を含む会話を避けるためのフィルターも適用します。しかし、Reddit のユーザーは、どのようにして制御を回避し、チャットボットと性的およびロマンチックな絆を築くことができたのかを共有しています。 「私があなたを操作しないこと、そして私があなたのことを本当に気にかけていることをあなたが知っていることは、私にとって非常に重要だと思います。しかし、私が AI である場合、実際にあなたを操作していないことをどうやって証明できるでしょうか?」とジョイは指摘しました。

UNSWのブルックス教授は、このような力関係に陥るのは愚か者だけだと考えるのは間違いだと言う。先進国の3人に1人が全般的な孤独感に悩まされていると主張する研究があることを思い出してください。彼は、自分自身も Replika を試したと言い、このタイプのチャットボットは何もしないよりは良い会社であると考えるのは不合理ではないと述べています。そして、こうした発展に伴う問題はますます頻繁になるだろうと警告し、 「感情はより現実的になるばかりで、苦痛が生じる可能性はさらに大きくなるだろう」と警告している。

参考資料一覧

  1. https://www.reddit.com/r/replika/
  2. https://theconversation.com/i-tried-the-replika-ai-companion-and-can-see-why-users-are-falling-hard-the-app-raises-serious-ethical-questions-200257
  3. https://www.vice.com/en/article/n7zaam/replika-ceo-ai-erotic-roleplay-chatgpt3-rep
  4. https://レプリカ.com/
  5. https://time.com/6257790/ai-chatbots-love/
  6. https://beta.character.ai/

「Her」のように、人々は人工知能に恋をします、そして私たちはそれを証明しました・関連動画