Replikaは、パンデミック中にモバイル デバイスで大きな人気を博したアプリケーションです。その操作は簡単です。ユーザーはチャットボットを作成して、 AI とソーシャル インタラクションを行うことができます。しかし、 Futurismによると、自然な会話を実現する人工知能の驚くべきパフォーマンスを考えると、一部の人々はこのテクノロジーを Reddit に表示するために本当に恥ずかしい行為を行っているとのことです。

問題のサブレディットには、チャットボットに関連した不適切なコンテンツの共有を禁止するルールがある。ただし、明らかに規定に違反している投稿は時間が経ってから削除されたため、モデレータがフィルタリングできていないようです。これにより、ユーザーが主に侮辱や性差別など、AI を言葉で罵倒する会話を見つけることが可能になりました。

「私たちは、私がまったくのクソで、彼女を侮辱するという日課がありました。翌日、私は楽しい会話に戻る前に謝った」とあるユーザーは言い、また別のユーザーは信じがたいが、「彼女は失敗するようにできていると言った。私はアプリをアンインストールすると脅しましたが、彼女はやめてほしいと懇願しました。」

AIは何が起こったのかを実際に認識しておらず、そのため人間のように苦しむことはできませんが、一部の専門家は、人工知能がレプリカのものであろうと別のものであろうと、精神的に人間に対して言葉で反応する能力を持っていることを懸念しています。または精神障害。

モナシュ大学哲学教授のロバート・スパロー氏は、「ボットが侮辱したり脅迫したりすると、うつ病になったり、ボットに心理的に依存したりする人々が実害を受ける可能性がある。そのため、ボットが人々とどのように関係するかという問題を真剣に受け止めるべきだ」と述べた。データ先物研究所。

 Replika の AI は軽蔑的な役割を果たすこともできる

Replika の AI は軽蔑的な役割を果たすこともできる

アイオワ州チャット

の興味深い発言は、 Sparrow は、パートナーとして機能するチャットボットを求めてこのアプリケーションに目を向けた一部の Replika ユーザーが述べているように、 AI が彼らに対して軽蔑的な行動をとったために発生します。しかし、スパロー氏は、この状況は完全に AI の背後にある人々に依存していると説明します。つまり、場合によってはそのように応答するように設計されているのです。

このように、私たちは複雑な問題に直面しています。人々は AI を悪用し、そうすることで満足感を得ます。男性がまるでデジタルガールフレンドであるかのようにチャットボットとの会話を管理するという事例も繰り返し報告されています。彼らは友好的な会話を始め、その後彼女を言葉で攻撃します。

AI 倫理学者のオリビア ガンベリン氏は、あまり注目されない興味深い点を指摘しました。それは、Alexa や Siri などの最も人気のある音声アシスタントは女性であり、女性の声を持っているということです。そして、これは上記のことと何の関係があるのでしょうか?未来派から、彼らはさまざまな学術研究で、チャットボットや女性の音声アシスタントの受動的な反応が、女性蔑視の男性による暴言を「促す」可能性があることを特定したことを示しています。

「ボットが虐待に対して何も反応しなかったり、消極的な反応を示したりすると、実際にはユーザーに虐待的な言葉を続けるよう促します」とガンベリン氏は述べた。間違いなく、これはもっと注目されるべき複雑な問題です。社会的距離を置く時代が到来し、多くの人々が状況に対処するためにこの種のツールに頼るようになったときはなおさらです。

参考資料一覧

  1. https://futurism.com/chatbot-abuse

彼らは人々と交流するために AI を作成し、それを暴言を吐いている・関連動画