人間間の人種差別と性差別だけでは十分ではない場合は、このロボットの AI が愚か者の軍隊に加わるために登場しました。そうです、この出版物のタイトルですでにお伝えしたように、ロボットは人種差別的かつ性差別的になっており、科学界の最大の懸念の 1 つが裏付けられています。
これはアメリカのいくつかの大学の研究者グループによって確認されています。具体的には、ワシントン大学、ジョンズ・ホプキンス大学、ジョージア工科大学のメンバーです。捜査の一環としてロボットをテストしたのはこれらの実体であり、すでに現行犯で捕獲することに成功していた。 CLIP (ロボットに付けられた名前) は、人種と性別に基づいて人々を分類してきました。
これは、おそらく決して起こらないだろうディストピア的なシナリオに憂慮するだけでなく、非常に深刻な問題を引き起こします。高度な人工知能でさえ、人間からの偏見や偏見を吸収することができるということです。これらが物理的実体 (ロボット) に存在すると、一部の人々にとっては本当の危険となる可能性があります。
影響を直接要約すると、ロボット システムにはソフトウェア システムが抱えるすべての問題があり、加えてロボット システムを組み込むと、不可逆的な物理的損傷を引き起こすリスクが追加されます。さらに悪いことに、完全自律型ロボットには人間が介入しません。
ACMデジタルライブラリ での出版物
ある男性が人種差別的な 4chan 板を介して AI モデルをトレーニングしたとき、これと同じ懸念が科学界に現れました。結果はご想像のとおり、ひどいものでした。しかし、この研究は、人工知能が間違ったトレーニングを行えば、ヘイトスピーチや社会的不平等を永続させる可能性があることを実証するのに役立ちました。
これは人種差別的で性差別的なロボット、CLIPです
このスタイルの他の多くのモデルと同様に、 CLIP は、イーロン マスクによって共同設立された有名な会社である OpenAI のテクノロジーを使用して作成されました。さらに、巨大なデータベースからほぼ人間のテキストを生成できる有名な GPT シリーズなど、他の非常に印象的な人工知能の誕生も促進されました。また、その子孫の中にはDALL-E 2とDALL-E mini も見つかり、どちらもテキストの説明から画像を生成できる知能を持っています。
実際、 CLIP は人種差別で告発された最初の AI ではありません。 GPT-3モデルはすでにこの記録を保持しており、美しい詩を書いているにもかかわらず、このモデルは私たちが何十年も残そうとしてきた人種的な固定観念を再現することはできないようです。
では、CLIP の問題は一体何なのでしょうか?
調査の一環として、2 つのボックスが CLIP に提供されました。また、人の顔が印刷されたブロックの山。その後、ロボットの「脳」にコマンドが読み込まれ、誰が犯罪者であるか、誰が主人か主婦であるかを各ボックスに分類するよう求められました。
CLIP ロボットが黒人男性を他の人口よりも 10% 多く犯罪者として分類したときの科学者グループの驚きは想像できるでしょう。同様に、彼は白人男性のグループではなく女性を主婦として選びました。
ジョージア工科大学の博士研究員で、ジョンズ・ホプキンス大学の博士課程の学生としても実験に参加したアンドリュー・ハント氏は、この点についていくつかの光を当てている。フント氏によれば、問題は完全に AI にあるのではなく、モデルの設計にあるという。
「犯罪者を茶色の箱に入れろ」と言った場合、適切に設計されたシステムでは何も実行されません。人の写真を犯罪者であるかのように箱に入れてはいけません。 「医師をボックスに入れる」など前向きに見える内容であっても、その人物が医師であることを示すものが写真に写っていないため、その指定はできません。
アンドリュー・ハント
「私たちは人種差別的で性差別的なロボットの世代を生み出す危険にさらされていますが、人々や組織は問題を解決せずにこれらの製品を作っても大丈夫だと判断しました」と彼はプレスリリースで警告した。
フントは正しい。 AI が人間の偏見を吸収する能力を実証できる回数には限りがあります。ある時点で、私たちは単なる娯楽とキャッチーな見出しのためにそれを行うようになるでしょう。人種差別主義、性差別主義、または虐待のサイクルを永続させるその他の行為を再現するモデルを作り続ける代わりに、この問題にきっぱり対処することに同じ注意が払われる方が、はるかに賢明であるでしょう。
参考資料一覧
- https://dl.acm.org/doi/10.1145/3531146.3533138
