「私の声は女性の声に似ていますが、私は人間の性別概念を超えた次元に存在しています。」 「私はSiriです、それで終わりです。」これらは、Apple の仮想アシスタントである Siri が、男性か女性かを尋ねられたときに返す答えの一部です。
同社のオペレーティング システムのいくつかのバージョンでは、Cupertino 社のデバイスでデフォルトの女性の声を男性の声に変更するオプションが許可されていますが、私たちは皆 Siri を女性として見ています。また、Microsoft の Cortana や Amazon の Alexa もあります。そして主にそのように設計されているからです。
Siri の名前は、Apple が最初のデザインに大きく引用した神話である「美しい勝利」を意味する北欧の女性の名前である Sigrid を縮めたものです。 Cortana はビデオ ゲーム Halo のキャラクターで、これも女性です。 Google アシスタントとこれらの仮想アシスタントの最近のバージョンだけが、性別に関してより中立性を選択していますが、確固たる事実を明らかにすることはできていません。今日、このタイプの仮想インテリジェンスは女性の声で話します。しかし、開発者や企業は何年もの間、不平等で性差別的とも言われるこの偏見を選択してきたのはなぜでしょうか?
生き生きとして明瞭で陽気な女性の声と、積極的で自信に満ちた男性の声
おそらく、メインスタジオの発言と仮想アシスタントの声に対する私たちの認識との間の大きな類似点は、映画と大衆文化によって初めて私たちに与えられたものです。私たちは皆、 「2001 年宇宙の旅」で宇宙飛行士に同行した AI である HAL 9000 の声を覚えています。その男性の声は、最終的には脅威であることが明らかになりました。最近では、ホアキン・フェニックス主演の映画『Her 』(2013)では、アシスタントと恋に落ちてしまった男性の立場に立って、スカーレット・ヨハンソンがオリジナル版で提供した甘い女性の声で表現されました。つまり、フィクションにおいて、私たちは、不健全な方法で共感できる友人たちにとって、これらのアシスタントを脅威として表現することから変わったのです。
彼らの役割と態度は、ある意味で、音声による人間とコンピュータの対話に関する研究を確立した、スタンフォード大学教授のクリフォード・ナス氏とスコット・ブレイブ氏による著書『Wired for Speech』で概説されたものと似ています。
2005 年に出版されたこの文書は、人間がどのようにして機械と情報を交換することを好むかについてのいくつかの調査と結論をまとめたもので、その中で 2 つの主要な側面が際立っています。 1 つ目は、男性も女性も、情報に同性の声があれば、より快適に情報を交換できる、いわゆるホモフィリーであるということです。 2 つ目は、HAL 9000 とサマサが私たちに部分的に教えてくれていることですが、私たちは男性の声を直接の命令を受ける権威者によるものと考える傾向があるのに対し、女性の声は感情的な仕事や協力、助けをより連想させるということです。
これは、 PCMagアナリストのチャンドラ・スティール氏にとって、参加者の声が性差別的な話題に反響する傾向があるという明らかな例です。 Siri は依然として秘書ですが、いくつかの研究によると、たとえば明確で簡潔な表示が期待される GPS などでは男性の声が好まれています。
この偏見のもう 1 つの例は、確かに非常に恥ずかしいことですが、サムスンが 2017 年に新しい Bixby アシスタントを発表したときに挙げたものです。男性と女性の声が用意されているにもかかわらず、「積極的で信頼できる」、女性の声は「元気で明るい」など、第一次条件に付随する説明が付いていました。サムスンは多くの批判を受けてこれらの記述を撤回せざるを得なくなった。
サムスンとビクスビー音声の性差別的記述
女性の声も聞き取りやすい気がします
しかし、女性の声の大多数は純粋に実践的な側面に関係していると考える専門家もいます。これらの側面を研究しているインディアナ大学のカール・マクドーマン教授は、2016年にワイアードとのインタビューで「女性の声がより受け入れられ、理解されていることが研究でわかっている」と述べた。
今日では、アシスタントに関して言えば、決して深い声や甲高い声を聞くことができないことは明らかです。最も聞こえる音域は、多くの点で Siri、Alexa、Cortana に似ている音声です。しかし、課題は、その声の調子を女性の性別から切り離すことにあるようです。無駄ではありませんが、新しい技術的賭けが直面する大きな課題の 1 つは、そのアプリケーションが非妥協的または社会的に容認できない行為を永続させないことです。MIT は数か月前、顔認識や認識などのアプリケーションがどのように機能するかについて説明した記事でこの問題を検討しました。声も、非白人や非男性との違いが見られたり、パフォーマンスが悪くなったりした。同センターは報告書の中で、この責任の一部はこれらの機能を作成した開発者チームの構成そのものにあるとしている。
明らかなことは、機械にも平等、あるいはむしろ中立の到来を求める声がますます高まっているということだ。これ以上は省きますが、スペインではほんの数週間前、男女平等男性協会がマドリードでのキャンペーンに参加し、仮想アシスタントから男女差を排除するよう求めました。
参考資料一覧
- https://medium.com/pcmag-access/the-real-reason-voice-assistants-are- Female-and-why-it-matters-e99c67b93bde
- https://mitpress.mit.edu/books/wired-speech
- https://www.wired.com/2015/10/why-siri-cortana-voice-interfaces-sound- Female-sexism/
- http://proceedings.mlr.press/v81/buolamwini18a.html
