これはもはや SF についての議論ではありません。ここ数カ月のめまぐるしい進歩により、AIが意識を持つようになる可能性を真剣に検討する必要があると、数学的意識科学協会(AMCS)は警告している。同団体によれば、人類が「目覚め」に達したときに、これらのシステムを「制御し、調整し、使用する」ことができるかどうかを自問すべきだという。
世界中の150人以上の科学者や哲学者で構成するAMCSは、「意識がAIに私たちの道徳的地位を与えることになり、倫理的、法的、政治的な懸念がさらに高まるだろう」と警告している。 AIが意識を持つようになるということは、AIが人間のように自由かつ自律的に考えることができるようになるということを意味します。
同協会は公開書簡の中で、ChatGPTやBardのようなシステムがいくつかの予期せぬ新機能を実証していると警告している。たとえば、 Google のチャットボットである Bard は、新しい言語を独力で学習しました。彼は人間が感じる痛みや救いなどの問題についても考えることができました。同社のCEOの言葉によれば、 この行為がどのようにして起こったのかまだ完全に理解できていないという。
「現代のAIシステムは、心の理論からの証拠を含め、心理学で認識されている人間の特性をすでに示しています」と同グループは書簡の中で述べており、この活動は意識科学研究協会(ASSC)からも支援されている。
彼らはAI開発者に意識についての研究を深めるよう求めている
AMCS によれば、新しい AI システムの機能は、私たちの理解をはるかに超えるペースで加速しています。 AIが意識を獲得すれば、「その開発の先頭に立っている人々さえも期待しているものをはるかに超える新たな範囲の能力が明らかになる可能性が高い」。
同団体はテクノロジー部門と科学界に対し、この研究分野にさらなるリソースを投資するよう求めている。この方向に進めば、社会や政府が AI の将来とその潜在的な影響について決定できるようになるでしょう。つまり、このテクノロジーが人類に害を及ぼさないようにする必要があります。
「AI研究は放っておかれるべきではない」と彼らは文書の中で述べている。この書簡には、NASA議長のスーザン・シュナイダー氏と英国、米国、欧州の大学の数十人の学者が署名している。
その他の懸念事項
さまざまな科学者グループが AI に関連するリスクに注目を集めています。 1000人以上の専門家や学者が大企業に対し、「AIの効果がプラスになり、リスクが管理可能になる」ことが確実に分かるまでAIモデルの開発を中止するよう要請した。彼らは、Twitterの所有者でOpenAIの共同創設者、ChatGPTの作成者であるイーロン・マスクを含む、数人の業界幹部が署名した別の公開書簡を通じてこれを行った。
GoogleのAI倫理チームの元責任者であるマーガレット・ミッチェル氏も他の同僚とともに、開発者に対して透明性を高め、経済的利益よりもユーザーの安全を優先するよう求めた。 「企業の行動と選択は、人々の権利と利益を保護する規制によって決定されなければならない」と彼らは声明で述べた。
参考資料一覧
- https://amcs-community.org/open-letters/
- https://www.dair-institute.org/blog/letter-statement-March2023
