人工知能は、ごく少数の人だけが使用できる非常に特殊なものとして始まりました。しかし、今日では、それを望む人は誰でも、たとえばChatGPT のようなアルゴリズムを通じてそれにアクセスできます。このため、多くの人は、これらのアルゴリズムが私たちに不愉快な驚きを与えないように、目的を明確にして正しく設計することの重要性を警告しています。このテーマに最も重点を置いている人物の 1 人は哲学者のニック・ボストロムであり、彼は 2014 年に、これが適切に行われなかった場合に何が起こるかを非常に簡単な例で説明しました。
彼は例として、ペーパークリップを製造することを目的とした人工知能を挙げた。他の目的は与えられておらず、そのことだけが与えられています。 AIの倫理を専門とするこの哲学者によれば、長期的にはAIは人類を滅亡させる可能性があるという。
彼がこの例を使用したのは、それが一見非常に無害なものに見えるためです。しかし、彼によれば、それはほぼすべての人工知能に当てはめることができるという。したがって、その目的が何であるかを定義し、これらのアルゴリズムが人類に役立つものでなければならないことを明確にすることが非常に重要です。それが適切に行われない場合、彼らはそれを守ろうとする理由がありません。
ペーパークリップを作る人工知能はどのようにして人類を滅ぼすことができるのでしょうか?
明らかに、これはすべて、目標の重要性を警告するためにボストロムが提起した仮説です。この人工知能は存在しません。しかしそれでも、彼がどのようにして人類を全滅させることができるのか見てみましょう。
これは、できるだけ多くのクリップを作成するという 1 つの目的を与えられた単純なアルゴリズムになります。それをノンストップで実行し始めるが、あらゆる可能性を計算するように訓練されたアルゴリズムであるため、いつかは人間を邪魔者とみなすようになるだろう。いつでも誰かがそれをオフにしてしまう可能性があり、そうなるとできるだけ多くのペーパークリップを作ることができなくなります。さらに、人間はペーパークリップになれる原子を持っています。それらは無駄にされているのです。
これは極端な例です。しかし、このことは、人工知能アルゴリズムがより効率的になるにつれて、その目標を定義することの重要性を理解するのに役立ちます。
彼らは人間に奉仕しなければなりません
ボストロム氏は例を挙げながら、定義しなければならない目標の 1 つは、人工知能が常に人類に奉仕しなければならないことであると説明しました。これが明確にされず、特定の個人またはグループの利益のためにのみ機能する場合、残りは不要であると見なされます。
要するに、人工知能は役に立つのです。たくさん。ただし、制限を設定し、それが何のために必要か、どのように機能するかを明確にする必要があります。ボストロムがかつて言ったように、「超知性体に何を求めるかは注意しなければなりません。それを手に入れてしまう可能性があるからです。」実際、それは私たちが望んでいる以上に進む可能性さえあります。これを防ぐには、アルゴリズムを設計する前に綿密に計画する必要があります。それが増加し始めている現在、立法すべきことがたくさんあり、倫理について議論すべきことがたくさんあることは明らかです。しかし、それを超えて、予期せぬ事態を避けるために慎重に設計する必要があるテクノロジーもたくさんあります。
参考資料一覧
- https://www.iflscience.com/how-an-ai-asked-to-Produce-paperclips-could-end-up-wiping-out-humanity-68432
