アイザック・アシモフが著書ですでに述べたように、欧州委員会 (EC) は独自のロボット法を模索しています。今週の木曜日、ECは52人の専門家を集め、人工知能(ロボットとAI)の倫理に関連する問題に取り組む人工知能に関する新しいハイレベルグループが設立されました。このようにして、遅くとも2020年の初めまでにこの問題について立法化することを目指している。
「人工人格は、ロボット宗教のようなもの、つまりソフトウェアを作成する際に追加される内部倫理規定のようなものを意図しており、最低限の倫理的規定を備えている」とこの法学者は説明する。兵器の分野でも、開発者が人工人格に「イエスかイエス」を付け加える「5つの基本ルール」が求められている。最も純粋な SF スタイルで。 「それらはアシモフそのものになるわけではない」が、似たようなものが求められている。
ヨーロッパは、そのアプリケーションと用途を定義するために AI 専門家のグループを設立
人工的な倫理を求めて
ロボットも人工知能も、仕事を行うためにはまず学習する必要があります。つまり、いわゆる機械学習です。 「たとえば、Web サイトにコメントがあり、これは良い、これは悪いと伝えます」と、利用規約の技術法を専門とする法学者、ホルヘ・モレル氏はHipertextualに説明します。そして、すべてに共通するガイドラインに従ってそれらをカタログ化することを学びます。 「これは最も簡単な例です」と彼は付け加えた。 「しかし、人々に影響を与えるより複雑な事柄に取り組む場合、訓練のために与えるデータは、人種、興味、考え方の点で偏っていたり、偏りすぎたりします…最終的には倫理的および倫理的の両方で意思決定を行うAIを生成します。法的に複雑だったり、標準から外れていたりするのです」と彼は説明する。 「AIとその倫理的側面を規制する際の最初の問題は、AIを訓練するデータをどこで入手したのか、そしてプログラマーや企業が特定のバイアスがあるかどうか認識しているかどうかだ」と同氏は指摘する。
ロボット工学の法則を発明した男
プログラマーはすでに倫理的な問題に直面していますか?人工人格に倫理は本当に必要なのか?どちらの質問に対する答えも「はい」であり、ロボットと AI の倫理規制が必要な理由は数多くあります。
米国では、釈放される可能性のある人物が再犯する可能性があるかどうかを裁判官が知るのに役立つプログラムである COMPAS を使用しています。この AI はここ数十年の統計に基づいており、個人の個人的な状況に応じて、多かれ少なかれ再び犯罪を犯す可能性があります。 「この制度は米国ではかなり考慮されています」と法学者は言う。 「しかし、彼らはこのシステムには人種差別的な偏見があることに気づいています」とモレル氏は付け加えた。これは、いかなる種類の差別も存在しないように人工人格を規制する必要がある理由の一例です。
別の例は、 Google の積極的な AIの場合です。 DeepMind は、北米の会社が開発中の AI で、簡単な果物狩りゲームをプレイしているときに私たちを驚かせました。できるだけ多くの果物を集めるようにプログラムされていました。しかし、「物資が不足している時代には、それが攻撃的になり、プログラマーは協調的に動作するようにプログラムし直す必要がありました」とモレル氏は電話の向こう側で説明する。
これらの倫理的要因や、自動運転車が関与する事故で発生する可能性のある他の多くの要因は、今週木曜日にブリュッセルで開催される専門家会議が解明しようとしているものであり、欧州委員会は報告書で「 2019年初めにガイドラインを提示する予定」と予想している。ウェブサイト。
私たちは間もなく独自のロボット法を制定することになるようで、再び SF が現実との競争に勝ったようです。
参考資料一覧
- https://terminosycondiciones/
- https://ec.europa.eu/digital-single-market/en/news/commission-appoints-expert-group-ai-and-launches-european-ai-alliance
