画像ソース:映画「 2001年宇宙の旅」の静止画。 (ワーナー・ブラザース・ディスカバリー)
人工知能が人類を打倒するという考えは何十年にもわたって語られてきました.2021年、科学者たちは、高度なコンピューターのスーパーインテリジェンスを制御できるかどうかについての評決を下しました。
問題は、人間の理解をはるかに超えたスーパーインテリジェンスを制御するには、分析 (および制御) できる超知能のシミュレーションが必要になることです。しかし、それを理解できなければ、そのようなシミュレーションを作成することはできません。
AIが思いつくシナリオの種類を理解していなければ、「人間に危害を加えない」などのルールを設定することはできない、と新しい論文の著者は示唆しています。コンピューターシステムがプログラマーの範囲を超えるレベルで動作するようになると、制限を設定することはできなくなります。
「スーパーインテリジェンスは、『ロボット倫理』の旗印の下で通常研究されるものとは根本的に異なる問題を提起する」と研究者は書いています。
「これは、スーパーインテリジェンスが多面的であり、人間には理解できない可能性があり、ましてや制御可能ではない目的を達成するために、多様なリソースを動員できる可能性があるためです」
チームの推論の一部は、1936年にアラン・チューリングによって提唱された停止問題に由来しています。この問題は、コンピュータープログラムが結論と答えに到達するかどうか (つまり、停止するかどうか) を知ることに集中しています。
チューリングがスマートな数学で証明したように、特定のプログラムについてはそれを知ることができますが、これまでに作成される可能性のあるすべての潜在的なプログラムについてそれを知る方法を見つけることは論理的に不可能です。ここで、AIの話に戻ります。AI はスーパーインテリジェントな状態で、考えられるすべてのコンピュータープログラムを一度にメモリに保持できます。
たとえば、AI が人間に危害を加えたり、世界を破壊したりするのを阻止するために書かれたプログラムは、結論に達する (そして停止する) かどうかにかかわらず、いずれかの方法で完全に確信することは数学的に不可能です。
2021年、ドイツのマックス・プランク人間開発研究所のコンピューター科学者イヤド・ラーワン氏は、「事実上、これは封じ込めアルゴリズムを使用できなくする」と述べています。
AIにいくつかの倫理を教え、世界を破壊しないように指示する代わりに、どのアルゴリズムも絶対に確実に行うことはできないと研究者は述べていますが、スーパーインテリジェンスの能力を制限することです。たとえば、インターネットの一部や特定のネットワークから遮断される可能性があります。
この研究はこの考えも否定し、人工知能の到達範囲を制限することを示唆しました。人間の範囲を超えた問題を解決するためにそれを使用しないのであれば、なぜそれを作成する必要があるのでしょうか?
同じく2021年、マックス・プランク人間開発研究所のコンピューター科学者マヌエル・セブリアン氏は、「世界を制御する超知能マシンはSFのように聞こえる」と語りました。
「したがって、ある時点でこれが制御不能になり、人類にとって危険になる可能性があるかどうかという疑問が生じます」
(via Science Alert)
Last Updated on 2022年9月19日 by Editor
関連記事をどうぞ!
※このサイトの記事には「噂」や「疑惑」など、不確定な情報が含まれています。ご了承ください。(管理人)