「汎用人工知能による人類滅亡のリスク」の版間の差分
en:Existential risk from artificial general intelligence(23:34, 15 March 2023 )より作成 |
(相違点なし)
|
2023年3月17日 (金) 12:21時点における版
この項目「汎用人工知能による人類滅亡のリスク」は翻訳されたばかりのものです。不自然あるいは曖昧な表現などが含まれる可能性があり、このままでは読みづらいかもしれません。(原文:en:Existential risk from artificial general intelligence 23:34, 15 March 2023 (UTC)) 修正、加筆に協力し、現在の表現をより自然な表現にして下さる方を求めています。ノートページや履歴も参照してください。(2023年3月) |
汎用人工知能による人類滅亡のリスク(Existential risk from artificial general intelligence)とは、汎用人工知能(Artificial General Intelligence:AGI)の大幅な進歩により、人類の絶滅や地球規模の大災害が起こる可能性があるという仮説である[1][2][3]。
概要
汎用人工知能による人類滅亡のリスクの可能性は広く議論されており、コンピュータサイエンスの将来の進歩にも左右される[4] 。かつてのサイエンス・フィクションの専売特許だった超知能に関する懸念は2010年代に主流となり始め、スティーブン・ホーキング、ビル・ゲイツ、イーロン・マスクなどの著名人によって広められた[5]。
この仮説では、現在人類が他の種を支配しているのは、人間の脳に他の動物にはない特有の能力があるためであるが、AIが一般的な知能で人類を上回り、「超知能」となった場合、人類が制御することが困難、あるいは不可能になる可能性があるとされる。マウンテンゴリラの運命が人間の善意に左右されるように、人類の運命も超知能に左右されると主張する[6]。
この懸念は主に封じ込め(AI capability control)と合致(AI alignment)の2種類の問題から生じる。つまり、超知能の機械を制御すること、あるいは人間に適合する価値観を植え付けることは、素朴に考えられているよりも難しい問題である可能性がある。多くの研究者は、超知能マシンが現在の目標を達成できなくなるため、それを停止したり目標を変更しようとする試みには当然抵抗するだろうし、超知能を人間の重要な価値観や制約に完全に一致させることは極めて困難であると主張している[1][7][8]。一方、計算機科学者のヤン・ラカンなどは、超知能には自衛の欲求はないと主張する[9]。
もう1つの懸念は、突然の予期せぬ「知能の爆発」が、それに対する準備をしていない人類を驚かせるかもしれないということである。例えば、AI研究者の能力に匹敵する人工知能の第一世代が、6ヶ月でアルゴリズムを書き換えて速度や能力を倍増させたとすると、第二世代のプログラムは同様の仕事をするのに3ヶ月かかると予想される。このシナリオでは、各世代の時間は短縮され続け、システムは短い時間間隔で前例のないほど、多くの世代を経て改善を重ね、超人的な性能に飛躍すると仮定される[1][7]。経験的に言えば、囲碁の領域におけるAlphaZeroの例のように、AIが時として狭い人間レベルの能力から、狭い超人的な能力に極めて速く進歩できることを示している[10]。
脚注
出典
- ^ a b c Russell, Stuart; Norvig, Peter (2009). “26.3: The Ethics and Risks of Developing Artificial Intelligence”. Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4
- ^ Bostrom, Nick (2002). “Existential risks”. Journal of Evolution and Technology 9 (1): 1–31.
- ^ Turchin, Alexey; Denkenberger, David (2018-05-03). “Classification of global catastrophic risks connected with artificial intelligence”. AI & Society 35 (1): 147–163. doi:10.1007/s00146-018-0845-5. ISSN 0951-5666 .
- ^ GiveWell (2015). Potential risks from advanced artificial intelligence (Report). 2015年10月12日時点のオリジナルよりアーカイブ。2015年10月11日閲覧。
- ^ Parkin, Simon (2015年6月14日). “Science fiction no more? Channel 4's Humans and our rogue AI obsessions” (英語). The Guardian. オリジナルの2018年2月5日時点におけるアーカイブ。 2018年2月5日閲覧。
- ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First ed.). ISBN 978-0199678112
- ^ a b Yudkowsky, Eliezer (2008). “Artificial Intelligence as a Positive and Negative Factor in Global Risk”. Global Catastrophic Risks: 308–345. Bibcode: 2008gcr..book..303Y. オリジナルの2 March 2013時点におけるアーカイブ。 2018年8月27日閲覧。.
- ^ “Research Priorities for Robust and Beneficial Artificial Intelligence”. AI Magazine (Association for the Advancement of Artificial Intelligence): 105–114. (2015). arXiv:1602.03506. Bibcode: 2016arXiv160203506R. オリジナルの4 August 2019時点におけるアーカイブ。 2019年8月10日閲覧。., cited in “AI Open Letter - Future of Life Institute”. Future of Life Institute. Future of Life Institute (2015年1月). 2019年8月10日時点のオリジナルよりアーカイブ。2019年8月9日閲覧。
- ^ Dowd, Maureen (2017年4月). “Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse” (英語). The Hive. オリジナルの2018年7月26日時点におけるアーカイブ。 2017年11月27日閲覧。
- ^ Graves, Matthew (2017年11月8日). “Why We Should Be Concerned About Artificial Superintelligence”. Skeptic (US magazine) 22 (2). オリジナルの2017年11月13日時点におけるアーカイブ。 2017年11月27日閲覧。