「汎用人工知能」の版間の差分

出典: フリー百科事典『ウィキペディア(Wikipedia)』
削除された内容 追加された内容
Ore0000 (会話 | 投稿記録)
ページ「Artificial general intelligence」の翻訳により作成
タグ: 曖昧さ回避ページへのリンク コンテンツ翻訳 コンテンツ翻訳バージョン2
(相違点なし)

2023年3月24日 (金) 13:29時点における版

コンピューターサイエンスの未解決問題
汎用人工知能は実現可能なのか?また、実現可能だとすればどのように実現できるのか?

汎用人工知能(はんようじんこうちのう、:Artificial general intelligence、略称:AGI)とは、人間が実現可能なあらゆる知的作業を理解・学習・実行することができる知的エージェントである[1][2]人工知能の研究においては主要かつ最終的な目標であるとみなされており、サイエンスフィクション未来学において話題に上がることが多い。他の呼称としては強いAI[3][4][5]フルAI[6]ジェネラル・インテリジェント・アクション[7](英:general intelligent action)などがあるが、一般的な学術的文章においては感性意識を有するコンピュータープログラムに対しては「強いAI」という言葉を使用することが多い[注釈 1]

強いAIの対照的な存在として考えられているのが弱いAI英語版(特化型AI)である[8][4]。弱いAIは1つの問題を解決するために設計されたプログラムであり、学術的には人間のような意識やを持たないものであると定義されている[注釈 2]。2020年の調査では、全世界において37カ国で汎用人工知能の研究・開発が行われており、さらに72個のプロジェクトが進行中であることが確認されている[9]

特徴

知能」をどのように定義し、基準とするかは様々な意見が存在し、統一的な意見は存在しない。人工知能の知能をテストする方法として最も有名なのはチューリングテストである[注釈 3]

知能の特色

しかしながら、どのような要素で「知能」が組み立てられているかは考察できる。人工知能の研究者間で広く認められている「知能」を構成するのに必要な要素は以下である[10]

さらに、これらの能力を統合(人工知能のシステム統合英語版)することが求められる。その他に重要な要素は以下である。

  • 見る、聞くといった能力によって情報をインプットすることができる。
  • それらの情報を元に、行動をアウトプットできる。(例えばロボット工学の技術によって自らの位置を移動させたり、など)

また、危険を回避するなどといった行為によって知的な行動を確認することができる[11][12]。知能に関する学際的研究(認知科学計算知能研究、意思決定研究)では、知能を測るにあたって想像力(プログラム外の心象や概念などを把握できる能力[13])や自律性などを考慮する傾向にある。

意思決定支援システムロボット進化的計算知的エージェント計算総合性英語版など、これらの能力を獲得しているように見えるコンピュータープログラムは存在するが、すべての分野において優れている統合システムについては未だかつて実現したことはない。

数学公式化

汎用人工知能を数学的にどのように定義するかについては、2000年にコンピュータ科学者であるマーカス・ハッター英語版によって提案されたAIXI英語版モデルが存在する。AIXモデルでは「未知なる環境下においても目標を達成できる能力」を最大化する[14]。人間の行動を模倣するのではなく、知能の数学的定義を最大化するタイプの汎用人工知能は普遍的人工知能(:universal artificial intelligence)と呼ばれることもある[15]

2015年、マーカス・ハッターとジャン・リーケは「Legg-Hutter知能は不変の万能チューリング機械(UTM英語版)を基準にして測定し、もしそのように測定すればAIXIモデルが最も知能的である(つまりAIXIのパレート最適性は主観的である可能性)」ことを示した。これはAIXIのパレート最適性を覆す結果であった[16]。この問題はAIXIが知能の代用として圧縮を用いたことに起因すると考えられており、認知は環境から切り離されて行われる必要があるとされる。これは哲学の領域で実体二元論として知られるものを公式化したものである[17]。しかしながら現成主義英語版、すなわち認知は目標を追求する環境下において成り立つとされる考え方を支持する科学的根拠が多数存在する[18]。その後、この問題を受けてマイケル・ティモシー・ベネットは現成主義認知を形式化し、「弱点」と呼ばれる知能の代用を特定した[19]。弱点と圧縮の数学的証明による比較実験によって、弱点を最大化すると「様々な問題を解決する能力[20]」あるいは「普遍化能力[21]」が最大になることが示された。つまり結果としては、先程の定義とAIXI、どちらの定義を使っても知能が最大となり、同じであったのである。これらの研究結果により、もし現成主義が成立し実体二元論が成立しないと仮定したならば、圧縮は知能を構成する要素として必要あるいは十分ではないことが明らかになった。こうした経緯によって広く普及している知能に関する見解に疑問が投げかけられた。これらの人工知能に関する数学的問題はハッター賞英語版で盛んに議論されている。

数学公式化によって導かれた汎用人工知能は、認知に関する立場を問わず自然言語の使用といった人間的な行動を取るかは不明である。人間的な行動をするかどうかは多くの要因に依存し[22]、どのようにエージェントが具体化されるか[20]、飢えや痛みなどの原始的な報酬関数を定めるかによって左右されるからである[23]

人間レベルの汎用人工知能かを判別するためのテスト

汎用人工知能が人間レベルにまで達しているかを確認するためのテストとして、以下のようなものが考案されている[24][25]

チューリング・テストアラン・チューリング
人間が機械を直接的に確認できないように隔離し、文字のみでのコミュニケーションをする。判定者となる人間が高い確率でコミュニケーションの相手が機械であるかどうか判別出来なかった場合、このテストに合格したことになる。注意すべきなのは、チューリングは知能の定義を規定していたわけではなく、ただ人間を騙せた場合において合格であると設定したのみであることである。つまりこのテストに合格したからといって、合格した機械が明確に知能を有するとは断言できない。
コーヒー・テストスティーブ・ウォズニアック
平均的なアメリカの家庭に機械を訪問させ、コーヒーを淹れられるかどうかを試すテスト。このテストに合格可能な機械はコーヒーマシンを見つけ、コーヒー豆を探し、マグカップを取り出し、適切なボタンを押す能力があるとみなされる。
ロボット大学生テスト(ベン・ゲーツェル英語版
機械に大学入試テストを受けさせる。さらに人間と同じように講義に参加させ、学位を取得させる。
就職試験 (ニルス・ジョン・ニルソン英語版
機械に就職活動を行わせ、人間と同レベルに仕事ができるかどうかを観察する。

AI完全問題

機械が人間と同じように課題を解決するためには、当然だが一般的な知能を必要とする。例えば機械翻訳のような単純作業においてさえ、機械は両方の言語を読み書きし(自然言語処理)、著者の主義主張を追い(推論)、どのような話題であるかを知り(知識)、文章の裏にある著者の本当の意図を忠実に再現(社会的知性)する必要がある。つまり人間レベルの知能にまで達するには、これらの能力すべてを獲得していなければならない。

ある特定の問題を解決すること仮定する。その問題を解決するのに必要な能力が、人間と同程度あるいは強いAIと同レベルの能力を要求し、目的特化型アルゴリズム(弱いAI)[26]には解決出来ない問題である場合、この問題は非公式に「AI完全」あるいは「AI困難」と呼ばれる。AI完全問題では、一般的なコンピュータビジョン自然言語理解、現実世界では当然起こり得る予期せぬ出来事への対処などを想定している[27]


AI完全問題は、今現在のコンピュータ技術において解決は不可能である。この問題を解くには人間の知能が必要であり、この性質を利用したシステムなども作られている。例えばCAPTCHAのような技術によって人間かロボットかを判別したり、総当たり攻撃によってコンピュータセキュリティの突破を阻止する技術などが挙げられる[28][29]

歴史

古典的な人工知能

1950年代から現代的な人工知能研究が始まった[30]。当時の人工知能研究者は楽観的であった。多くの第1世代人工知能研究者たちは、今後数十年以内において汎用人工知能が実現すると確信していた[31]。人工知能研究のパイオニアであったハーバート・サイモンは1965年にこう書き記している[32]

今後20年以内に、機械は人間が実現可能なあらゆる仕事をできるようになるであろう。 — ハーバート・サイモン

この種の予想はアーサー・C・クラークの小説を元に制作された映画「2001年宇宙の旅」に登場するHAL 9000と呼ばれる人工知能を搭載したキャラクターから大いに影響を受けていた。初期の人工知能研究者であるマービン・ミンスキーは、当時の楽観的な予想に基づいてHAL9000を可能な限り現実化するプロジェクトのコンサルタントを務めていたこともある[33]ダニエル・クラヴィエ英語版は1967年にこのように発言している[34]

今後、一世紀以内に人工知能を作るという問題は実際的に解決されるであろう。 — ダニエル・クラヴィエ


汎用人工知能の研究として特筆すべき初期の研究は、ダグラス・レナート英語版主導のCycプロジェクトアレン・ニューウェル主導のSoar (認知アーキテクチャ)プロジェクトなどが挙げられる。

しかしながら初期の楽観主義は長くは続かなかった。1970年代初頭から1990年代初頭にかけて、人工知能研究者たちはこのプロジェクトの難易度を甚だしく過小評価していたと自覚しつつあった。人工知能研究に出資していた出資者たちは早急に使い勝手の良い「応用可能なAI」[注釈 4][35][36]を開発するよう、プレッシャーを強めていった。1980年代に入ると、日本の国家プロジェクトである第五世代コンピュータが汎用人工知能への関心を呼び起こした。このプロジェクトでは10年の期間内で、「カジュアルな会話を行える」[37]汎用人工知能を作ることなどが目標の1つとして挙げられていた。さらにエキスパートシステム開発の成功に反応して、産業界は再び人工知能分野に資金を提供し始めた[38][39]。しかし、1980年代に入ると人工知能に対する期待は完全に消滅した。日本の第五世代コンピュータも失敗に終わった[40]。20年前に人工知能研究者たちが出していた予想が悉く外れたことも影響した。1990年代に入ると、人工知能研究者は「空約束ばかりする学者集団」という評価を受けるようになった。そのころになると、人工知能研究者たちは「バカバカしい夢想家」という汚名を避けるために、「人間レベルに達する人工知能」についての発言や予想[注釈 5][41]を意図的に避けるようになった[42]

特化型AIの研究

1990年代から21世紀初頭にかけて、人工知能の研究は主にニューラルネットワークや統計的機械学習に焦点が当てられてきた。その結果として確証可能な結果や商業的応用が可能になり、学術的評価と共に従来を上回る成果を達成した[43]。現代社会において、これらの「応用AI」はテクノロジー産業全体で利用されており、学術界および産業界両方において多額の資金が供給されている。2020年以降、「応用AI」分野の研究・開発はトレンドであり、完全な停滞期にまで達するには今後10年以上の歳月が必要になると推定されている[44]。 2020年以降、さまざまな部分問題を解決するプログラムを開発することが人工知能研究の主流になっている。弱いAIを開発し、それらの統合することによって結果的に強いAIの達成を図ろうとしているのである。1988年、人工知能研究者であるハンス・モラベックはこう述べている。

私はこう確信している。つまり、人工知能を「下」から研究していくことによって、伝統的な「上」からの研究を上回ることができると。これを続けていくことによって、いつの日か人工知能は推論プログラムによって、これまで捉えようがなかったような常識的知識と応用能力を手にするであろう。そして「上」と「下」の研究成果を統合するゴールデン・スパイクが打たれたその瞬間、完全な人工知能が誕生するであろう[45]

しかしながらこの考えには異論も存在する。例えばプリンストン大学教授のスティーバン・ハーナッドは、1990年に「シンボルグラウンディング問題」論文の最後にこう書いている。

認知をモデル化するための「上」からのアプローチはやがて「下」からのアプローチと統合しうると声高に叫ばれている。しかしこの論文内での考察が正しいのならば、そういった期待は絶望的なまでに単純化されていると言わざるを得ない。感覚からシンボルへ実現可能な方法は唯一つ、一からやり直すしかない[46]

現代の汎用人工知能に関する研究

1997年、人工知能研究者であるマーク・グブルドは、自動化された軍事作戦について研究する最中、「汎用人工知能」という単語を提唱した[47]。2002年、シェーン・レッグ英語版ベン・ゲーツェル英語版はこの用語をより一般に普及させた[48]。2006年には、ベン・ゲーチェルと王培(Pei Wang)によって汎用人工知能の初期的な研究が行なわれた。2009年、中国の厦門大学において、汎用人工知能に関する最初の夏期講習会が開かれた。これは厦門大学人工知能研究所とOpenCog英語版が主催を務め、行なわれたイベントであった[49]。2010年と2011年にかけて、ブルガリアのプロヴディフ大学では、汎用人工知能に関しては初となる大学における専門課程が設置された[50][51]。2018年にはマサチューセッツ工科大学においても汎用人工知能に関する専門課程が設置されている。

汎用人工知能に関する研究者の反応は多種多様である。知能は未だ複雑すぎて完全には複製できないと主張する研究者も数多く存在する。とはいえ、少数のコンピューター研究者たちは汎用人工知能に対して肯定的であり、様々なグループの設立や会議を行っている。

汎用人工知能がいつ頃実現するかについては諸説ある。2006年、ベン・ゲーチェルが発行した書籍内においては、真に柔軟な汎用人工知能が実現する時間は10年から100年の間とかなり開きがある[52]。2007年にレイ・カーツワイルが発行した「The Singularity Is Near英語版」においては[53]、主な汎用人工知能研究コミュニティの合意としては、2015年から2045年までに達成する可能性が高いとしている[54]。しかしながらこの意見にはさまざまな異論があり、2045年までに汎用人工知能が達成されるほど研究の進歩が加速するかという点においては議論の余地がある。2012年に行なわれたメタ解析によれば、汎用人工知能の誕生が今後16年から26年の間に行われる可能性が高い、という意見にバイアスがかかっていることが示唆されている[55]

2017年、刘峰(Feng Liu)、Yong Shi、Ying Liuらは、Google AIやSiriなど、一般的に使用されている弱いAIに対して知能検査を行った。その結果、平均IQは約47であることが判明した。この数値は人間に換算すれば6歳児程度に相当する[56][57]

2020年、OpenAIは自己回帰型言語モデルである「GPT-3」を発表した。GPT-3は汎用人工知能ではないというコンセンサスが取れているが、とはいえ弱いAIとするにはやや高性能すぎるという指摘がある[58][59]


2021年、DeepMindは「汎用」システム「Gato (DeepMind)」を発表した。600個以上の異なる課題を解決できるとされる[60]

脳のシミュレーション

全脳エミュレーション

汎用人工知能を達成するためのアプローチとしてしばしば議論される方法が、脳のシミュレーションや精神転送である。低レベルの精神転送では、生物の脳をスキャン・マッピングし、その状態をコンピュータ内においてコピーすることで実現される。もしこれが実現するとするならば、コンピュータはオリジナルの脳と同等の振る舞いをすることが期待され、その振る舞いにおいては本質的あるいは実用的にオリジナルの脳と区別できないこととなる[61]。脳のシミュレーションや精神転送は計算論的神経科学や神経情報科学の分野において、おもに医学研究を目的に研究されている[62]。また、人工知能研究においても強いAIを実現するアプローチとして議論されている。レイ・カーツワイルは著書「The Singularity Is Near」内において、脳内のシミュレーションはいずれ可能になると予想している[53]

初期の研究

人間の脳を様々な方法でエミュレートするために必要なコンピュータの処理能力の推定値と、TOP500で示された年ごとのスーパーコンピューターの処理能力の図。傾向で見れば、コンピュータの処理能力が1.1年ごとに2倍になっている。カールワイツは神経シミュレーションを達成した段階で精神転送が可能になると主張しているが、人間の意識がどこの段階で発生するかについては、専門家の間で意見が分かれている[63]

低レベルの脳のシミュレーションを実行するためには、非常に強力なコンピュータが必要になる。ヒトの脳には膨大な数のシナプスが存在し、その数は10の15乗であり、ニューロンは10の11乗存在する。この数は3歳児ごろにおいてピークに達し、その後は年齢と共に減少していき、成人に達する頃には安定する[64]。ニューロンの活動を単純なスイッチモデルとして考えると、1秒間に10の14乗シナプスの更新ができるということになる[65]

1997年、カールワイツは人間の脳と同等のハードウェアを実現するためにはどのぐらいの計算能力が必要か、ということについて考察し、最終的には1秒間に10の16乗(cps)の計算能力があれば実現可能とした[注釈 6][66]。カールワイツはこの数字をもとに、執筆時(1997年当時)のコンピュータの指数関数的な成長が続けば、2015年から2025年の間に、理論的には人間の脳を十分に模倣できるだけのコンピュータが誕生すると予想した。ちなみに、現在のスーパーコンピューターの評価指標であるFLOPS1回分を「計算」と仮定すると、10の16乗の計算能力は2011年に達成されており、2022年には10の18乗の計算を行うことができるエクサスケールコンピュータが誕生している。

ニューロンの詳細なモデル化

ニューラルネットワークと呼ばれる人間の脳細胞を模したモデルは、実際の人間の生体神経と比較すると単純的かつ簡略的である。脳シミュレーションを完全に実行するためには、現在の研究ではまだ大まかにしか解明されていない生物学的な神経細胞の詳細な挙動を解明しなければならない可能性がある。神経細胞の生物学的、化学的、物理的な詳細な挙動を分子レベルにまで解明し、完全にモデル化するためには、カールワイツが想定した計算能力よりもさらに強力な計算能力が必要になると見積もられている。さらに、カールワイツの試算では人間の認知プロセスに深く関与しているとされるグリア細胞については考慮されていない[67]

現在の研究

2005年に、より高度で複雑な神経モデルを採用しつつ従来のコンピュータで脳のシミュレーションを実行しようとするプロジェクトが発足した。その研究内容によれば、コンピュータ上に「脳」(10の11乗のニューロンを実装した)の非リアルタイムシミュレーションを実施した。しかしながら、1秒間のモデルを実行するのに対して50日間を要したという[68]。2006年、Blue Brainプロジェクトでは、IBMが所有していた当時世界最速のスーパーコンピュータBlue Geneを使用し、1万個のニューロンと108個のシナプスから構成されるラット大脳新皮質の柱1本をリアルタイムでシュミュレーションすることに成功した[69]。脳のシミュレーションに関する研究においての長期的な目標は、人間の脳の生理的プロセスの詳細を用いて、機能的なシミュレーションを構築することである。2009年、オックスフォードで開催されたTED (カンファレンス)において、Blue Brainプロジェクトのリーダーであるヘンリー・マークラム英語版は「人間の脳を人工的に作成することは不可能ではなく、10年以内に実現する可能性がある」と発言している[70]。また、有機工学の研究を活用して、人工的なニューロン(ニューロ・シリコン・インターフェース)を作成して脳のシミュレーションを行うというアプローチが、コンピュータ上での直接的な脳のシミュレーションが達成できなかった場合に有効であるという提言も行われている[71]

カーネギーメロン大学教授であり機械工学者であるハンス・モラベックは、1997年に発表した論文「コンピュータのハードウェアが人間の脳と同レベルになるのはいつ?」内で、脳はより複雑であり、ニューロンをより詳細にモデル化しなければ脳のシミュレーションを達成できないという議論について考察した。論文内において、神経細胞、特に網膜に焦点を当てて既存のソフトウェアがその機能をシミュレートする能力を測定した[72]

OpenWorm project英語版では、ニューロンがわずか302個しかない線形動物を、細胞レベルで完全にシミュレーションし、コンピュータ上に人工的な生命を作り出すことに目標として研究を開始した。このプロジェクトを開始する前には、人間に比べて遥かに単純な生物である線形動物をシミュレートするのは比較的容易であると予想されていた。しかしながらこれは失敗に終わった。この研究によって、生物のニューロンのモデル化は実際的には想像以上に困難であることが判明した。現在のプロジェクトでは、生物学的な神経細胞を精密にエミュレートすることに力を注いでいるが、未だ成功には至っていない[73]

脳のシミュレーションによって汎用人工知能を達成しようとするアプローチに対しての批判

根本的に、脳のシミュレーションによって汎用人工知能を達成しようとするアプローチ自体に対しての批判が存在する。これらの批判は、「人間は身体を持つから知性がある」という思想に基いてなされたものが多い。多くの科学者は、知性を誕生させるためには物理的な実体が必要であると考えている[74]。この思想が正しいと仮定すれば、完全に機能する脳のシミュレーションは、ニューロンを完全に再現しただけでは達成できず、ニューロン以上のもの、つまりロボットの身体などを内包する必要がある。ゲーチェルはこの批判に対して、人工知能に仮想的な身体(例えばSecond Lifeのような)を与えることで対処できるとしたが、これが有効かどうかは不明である[75]

2005年頃から、10の9乗以上の性能を持つデスクトップコンピュータは一般向けに販売されている。カールワイツとモラベックが用いた推定によれば、これはミツバチの脳をシミュレートできるだけの能力を備えていることになる。しかしながら、ミツバチの脳をシミュレートできるソフトウェアはいまだ存在しない[76]。これらの理由については幾つかの仮説が挙げられている。

  1. 現在のニューロンモデルが単純すぎる可能性。(次項参照)
  2. より高次の認知プロセス[注釈 7][77]についての解明がいまだ不十分であり、fMRIなどによって観察されている脳の神経活動が、正確に何に相関するかを十分に確立できていない可能性。
  3. 認知プロセスに関する理解が十分に進んだとしても、初期のシミュレーションプログラムは非常に非効率であることが予想されるために、余計かつ多大な計算能力が要求される可能性。
  4. 生物の脳は重要ではあるが、脳だけを画一的に認知モデルとして採用するには不適切な可能性。そのため、ミツバチの脳をシミュレートするためには、身体や環境自体をもシミュレートしなければいけない可能性[78]

また、人間の脳の規模について、現在のところ完全に正確には特定できていない。ある説では、人間の脳には約1000億個のニューロンと100兆個のシナプスがあるというものがあるが[79]、別の説においては大脳皮質に163億個、小脳に690億個のニューロンがあるともされている[80]グリア細胞に至っては、非常に多いということしかわかっていない。

哲学的な視点

哲学によって定義された「強いAI」

1980年、哲学者のジョン・サール中国語の部屋と呼ばれる意識に関する思考実験を議論する過程において、「強いAI」という言葉を作り出した。この用語は、人工知能に関する以下のような2つの仮説を区別するために用いられた[注釈 8][81]

  • 『強いAI』仮説: 人工知能は「思考」することができ、「心」を持ち、「意識」を持つことが可能である。
  • 「弱いAI」仮説: 人工知能は「思考」「心」「意識」があたかも存在するかのように振る舞っているだけであり、真に思考することは不可能である。

サールが前者の仮説を「強い」と表現したのは、これがより強い主張を行っているからである。強いAIは人間がテストできるすべての能力を超えた何かが機械に備わったことを仮定している。「弱いAI」と「強いAI」の振る舞いを外部から観察すれば同じではあるが、強いAIには主観的な意識体験が存在することになる。これらの用語は学術的な人工知能の研究や教科書にも採用されている。

人工知能研究の主流では、プログラムがどのように機能するのかという点においてのみ主眼が置かれている。スチュアート・J・ラッセルピーター・ノーヴィグはこう述べている[82]。「プログラムが正常に動作しさえすれば、それをリアルと呼ぼうがシミュレーションと呼ぼうが、人工知能研究者は気にしない」。主流の人工知能研究者にとって、プログラムがあたかも心を持っているかのように完璧に振る舞っているとすれば、実際に心を持っているかを知る必要はない。というのも、それを見分ける方法は存在しないからである。したがって、人工知能研究においてサールの「弱いAI仮説」は「汎用人工知能は実現可能である」と矛盾しない。ラッセルとノーヴィグは「ほとんどの人工知能研究者は弱いAI仮説を当然のこととして受け入れており、強いAI仮説については全く関心がない」と発言している[82]。このように、学術的な人工知能の研究にとっては、「強いAI」と「汎用人工知能」は全く異なるものである。

サールや主流の人工知能研究者とは対照的に、レイ・カーツワイルなどの一部の未来学者は「強いAI」という用語を「人間レベルの人工汎用知能」を意味するかのように使用している[53]。これは人間レベルの汎用人工知能に意識が必要であると仮定しない限り、サールの「強いAI」の定義とは明確に異なっている。これらのことにサールのような学術的な哲学者や人工知能研究者は全く関心を示しておらず、信じてもいない[83]

意識

強いAIの意識に関連して、サイエンスフィクションや倫理面においては、心に関しても大きな関心が置かれている。

このような、汎用人工知能を有した機械の意識に対して関心がもたれる理由としては、もし機械が意識を持つならば、動物の権利と同じように、心を持つ機械にも権利が生じる可能性があるからである。そのために汎用人工知能が発生した場合に備えて、既存の法律や倫理、社会の枠組みにどう心を持つ機械を統合するかというアプローチが研究されている。これらの研究は「強いAI」の法的位置づけと権利に焦点を当てている[85]。コンピュータ科学者であるビル・ジョイは、このような心を持つ機械は、結果的に人間の生命や尊厳を脅かす可能性があると主張している[86]

これらの特徴が「強いAI」に必要不可欠であるかどうかは不明である。そもそも意識を確認するための確実なテストは存在しないため、意識というものの役割がまだ明確ではない。仮に意識に相関した脳活動をシミュレートできる機械を作ったとしても、自動的に自己認識を持つようになるのかは不明である。意識は作成できるものではなく、汎用人工知能が作られた結果として自然に創発する可能性もある。また、機械が明らかに知的な行動を取るようになれば、これらの特徴を機械に帰属させることが自然になる可能性も存在する。

人工意識の研究

汎用人工知能・強いAIにおける意識の役割には議論の余地があるが、多くの汎用人工知能研究者は意識の実装を重要視している[87]

汎用人工知能の研究はなぜ遅いのか

 

1956年に人工知能の研究が始まって以降、人間に匹敵する知能を持つ機械を作成するというこの分野の進歩は、遅々として進んでいない[88]。その原因として挙げられるのは、現在のコンピュータは計算機科学神経科学を進めるために特化しておらず、これらの研究を推進するためのメモリや処理能力、柔軟性が欠けていることがなどが考えられる[82][89][90]。また、そもそも人工知能研究が複雑すぎるために強いAIの進展を阻害している可能性もある[82]

概念上の限界が人工知能研究の遅れの原因であり、人工知能研究者は強いAIの実現に向けて概念的な枠組みを修正する必要があるとも考えられる[91]

この問題からはモラベックのパラドックスと呼ばれる根本的な矛盾が生じる。つまり、これまで作成されてきた人工知能は、膨大な数の計算やチェスのプレイなどといった人間には困難な仕事をこなすことは容易なのだが、逆に人間にとって簡単な「歩く」と言った動作や「1歳児レベルの知覚」といったものは難しいのである[92]。とはいえ、これらのギャップは一部の労働者にとっては脅威になる場合がある。このパラドックスについて、ランジャニ・C・ナラヤンはこう記述している[93]

多くの人々は肉体労働が人工知能による自動化によって取って代わると思っているが、現実はその逆である。人工知能にとっては、知的に難しい仕事のほうが遥かに容易である。 別の言い方をすれば、チェスのグランドマスターであるマグヌス・カールセンを倒せるのは人工知能であり、その後の掃除をするのが人間である。


過去数十年に渡る人工知能研究における遅れは、人工知能分野そのものに対する不信感をも生み出し、その不信感が更に汎用人工知能の研究を妨げている。人工知能研究者が予想した結果が外れたり、人工知能が人間の行動を部分的にしか理解できないことによって、人間レベルの人工知能を作成するという原初の発想に対する極度の楽観主義は消滅した[82]。とはいえ、人工知能に関する研究は失望や衰退を繰り返しながらも改善が進んでいるのは事実であり[94]、多くの研究者は21世紀中には汎用人工知能が完成することに肯定的である[82]

他に提唱されている汎用人工知能の遅れの原因と考えられるのは、学問分野間での連携が取れていないことなどが挙げられる。具体的には、多くの汎用人工知能研究者はコンピュータ上で人間の脳を再現しようと試みてきたが、それらを達成するためには神経生理学心理学において人間の脳を完全に理解することが必要不可欠である[95][96][97]。しかしながら人工知能に関する研究者の多くは、人工知能の将来予測にかかわる疑念の多くを過小評価する傾向があり、人間の脳のモデル化といった本質的な問題の解決策を見落としている可能性がある[98]

ウィリアム・クロクシンは人工知能研究を妨げる概念上の理由として、人工知能研究者が装置やコンピュータプログラムを使用するに当たって、誤った技法を用いている可能性があると述べている[99]。人工知能研究者が汎用人工知能を目標として研究を始めた当初、主な関心は人間の推論をエミュレートすることであった[82]。初期の研究者たちは、人間の推論を通じて人間の知性の数学的なモデル化を確立し、特定の認知機能を持つコンピュータを設計する方法について研究していた[82]

これに対し、研究において抽象化・再定義をしつつ作業を進める方法を用いれば、人工知能研究者にとっては複雑な概念に取り組むよりも、数個の概念に集中できる[82]。人工知能研究においては、計画と問題解決をする方法として抽象化を用いることが多い[82]。これらの方法は計算の高速化を目的として用いられるが、あまりに抽象化しすぎると問題が生じることもある[100]

さらに挙げられる人工知能の研究が遅れている理由としては、多くの研究者が人間のひらめき(ヒューリスティクス)がコンピュータの性能よりも圧倒的に優れていると認めている点にある[101]。しかしながら、よりコンピュータが高性能化すれば、人間のひらめきという能力すらも人工知能で再現できる可能性がある。ひらめきという人間の能力は、必ずしも強いAIを実現するための必須条件であるとはみなされていないが、大きな課題であることは広く認められている。

根本的には、そもそも機械に感情を持たせるべきなのかという問題が存在する[102]。典型的な人工知能のモデルには感情という機能は実装されておらず、感情をプログラムとして実装することで機械が感情を持つと主張するものもいる[103]。しかしながら、人間の感情というものは、個々人がそれまで経験してきたことの総括として存在するものでもある[82]デヴィッド・ゲランター英語版は「人間の感情のニュアンスをすべてシュミレートできないかぎり、機械は創造的にはなれない」と発言している[82]。このように感情に関する問題は多数存在し、強いAIの研究が発展するにあたっては、これらの問題に向き合う必要があると言える[104][105]

問題と危険性

実現可能性

2023年現在、汎用人工知能は未だ実現していないため、すべては推論の域を出ていない[106]。根本的に汎用人工知能が実現可能なのか、またいつ実現するのかについては様々な見解が存在し、統一されていない。1965年、人工知能のパイオニアとして知られるハーバート・サイモンは「今後20年以内に人間が実行できるあらゆる仕事が機械によってできるようになるだろう」と予想したが、この予想は完全に外れた。マイクロソフト共同創業者であるポール・アレンは、汎用人工知能を実現するためには「根本的に予測不可能なブレイクスルー」と「認知に関する科学的な深い解明」が必要であるため、21世紀中には実現不可能だと予想している[107]。ロボット工学者のアラン・ウィンフィールドはガーディアン紙に「現在のコンピュータ科学と汎用人工知能のレベルの差は、現在の宇宙飛行と光速を超える宇宙飛行と同じぐらいの差がある」と寄稿している[108]

今後何世紀もの科学的努力を重ねても、強いAIが実現可能なのかということは基本的な関心となっている。人工知能研究者の多くは、早くとも遅くとも将来的には強いAIが実現可能であると考えているが、ヒューバート・ドレイファスロジャー・ペンローズのように、強いAI自体が根本的に実現不可能だと考える科学者も存在する[109][82]ジョン・マッカーシーのような数々のコンピュータ科学者は、汎用人工知能はいずれかは達成されると信じているが、現在の研究速度ではいつ実現するかという正確な予想は不可能であるとしている[110]。汎用人工知能の実現可能性についての専門家の見解は一貫しておらず、時代によって変わる。2010年代に入ってからは、汎用人工知能の実現を支持する声が増加している傾向にある。2012年と2013年に実施された4つの調査においては、実現可能時期の中央値は2040年から2050年で、平均値は2081年だった。さらに厳しい条件で質問すると、16.5%の専門家が「実現不可能」だと答えた[111]

しかしながら、このような時期に関する予想は科学的な正確性がない。ロドニー・ブルックスは「この60年間で行われた汎用人工知能に関する予想は、どの時点においても15年後から25年後の間と予想する強い傾向がある」と報告している。これらの結果は、専門家と非専門家の間で予想の正確性の差がないことを強く示唆している[112]

人工知能による人類滅亡リスク

人類にとって人工知能は存亡の危機を左右する存在であり、そのリスクが高まっているという主張は多くの公人の間で広く支持されている。この危機を訴える著名人として代表的なのはスティーヴン・ホーキングイーロン・マスクビル・ゲイツ、などである。人工知能研究者としてこの危機を強く警鐘している人物として知られるのがスチュアート・J・ラッセルローマン・ヤンポルスキー英語版、アレクセイ・ターチンなどである[113][85][114]。しかしながら人工知能による人類滅亡リスクを気にしない人々も存在し、ビル・ゲイツは「一体なぜ心配しない人がいるのかが理解不能だ」と述べている[115]。2014年にスティーヴン・ホーキングはこの危機に関する無関心を以下のように強く批判している引用エラー: 無効な <ref> タグです。名前 (name 属性) がない場合は注釈の中身が必要です

もし人類より遥かに優れた文明を持つ異星人が「数十年後にそちらに到着する予定だ」とメッセージを送ってきたとき、我々はただ「わかった、着いたら連絡してね。待っとくよ」と返信してそのまま何もせずにしておくだろうか?しかしながら、これは人工知能においてまさにいま起こっていることだ。

2021年、サンシャイン・コースト大学の人間工学者・社会情報システムセンターの研究者が実施した、汎用人工知能に関するリスクを分析する研究にいては、データの少なさに苦言を呈しながらも、以下のような潜在的なリスクがあると結論づけられた。「汎用人工知能が人間の管理者や所有者のコントロール下から脱すること、汎用人工知能に人々に危害を与える命令を与えること、根本的に安全ではない汎用人工知能を開発すること、倫理観・道徳観がプログラミングされていない汎用人工知能を開発すること、そして汎用人工知能を不適切に管理することは、我々の実存的リスクを招く可能性がある」[116]


実存的リスク、すなわち人類滅亡の可能性は「AIのコントロール問題英語版」という難問を解決する必要がある。この問題を解決することが、人工知能を安全に管理する最善の方法だとみなされているが、大規模で非常にリソースが必要な研究であるとみなされている。人工知能のコントロール問題で重要視されるのは以下の概念である。すなわち「自己複製を繰り返し、人間には遥かに理解できないほどの超知能を手に入れた人工知能を、人類に友好的な人工知能にできないのであろうか?」ということである[85][117]。汎用人工知能を各国が軍拡競争的に開発していくとすると、ほぼ間違いなく複数の国家によって汎用人工知能を搭載した軍事兵器の開発が行われることが想定される[118][119]。汎用人工知能を前提とした国際紛争は発生した場合、軍事戦略をも汎用人工知能に頼ることになり、結果的には汎用人工知能同士が戦争を行うという自体もシナリオの1つとして研究されている[120][121]

もちろん、人工知能が人類滅亡を促すという考えには多くの懐疑主義者たちも存在する。懐疑主義者たちは、自己複製を繰り返して超知能が誕生する可能性があるということ自体を疑問視し、宗教的であると批判している。すなわち、への信仰が人工知能にすり替わっただけではないか、という批判である。ジャロン・ラニアーは機械が知的になるという概念自体が金持ちによる「詐欺」である、と主張している[122]

既存の批評家の多くは、汎用人工知能の短期的な達成(今後5年から10年以内)にはあり得ないと論じている。コンピュータ科学者であるゴードン・ベルは、人類は技術的特異点に到達する前に絶滅すると主張している。また、「ムーアの法則」の発案者として知られるゴードン・ムーアは「私は汎用人工知能の実現に懐疑的だ。なぜならば、技術的特異点は長い間起こりそうにないと思っているからだ。この感覚に根拠はない。そしてなぜそう感じるのかもわからない」と述べている[123]

See also

注釈

  1. ^ 強いAIの語源については「強いAI英語版」を参照。強いAIと弱いAIの学術的な定義については「中国語の部屋」を参照。
  2. ^ 強いAIの語源については「強いAI英語版」を参照。強いAIと弱いAIの学術的な定義については「中国語の部屋」を参照。
  3. ^ 「人工知能」という言葉を最初に使用したジョン・マッカーシーはこう発言している。「我々はまだ、なんらかの種類の計算手順が『知能的』である、といったことを特徴づけることが出来ていない」(どのように知能を定義するかというAI研究者による議論は人工知能の哲学英語版を参照)
  4. ^ ライトヒル報告英語版内ではAIの「非現実的な目標」について痛烈に批判し、イギリス国内でのAI研究は壊滅状態に陥った。一方、アメリカ合衆国のDARPAは、「基礎研究ではなく、実用可能な直接的な研究」にのみ資金提供を行うと決定した。
  5. ^ ジョン・マッカーシーは「ニューフォーマリズムの人たちが、人工知能への希望をより新しい形で表現してくれるならば、人工知能研究者にとってこれほどの救いはないだろう」と述べた。
  6. ^ 「マインドチルドレン」では10の15乗という値が採用されている。
  7. ^ ゲーツェルの汎用人工知能に関する書籍の中では、現在のハードウェアを最大限利用し、脳をシミュレーションするためには「コードとデータ」「感覚モダリティ」「概念と分類」「思考」「熟考(意識)」という、理解しなければならない5段階の問題があるとしている。
  8. ^ 標準的な人工知能の教科書で定義されているように、「機械が知的に行動する可能性がある(あるいは知的であるかのように振る舞うことがある)」という主張は、哲学者によって『弱いAI仮説』と呼ばれ、「機械が本質的に思考している(シミュレートしているのではない)」という主張は『強いAI仮説』と呼ばれている。
  9. ^ 意識を定義するのが非常に困難なことに注意。トマス・ネーゲルは意識があるということを「感じる」ことであるとしている。もし生物が意識をもっていないのならば、それは何も感じないということである。ネーゲルはコウモリを例に出しており、「コウモリであることはどんな気分であるか?」と感覚的に問うことはできるが、「トースターであることはどんな気分であるか?」と問うことはまずないとしている。これらのことから、コウモリは意識を持っているように見えるが、トースターは意識を持っていないと結論づけている。

脚注

  1. ^ Hodson, Hal (2019年3月1日). “DeepMind and Google: the battle to control artificial intelligence”. 1843. オリジナルの2020年7月7日時点におけるアーカイブ。. https://web.archive.org/web/20200707223031/https://www.economist.com/1843/2019/03/01/deepmind-and-google-the-battle-to-control-artificial-intelligence 2020年7月7日閲覧. "AGI stands for Artificial General Intelligence, a hypothetical computer program..." 
  2. ^ Shevlin, Henry; Vold, Karina; Crosby, Matthew; Halina, Marta (2019-10-04). “The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge” (英語). EMBO Reports 20 (10): e49177. doi:10.15252/embr.201949177. ISSN 1469-221X. PMC 6776890. PMID 31531926. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6776890/. 
  3. ^ (英語) The Singularity Is Near, (2022-10-21), https://en.wikipedia.org/w/index.php?title=The_Singularity_Is_Near&oldid=1117452460 2023年2月15日閲覧。 
  4. ^ a b Kurzweil, Ray (5 August 2005a), “Long Live AI”, Forbes, オリジナルの2005-08-14時点におけるアーカイブ。, https://web.archive.org/web/20050814000557/https://www.forbes.com/home/free_forbes/2005/0815/030.html : Kurzweil describes strong AI as "machine intelligence with the full range of human intelligence."
  5. ^ Treder, Mike (10 August 2005), “Advanced Human Intelligence”, Responsible Nanotechnology, オリジナルの16 October 2019時点におけるアーカイブ。, https://web.archive.org/web/20191016214415/https://crnano.typepad.com/crnblog/2005/08/advanced_human_.html 
  6. ^ The Age of Artificial Intelligence: George John at TEDxLondonBusinessSchool 2013”. 2014年2月26日時点のオリジナルよりアーカイブ。2014年2月22日閲覧。
  7. ^ (英語) The Singularity Is Near, (2022-10-21), https://en.wikipedia.org/w/index.php?title=The_Singularity_Is_Near&oldid=1117452460 2023年2月15日閲覧。 
  8. ^ The Open University on Strong and Weak AI”. 2009年9月25日時点のオリジナルよりアーカイブ。2007年10月8日閲覧。
  9. ^ Baum, Seth, A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy, Global Catastrophic Risk Institute Working Paper 20, オリジナルの14 November 2021時点におけるアーカイブ。, https://web.archive.org/web/20211114170005/https://gcrinstitute.org/papers/055_agi-2020.pdf 2022年1月13日閲覧。 
  10. ^ This list of intelligent traits is based on the topics covered by major AI textbooks, including: Russell & Norvig 2003, Luger & Stubblefield 2004, Poole, Mackworth & Goebel 1998 and Nilsson 1998.
  11. ^ Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). ISBN 0-262-16239-3
  12. ^ White, R. W. (1959). “Motivation reconsidered: The concept of competence”. Psychological Review 66 (5): 297–333. doi:10.1037/h0040934. PMID 13844397. 
  13. ^ Johnson 1987
  14. ^ Hutter, Marcus (2005). Universal Artificial Intelligence: Sequential Decisions Based on Algorithmic Probability. Texts in Theoretical Computer Science an EATCS Series. Springer. doi:10.1007/b138233. ISBN 978-3-540-26877-2. オリジナルの19 July 2022時点におけるアーカイブ。. https://web.archive.org/web/20220719052038/https://link.springer.com/book/10.1007/b138233 2022年7月19日閲覧。 
  15. ^ Goertzel, Ben (2014). “Artificial General Intelligence: Concept, State of the Art, and Future Prospects”. Journal of Artificial General Intelligence 8598. doi:10.1007/978-3-319-09274-4. ISBN 978-3-319-09273-7. https://www.researchgate.net/publication/271390398. 
  16. ^ Leike, Jan; Hutter, Marcus (2015). Bad Universal Priors and Notions of Optimality. The 28th Conference on Learning Theory. 2022年12月6日時点のオリジナルよりアーカイブ。2022年12月6日閲覧
  17. ^ Bennett, Michael Timothy (2022). "Computable artificial general intelligence". arXiv:2205.10513 [cs.AI]。
  18. ^ Ward, Dave; Silverman, David; Villalobos, Mario (2017). “Introduction: The Varieties of Enactivism”. Topoi 36 (1): 365–375. doi:10.1007/s11245-017-9484-6. 
  19. ^ Ward, Dave; Silverman, David; Villalobos, Mario (2017-09-01). “Introduction: The Varieties of Enactivism” (英語). Topoi 36 (3): 365–375. doi:10.1007/s11245-017-9484-6. ISSN 1572-8749. https://doi.org/10.1007/s11245-017-9484-6. 
  20. ^ a b Bennett, Michael Timothy (2021). Symbol Emergence and The Solutions to Any Task. 14th Conference on Artificial General Intelligence. doi:10.1007/978-3-030-93758-4_4. 2022年7月19日時点のオリジナルよりアーカイブ。2022年7月19日閲覧
  21. ^ Chollet, Francois (2019). "On the Measure of Intelligence". arXiv:1911.01547 [cs.AI]。
  22. ^ Bennett, Michael Timothy; Maruyama, Yoshihiro (2022). “Philosophical Specification of Empathetic Ethical Artificial Intelligence”. IEEE Transactions on Cognitive and Developmental Systems 14 (2): 292–300. arXiv:2107.10715. doi:10.1109/TCDS.2021.3099945. https://link.springer.com/article/10.1007/s11245-017-9484-6 2022年12月6日閲覧。. 
  23. ^ Bennett, Michael Timothy; Maruyama, Yoshihiro (2021). The Artificial Scientist. 14th Conference on Artificial General Intelligence. doi:10.1007/978-3-030-93758-4_6. 2022年7月19日時点のオリジナルよりアーカイブ。2022年7月19日閲覧
  24. ^ Muehlhauser (2013年8月11日). “What is AGI?”. Machine Intelligence Research Institute. 2014年4月25日時点のオリジナルよりアーカイブ。2014年5月1日閲覧。
  25. ^ What is Artificial General Intelligence (AGI)? | 4 Tests For Ensuring Artificial General Intelligence” (英語). Talky Blog (2019年7月13日). 2019年7月17日時点のオリジナルよりアーカイブ。2019年7月17日閲覧。
  26. ^ Shapiro, Stuart C. (1992). “Artificial Intelligence”. In Stuart C. Shapiro. Encyclopedia of Artificial Intelligence (Second ed.). New York: John Wiley. pp. 54–57. オリジナルの1 February 2016時点におけるアーカイブ。. http://www.cse.buffalo.edu/~shapiro/Papers/ai.pdf  (Section 4 is on "AI-Complete Tasks".)
  27. ^ Yampolskiy, Roman V. (2012). Xin-She Yang. ed. “Turing Test as a Defining Feature of AI-Completeness”. Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM): 3–17. http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf. 
  28. ^ Luis von Ahn, Manuel Blum, Nicholas Hopper, and John Langford. CAPTCHA: Using Hard AI Problems for Security Archived 4 March 2016 at the Wayback Machine.. In Proceedings of Eurocrypt, Vol. 2656 (2003), pp. 294–311.
  29. ^ Bergmair, Richard (7 January 2006). “Natural Language Steganography and an "AI-complete" Security Primitive”. CiteSeer. 
  30. ^ Crevier 1993, pp. 48–50
  31. ^ Andreas Kaplan (2022) Artificial Intelligence, Business and Civilization - Our Fate Made in Machines”. 2022年5月6日時点のオリジナルよりアーカイブ。2022年3月12日閲覧。
  32. ^ Simon 1965, p. 96 quoted in Crevier 1993, p. 109
  33. ^ Scientist on the Set: An Interview with Marvin Minsky”. 2012年7月16日時点のオリジナルよりアーカイブ。2008年4月5日閲覧。
  34. ^ Marvin Minsky to Darrach (1970), quoted in Crevier (1993, p. 109).
  35. ^ Artificial Intelligence at The University of Edinburgh”. web.archive.org (2007年8月17日). 2023年2月15日閲覧。
  36. ^ School of Informatics: History of Artificial Intelligence at Edinburgh”. web.archive.org (2007年5月15日). 2023年2月15日閲覧。
  37. ^ Crevier 1993, p. 211, Russell & Norvig 2003, p. 24 and see also Feigenbaum & McCorduck 1983
  38. ^ Chapter 9: Developments in Artificial Intelligence | Funding a Revolution: Government Support for Computing Research”. web.archive.org (2008年1月12日). 2023年2月15日閲覧。
  39. ^ Crevier 1993, pp. 161–162, 197–203, 240; Russell & Norvig 2003, p. 25.
  40. ^ Crevier 1993, pp. 209–212
  41. ^ Review of ``Artificial Intelligence: A General Survey”. web.archive.org (2008年9月30日). 2023年2月15日閲覧。
  42. ^ Markoff, John (2005年10月14日). “Behind Artificial Intelligence, a Squadron of Bright Real People”. The New York Times. オリジナルの2023年2月2日時点におけるアーカイブ。. https://web.archive.org/web/20230202181023/https://www.nytimes.com/2005/10/14/technology/behind-artificial-intelligence-a-squadron-of-bright-real-people.html 2017年2月18日閲覧. "At its low point, some computer scientists and software engineers avoided the term artificial intelligence for fear of being viewed as wild-eyed dreamers." 
  43. ^ Russell & Norvig 2003, pp. 25–26
  44. ^ Trends in the Emerging Tech Hype Cycle”. Gartner Reports. 2019年5月22日時点のオリジナルよりアーカイブ。2019年5月7日閲覧。
  45. ^ Moravec 1988, p. 20
  46. ^ Harnad, S (1990). “The Symbol Grounding Problem”. Physica D 42 (1–3): 335–346. arXiv:cs/9906002. Bibcode1990PhyD...42..335H. doi:10.1016/0167-2789(90)90087-6. 
  47. ^ Gubrud 1997
  48. ^ Wang & Goertzel 2007
  49. ^ First International Summer School in Artificial General Intelligence, Main summer school: June 22 – July 3, 2009, OpenCog Lab: July 6-9, 2009”. 2020年9月28日時点のオリジナルよりアーカイブ。2020年5月11日閲覧。
  50. ^ Избираеми дисциплини 2009/2010 - пролетен триместър” (ブルガリア語). Факултет по математика и информатика [Faculty of Mathematics and Informatics]. 2020年7月26日時点のオリジナルよりアーカイブ。2020年5月11日閲覧。
  51. ^ Избираеми дисциплини 2010/2011 - зимен триместър” (ブルガリア語). Факултет по математика и информатика [Faculty of Mathematics and Informatics]. 2020年7月26日時点のオリジナルよりアーカイブ。2020年5月11日閲覧。
  52. ^ Wayback Machine”. web.archive.org (2013年3月20日). 2023年2月19日閲覧。
  53. ^ a b c (Kurzweil 2005, p. 260) or see Advanced Human Intelligence Archived 30 June 2011 at the Wayback Machine. where he defines strong AI as "machine intelligence with the full range of human intelligence."
  54. ^ - Google Scholar”. web.archive.org (2016年1月7日). 2023年2月19日閲覧。
  55. ^ Katja Grace (2016年). “Error in Armstrong and Sotala 2012”. AI Impacts. 2020年12月4日時点のオリジナルよりアーカイブ。2020年8月24日閲覧。
  56. ^ Liu, Feng; Shi, Yong; Liu, Ying (2017). “Intelligence Quotient and Intelligence Grade of Artificial Intelligence”. Annals of Data Science 4 (2): 179–191. arXiv:1709.10242. Bibcode2017arXiv170910242L. doi:10.1007/s40745-017-0109-0. 
  57. ^ Brien (2017年10月5日). “Google-KI doppelt so schlau wie Siri” (ドイツ語). 2019年1月3日時点のオリジナルよりアーカイブ。2019年1月2日閲覧。
  58. ^ Grossman (2020年9月3日). “We're entering the AI twilight zone between narrow and general AI”. VentureBeat. 2020年9月4日時点のオリジナルよりアーカイブ。2020年9月5日閲覧。 “"Certainly, too, there are those who claim we are already seeing an early example of an AGI system in the recently announced GPT-3 natural language processing (NLP) neural network. ... So is GPT-3 the first example of an AGI system? This is debatable, but the consensus is that it is not AGI. ... If nothing else, GPT-3 tells us there is a middle ground between narrow and general AI."”
  59. ^ Quach. “A developer built an AI chatbot using GPT-3 that helped a man speak again to his late fiancée. OpenAI shut it down”. The Register. 2021年10月16日時点のオリジナルよりアーカイブ。2021年10月16日閲覧。
  60. ^ Wiggers, Kyle (May 13, 2022), “DeepMind's new AI can perform over 600 tasks, from playing games to controlling robots”, TechCrunch, オリジナルの16 June 2022時点におけるアーカイブ。, https://web.archive.org/web/20220616185232/https://techcrunch.com/2022/05/13/deepminds-new-ai-can-perform-over-600-tasks-from-playing-games-to-controlling-robots/ 2022年6月12日閲覧。 
  61. ^ Sandberg & Boström 2008. "The basic idea is to take a particular brain, scan its structure in detail, and construct a software model of it that is so faithful to the original that, when run on appropriate hardware, it will behave in essentially the same way as the original brain."
  62. ^ Goertzel, Ben (2007-12-01). “Human-level artificial general intelligence and the possibility of a technological singularity: A reaction to Ray Kurzweil's The Singularity Is Near, and McDermott's critique of Kurzweil” (英語). Artificial Intelligence 171 (18): 1161–1173. doi:10.1016/j.artint.2007.10.011. ISSN 0004-3702. https://www.sciencedirect.com/science/article/pii/S0004370207001464. 
  63. ^ http://www.fhi.ox.ac.uk/Reports/2008-3.pdf”. 2023年3月16日閲覧。
  64. ^ Drachman, D. (2005). “Do we have brain to spare?” (英語). Neurology. https://www.semanticscholar.org/paper/Do-we-have-brain-to-spare-Drachman/7ab8452d744fa72700c30913d37afedb4d947705. 
  65. ^ Artificial Intelligence: A Modern Approach, 4th US ed.”. aima.cs.berkeley.edu. 2023年2月19日閲覧。
  66. ^ Erdt, Terrence (1989). “Review of Mind Children, the Future of Robot and Human Intelligence”. Computers and the Humanities 23 (4/5): 445–448. ISSN 0010-4817. https://www.jstor.org/stable/30204385. 
  67. ^ Swaminathan, Nikhil (Jan–Feb 2011). “Glia—the other brain cells”. Discover. http://discovermagazine.com/2011/jan-feb/62 2014年1月24日閲覧。. 
  68. ^ Izhikevich, Eugene M.; Edelman, Gerald M. (4 March 2008). “Large-scale model of mammalian thalamocortical systems”. PNAS 105 (9): 3593–3598. Bibcode2008PNAS..105.3593I. doi:10.1073/pnas.0712231105. PMC 2265160. PMID 18292226. http://vesicle.nsi.edu/users/izhikevich/publications/large-scale_model_of_human_brain.pdf 2015年6月23日閲覧。. 
  69. ^ Project Milestones”. Blue Brain. 2008年8月11日閲覧。
  70. ^ “Artificial brain '10 years away'”. BBC News. (2009年7月22日). オリジナルの2017年7月26日時点におけるアーカイブ。. https://web.archive.org/web/20170726040959/http://news.bbc.co.uk/1/hi/technology/8164060.stm 2009年7月25日閲覧。 
  71. ^ University of Calgary news Archived 18 August 2009 at the Wayback Machine., NBC News news Archived 4 July 2017 at the Wayback Machine.
  72. ^ When will computer hardware match the human brain? by Hans Moravec”. web.archive.org (2006年6月15日). 2023年3月16日閲覧。
  73. ^ niconiconi (英語). Whole Brain Emulation: No Progress on C. elegans After 10 Years. https://www.lesswrong.com/posts/mHqQxwKuzZS69CXX5/whole-brain-emulation-no-progress-on-c-elegans-after-10. 
  74. ^ de Vega, Glenberg & Graesser 2008. A wide range of views in current research, all of which require grounding to some degree
  75. ^ https://pdf.sciencedirectassets.com/271585/1-s2.0-S0004370207X03151/1-s2.0-S0004370207001464/main.pdf?X-Amz-Security-Token=IQoJb3JpZ2luX2VjEEQaCXVzLWVhc3QtMSJHMEUCIQDeUANjJ63X4zsktNc09N%2F%2Bt7gsFsB05XTzVmjiTsnubgIgTU5UpzOOAZ%2BdSWDQLonbpsRd7S7HA3S%2By2AtHIa%2F5CQqvAUI%2Ff%2F%2F%2F%2F%2F%2F%2F%2F%2F%2FARAFGgwwNTkwMDM1NDY4NjUiDM6KSRREMVGUkeGkiSqQBcAZI%2BaAHZA4YVC2MIuPqdt7%2BayVv1gxD1ANdxOEwtEGPMvwXjpGSnxCjgU26jEzyT7VVbYAHCGT6ClnD0LmVrpKJFAdN3%2FbNlGyvU5TDuK6TA7UxREiYXAOcExngG2xQiTcVJHT5F4Z0qv9bLoPvTJw%2FuW%2F0U87Fk%2FM33spQqKmT8vUHaegSdCDrCHE63UjAuJxYbj48Ffgc4QPZVI3XZ1W4LwOGqDwKGSeVQ0kKsztnNpyww7j187py0ELOlgQGzFY6IynLzgcwXR3W4pOZpzCqq1bWxG0UVRl%2FrHRC8l94CFjba7iShuFIHJ1J9XY7aGo%2Fsv1wJvf9gHK%2FYTBZGLZjwYfwxLQpGBXbfCv4IfC16BiIU%2BOBzlaYDrm8HRwNEFumFPH0M90F6E0SDJzElcgRmHY9UI2MfAgqHfxkQHM%2BsNJ9KElNA9iEusJonDlIAt%2BJ1S70poXqh%2B8KZVuNUnwA7%2FUdh32pIENyJ9W7pYwcQI%2F7yxM0x%2FKnCWG5kbE%2Fue1uUL7o%2BGIj8BIfp1CcVktT00o%2FVA9bunjU5pY8X1UeYBxbN25UDpE5Tp94z7KHjlVvC31EEwbhhZwsqsFhfn%2Fn9xQD3A5G4qa7hTCmP0VdxBbn1JTBgcnOBIbELdDb6UCVuDsxRl1NlcR%2FW3AjAY4BQ1DscDZqtULNsQB8SO7S6vZruzjHLgEJKmyUjtYjagsTI1knxsXelZLYaBNWHWBat9ilG352csoz%2Fsau0GKP2K4T3Wohp03Wlb5M73yl%2BIfvzY8mR%2FhL71TLFC1ZbsttC3nipa99sqsOoYoTu5QpOIxaaK%2B4ogGZnqBD3czTOZuRMV5b5KfKGIms5Q9%2BgFj%2FtR0GAKt1mhkEBV7hnXNMIqYyqAGOrEBRA485uUHmamEITXTHjiM0BH0fKwPLaN2doVV%2F0WSd%2Fs8QHH1gHGVngj7AGImjFqH4YRBKczXtAn0Mr3FcsS7CtQIJLbsY3xAAEx6BtgitW%2B%2Fq8s44r%2FcgsPZ3Lrxdziq8kt%2Fj74b8A1HjSUwjIGVZngy9cYggAd3dFbWWdEsdzQ9YcT5SDB4hcgWySxXIsDHidXz5oe%2BRD9lbfLnqofN0%2FUEEBgtV5PFKU1HtsyZu2Au&X-Amz-Algorithm=AWS4-HMAC-SHA256&X-Amz-Date=20230316T034034Z&X-Amz-SignedHeaders=host&X-Amz-Expires=300&X-Amz-Credential=ASIAQ3PHCVTYRYE43IEF%2F20230316%2Fus-east-1%2Fs3%2Faws4_request&X-Amz-Signature=2fb0d4db5e290b3b3c594de76a35e8926fdcf93ff523096ecba31078b9a2fda4&hash=d9736d0b1534ac32fc6e4213a5b2247b96fe5e309bc89bc41be300bfc01502d3&host=68042c943591013ac2b2430a89b270f6af2c76d8dfd086a07176afe7c76c2c61&pii=S0004370207001464&tid=spdf-f55ed2d9-4295-4d83-8b1b-22a21e0348cd&sid=6c5988567299574c3d782da0fa142111a361gxrqa&type=client&tsoh=d3d3LnNjaWVuY2VkaXJlY3QuY29t&ua=0c155804565b03580407&rr=7a89f9bc9f26e045&cc=jp”. 2023年3月16日閲覧。
  76. ^ [links to bee brain studies]”. Honey Bee Brain. 2008年7月25日時点のオリジナルよりアーカイブ。2010年3月30日閲覧。
  77. ^ Wayback Machine”. web.archive.org (2009年4月11日). 2023年3月16日閲覧。
  78. ^ Yekutieli, Y; Sagiv-Zohar, R; Aharonov, R; Engel, Y; Hochner, B; Flash, T (August 2005). “Dynamic model of the octopus arm. I. Biomechanics of the octopus reaching movement”. J. Neurophysiol. 94 (2): 1443–58. doi:10.1152/jn.00684.2004. PMID 15829594. 
  79. ^ Williams & Herrup 1988
  80. ^ Equal Numbers of Neuronal and Nonneuronal Cells Make the Human Brain an Isometrically Scaled-Up Primate Brain | Request PDF”. web.archive.org (2021年2月18日). 2023年3月16日閲覧。
  81. ^ Artificial Intelligence: A Modern Approach, 4th US ed.”. aima.cs.berkeley.edu. 2023年3月16日閲覧。
  82. ^ a b c d e f g h i j k l m Artificial Intelligence: A Modern Approach, 4th US ed.”. aima.cs.berkeley.edu. 2023年3月16日閲覧。 引用エラー: 無効な <ref> タグ; name ":0"が異なる内容で複数回定義されています
  83. ^ Artificial Intelligence: A Modern Approach, 4th US ed.”. aima.cs.berkeley.edu. 2023年3月16日閲覧。
  84. ^ Wayback Machine”. web.archive.org (2011年10月16日). 2023年3月16日閲覧。
  85. ^ a b c Sotala, Kaj; Yampolskiy, Roman V. (2014-12-19). “Responses to catastrophic AGI risk: a survey”. Physica Scripta 90 (1): 018001. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949. 
  86. ^ When will computer hardware match the human brain? by Hans Moravec”. web.archive.org (2006年6月15日). 2023年2月15日閲覧。
  87. ^ Wayback Machine”. web.archive.org (2009年4月11日). 2023年3月16日閲覧。
  88. ^ Clocksin, W. (2003). “Artificial intelligence and the future” (英語). Philosophical Transactions of the Royal Society of London. Series A: Mathematical, Physical and Engineering Sciences. https://www.semanticscholar.org/paper/Artificial-intelligence-and-the-future-Clocksin/784cb587a17a0dc354ae4119ef070452f2de7d70. 
  89. ^ Clocksin, William F. (2003-08-15). MacFarlane, A. G. J.. ed. “Artificial intelligence and the future” (英語). Philosophical Transactions of the Royal Society of London. Series A: Mathematical, Physical and Engineering Sciences 361 (1809): 1721–1748. doi:10.1098/rsta.2003.1232. ISSN 1364-503X. https://royalsocietypublishing.org/doi/10.1098/rsta.2003.1232. 
  90. ^ Clocksin, William F. (2003-08-15). “Artificial intelligence and the future”. Philosophical Transactions. Series A, Mathematical, Physical, and Engineering Sciences 361 (1809): 1721–1748. doi:10.1098/rsta.2003.1232. ISSN 1364-503X. PMID 12952683. https://pubmed.ncbi.nlm.nih.gov/12952683/. 
  91. ^ Clocksin, William F. (2003-07-01). “Artificial intelligence and the future”. Philosophical Transactions of the Royal Society of London Series A 361: 1721–1748. doi:10.1098/rsta.2003.1232. ISSN 1364-503X. https://ui.adsabs.harvard.edu/abs/2003RSPTA.361.1721C. 
  92. ^ Clocksin, William F. (2003-07-01). “Artificial intelligence and the future”. Philosophical Transactions of the Royal Society of London Series A 361: 1721–1748. doi:10.1098/rsta.2003.1232. ISSN 1364-503X. https://ui.adsabs.harvard.edu/abs/2003RSPTA.361.1721C. 
  93. ^ Narayan, Ranjani C. (2018年1月28日). “The AI Paradox” (英語). Digital Flâneur. 2023年3月16日閲覧。
  94. ^ Strickland, Eliza (2021-10). “The Turbulent Past and Uncertain Future of AI: Is there a way out of AI's boom-and-bust cycle?”. IEEE Spectrum 58 (10): 26–31. doi:10.1109/MSPEC.2021.9563956. ISSN 1939-9340. https://ieeexplore.ieee.org/document/9563956. 
  95. ^ McCarthy, John (2007-12-01). “From here to human-level AI” (英語). Artificial Intelligence 171 (18): 1174–1182. doi:10.1016/j.artint.2007.10.009. ISSN 0004-3702. https://www.sciencedirect.com/science/article/pii/S0004370207001476. 
  96. ^ Yamakawa, Hiroshi (2021-12-01). “The whole brain architecture approach: Accelerating the development of artificial general intelligence by referring to the brain” (英語). Neural Networks 144: 478–495. doi:10.1016/j.neunet.2021.09.004. ISSN 0893-6080. https://www.sciencedirect.com/science/article/pii/S0893608021003543. 
  97. ^ Jones, David T.; Kerber, Kevin A. (2022-02-08). “Artificial Intelligence and the Practice of Neurology in 2035: The Neurology Future Forecasting Series” (英語). Neurology 98 (6): 238–245. doi:10.1212/WNL.0000000000013200. ISSN 0028-3878. PMID 35131918. https://n.neurology.org/content/98/6/238. 
  98. ^ Goertzel, Ben (2007-12-01). “Human-level artificial general intelligence and the possibility of a technological singularity: A reaction to Ray Kurzweil's The Singularity Is Near, and McDermott's critique of Kurzweil” (英語). Artificial Intelligence 171 (18): 1161–1173. doi:10.1016/j.artint.2007.10.011. ISSN 0004-3702. https://www.sciencedirect.com/science/article/pii/S0004370207001464. 
  99. ^ Clocksin, William F. (2003-07-01). “Artificial intelligence and the future”. Philosophical Transactions of the Royal Society of London Series A 361: 1721–1748. doi:10.1098/rsta.2003.1232. ISSN 1364-503X. https://ui.adsabs.harvard.edu/abs/2003RSPTA.361.1721C. 
  100. ^ Zucker, Jean-Daniel (2003-07-29). “A grounded theory of abstraction in artificial intelligence”. Philosophical Transactions of the Royal Society of London. Series B, Biological Sciences 358 (1435): 1293–1309. doi:10.1098/rstb.2003.1308. ISSN 0962-8436. PMC 1693211. PMID 12903672. https://pubmed.ncbi.nlm.nih.gov/12903672/. 
  101. ^ McCarthy, John (2007-12-01). “From here to human-level AI” (英語). Artificial Intelligence 171 (18): 1174–1182. doi:10.1016/j.artint.2007.10.009. ISSN 0004-3702. https://www.sciencedirect.com/science/article/pii/S0004370207001476. 
  102. ^ Deane, George (2022). “Machines That Feel and Think: The Role of Affective Feelings and Mental Action in (Artificial) General Intelligence”. Artificial Life 28 (3): 289–309. doi:10.1162/artl_a_00368. ISSN 1064-5462. PMID 35881678. http://dx.doi.org/10.1162/artl_a_00368. 
  103. ^ Clocksin, William F. (2003-07-01). “Artificial intelligence and the future”. Philosophical Transactions of the Royal Society of London Series A 361: 1721–1748. doi:10.1098/rsta.2003.1232. ISSN 1364-503X. https://ui.adsabs.harvard.edu/abs/2003RSPTA.361.1721C. 
  104. ^ Kaplan, Andreas; Haenlein, Michael (2019). “Kaplan Andreas and Haelein Michael (2019) Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence”. Business Horizons 62: 15–25. doi:10.1016/j.bushor.2018.08.004. 
  105. ^ Priyadarshini, Ishaani; Cotton, Chase (2022). “AI Cannot Understand Memes: Experiments with OCR and Facial Emotions” (英語). Computers, Materials & Continua 70 (1): 781–800. doi:10.32604/cmc.2022.019284. ISSN 1546-2226. https://www.techscience.com/cmc/v70n1/44391 2022年8月28日閲覧。. 
  106. ^ itu.int: Beyond Mad?: The Race For Artificial General Intelligence Archived 9 November 2020 at the Wayback Machine., "AGI represents a level of power that remains firmly in the realm of speculative fiction as on date." February 2, 2018, retrieved March 3, 2020
  107. ^ Allen, Paul; Greaves, Mark (2011年10月12日). “The Singularity Isn't Near”. MIT Technology Review. http://www.technologyreview.com/view/425733/paul-allen-the-singularity-isnt-near/ 2014年9月17日閲覧。 
  108. ^ Winfield, Alan. “Artificial intelligence will not turn into a Frankenstein's monster”. The Guardian. オリジナルの2014年9月17日時点におけるアーカイブ。. https://web.archive.org/web/20140917135230/http://www.theguardian.com/technology/2014/aug/10/artificial-intelligence-will-not-become-a-frankensteins-monster-ian-winfield 2014年9月17日閲覧。 
  109. ^ Clocksin, William F. (2003-07-01). “Artificial intelligence and the future”. Philosophical Transactions of the Royal Society of London Series A 361: 1721–1748. doi:10.1098/rsta.2003.1232. ISSN 1364-503X. https://ui.adsabs.harvard.edu/abs/2003RSPTA.361.1721C. 
  110. ^ McCarthy, John (2007-12-01). “From here to human-level AI” (英語). Artificial Intelligence 171 (18): 1174–1182. doi:10.1016/j.artint.2007.10.009. ISSN 0004-3702. https://www.sciencedirect.com/science/article/pii/S0004370207001476. 
  111. ^ Raffi Khatchadourian (2015年11月23日). “The Doomsday Invention: Will artificial intelligence bring us utopia or destruction?”. The New Yorker. オリジナルの2016年1月28日時点におけるアーカイブ。. https://web.archive.org/web/20160128105955/http://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom 2016年2月7日閲覧。 
  112. ^ Brooks (2014年11月11日). “AI is a tool, not a threat”. Robohub. 2023年2月2日時点のオリジナルよりアーカイブ。2022年5月31日閲覧。
  113. ^ Müller, Vincent C. (2014-07-03). “Risks of general artificial intelligence”. Journal of Experimental & Theoretical Artificial Intelligence 26 (3): 297–301. doi:10.1080/0952813X.2014.895110. ISSN 0952-813X. 
  114. ^ Turchin, Alexey (2019-03-01). “Assessing the future plausibility of catastrophically dangerous AI” (英語). Futures 107: 45–58. doi:10.1016/j.futures.2018.11.007. ISSN 0016-3287. https://www.sciencedirect.com/science/article/pii/S0016328718301319. 
  115. ^ Rawlinson, Kevin. “Microsoft's Bill Gates insists AI is a threat”. BBC News. オリジナルの2015年1月29日時点におけるアーカイブ。. https://web.archive.org/web/20150129183607/http://www.bbc.co.uk/news/31047780 2015年1月30日閲覧。 
  116. ^ McLean, Scott; Read, Gemma J. M.; Thompson, Jason; Baber, Chris; Stanton, Neville A.; Salmon, Paul M. (2021-08-13). “The risks associated with Artificial General Intelligence: A systematic review”. Journal of Experimental & Theoretical Artificial Intelligence: 1–15. doi:10.1080/0952813X.2021.1964003. ISSN 0952-813X. 
  117. ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First ed.). ISBN 978-0199678112 
  118. ^ Naudé, Wim; Dimitri, Nicola (2020-06-01). “The race for an artificial general intelligence: implications for public policy” (英語). AI & Society 35 (2): 367–379. doi:10.1007/s00146-019-00887-x. ISSN 1435-5655. 
  119. ^ Torres, Phil (2019-05-04). “The possibility and risks of artificial general intelligence”. Bulletin of the Atomic Scientists 75 (3): 105–108. Bibcode2019BuAtS..75c.105T. doi:10.1080/00963402.2019.1604873. ISSN 0096-3402. https://doi.org/10.1080/00963402.2019.1604873 2022年8月29日閲覧。. 
  120. ^ Turchin, Alexey; Denkenberger, David (2018-07-27), “Military AI as a Convergent Goal of Self-Improving AI”, Artificial Intelligence Safety and Security (First edition. | Boca Raton, FL : CRC Press/Taylor & Francis Group, 2018.: Chapman and Hall/CRC): 375–393, doi:10.1201/9781351251389-25, ISBN 978-1-351-25138-9, オリジナルの2 February 2023時点におけるアーカイブ。, https://web.archive.org/web/20230202181021/https://www.taylorfrancis.com/chapters/edit/10.1201/9781351251389-25/military-ai-convergent-goal-self-improving-ai-alexey-turchin-david-denkenberger 2022年8月29日閲覧。 
  121. ^ Carayannis, Elias G.; Draper, John (2022-01-11). “Optimising peace through a Universal Global Peace Treaty to constrain the risk of war from a militarised artificial superintelligence” (英語). AI & Society: 1–14. doi:10.1007/s00146-021-01382-y. ISSN 1435-5655. PMC 8748529. PMID 35035113. https://doi.org/10.1007/s00146-021-01382-y 2022年8月29日閲覧。. 
  122. ^ Yamakawa, Hiroshi (2021-12-01). “The whole brain architecture approach: Accelerating the development of artificial general intelligence by referring to the brain” (英語). Neural Networks 144: 478–495. doi:10.1016/j.neunet.2021.09.004. ISSN 0893-6080. https://www.sciencedirect.com/science/article/pii/S0893608021003543. 
  123. ^ “Tech Luminaries Address Singularity” (英語). IEEE Spectrum: Technology, Engineering, and Science News (SPECIAL REPORT: THE SINGULARITY). (2008年6月1日). オリジナルの2019年4月30日時点におけるアーカイブ。. https://web.archive.org/web/20190430150019/https://spectrum.ieee.org/computing/hardware/tech-luminaries-address-singularity 2020年4月8日閲覧。 

Sources

 

External links

Template:Existential risk from artificial intelligence