コンテンツにスキップ

ジェフリー・ヒントン

出典: フリー百科事典『ウィキペディア(Wikipedia)』
Geoffrey Hinton
ジェフリー・ヒントン
ジェフリー・ヒントン(2024)
生誕 (1947-12-06) 1947年12月6日(77歳)
イングランドの旗 イングランド ロンドン ウィンブルドン
居住 カナダの旗 カナダ
国籍 イギリスの旗 イギリス
研究分野 ニューラルネットワーク人工知能機械学習
出身校 ケンブリッジ大学学士
エディンバラ大学(PhD)
博士論文 Relaxation and its role in vision (1977)
博士課程
指導教員
ロングエット・ヒギンズ英語版
主な指導学生 ヤン・ルカンポスドク
イリヤ・サツケバー
主な業績 バックプロパゲーションボルツマンマシンディープラーニング
主な受賞歴 チューリング賞(2018)
ロイヤル・メダル(2022)
ノーベル物理学賞(2024)
公式サイト
www.cs.toronto.edu/~hinton/
プロジェクト:人物伝
テンプレートを表示
ノーベル賞受賞者ノーベル賞
受賞年:2024年
受賞部門:ノーベル物理学賞
受賞理由:人工ニューラルネットワークによる機械学習を可能にする基礎的な発見と発明[1]

ジェフリー・エヴァレスト・ヒントン: Geoffrey Everest Hinton1947年12月6日 - )は、イギリス生まれのコンピュータ科学および認知心理学の研究者。ニューラルネットワークの研究を行っており、人工知能(AI)研究の第一人者とみなされている[2]トロント大学名誉教授(2022年時点)[3][4]。2024年にジョン・ホップフィールドとともにノーベル物理学賞を受賞した[5]

経歴

[編集]

ロンドンウィンブルドンに生まれた。ケンブリッジ大学キングス・カレッジに入学し、生理学と哲学に専攻を学んだが、実験心理学に変更し、1970年に卒業、1978年にエディンバラ大学で人工知能の研究によりPh.D.を取得した。サセックス大学カリフォルニア大学サンディエゴ校(米国)、カーネギーメロン大学を経て、トロント大学コンピュータサイエンス学部教授に就任した。

業績

[編集]

ヒントンは、デビッド・ラメルハートおよびロナルド・J・ウィリアムズ英語版と共に、多層ニューラルネットワークの学習における誤差逆伝播法を普及させた、1986年に出版された非常に引用数の多い論文の共著者であった[6]。また、ボルツマンマシンオートエンコーダディープ・ビリーフ・ネットワーク英語版の開発者の1人であり、これらの研究から、後のディープラーニングを生み出した。彼らがこの手法を最初に提案したわけではない[7]が、ヒントンは、ディープラーニングコミュニティにおける第一人者とみなされている。

2012年、ImageNetを用いた画像認識コンテスト「ILSVRC」(the ImageNet Large Scale Visual Recognition Challenge)の2012年大会に彼の学生であるアレックス・クリジェフスキー英語版およびイリヤ・サツケバーと共同で開発したAlexNet畳み込みニューラルネットワーク(CNN)を採用)を持ち込み、初参加ながら次点を大きく引き離す高得点で優勝した。これ以降、ディープラーニング分野の研究が注目され、巨大テック企業の大型投資が相次いでいる。

自身も2013年、自らが持つスタートアップ企業「DNNresearch Inc.」がGoogleに買収され(いわゆるアクハイヤー)、以降、非常勤としてGoogle Brain英語版にてAI研究に携わる。

2018年、ディープラーニングの取り組みを評価され、「計算機科学のノーベル賞」と言われるチューリング賞を受賞。同時受賞はヤン・ルカンニューヨーク大学Meta)、ヨシュア・ベンジオモントリオール大学)。この3名は、「AIのゴッドファーザー」「ディープラーニングのゴッドファーザー」と呼ばれている[8]

2023年5月1日、AIの発達が自身の想定を超えており、その危険性について話せるようにと、Googleを退職したことを明らかにした[2][4][9][10]。ヒントンは、悪意のある者による意図的な悪用英語版人工知能による技術的失業、そして汎用人工知能による人類滅亡のリスクについて懸念を表明している[11]。彼は、最悪の結果を避けるためには、AI利用において競合する者同士が協力して安全ガイドラインを確立する必要があると指摘した[12]

ヒントンとホップフィールドは2024年ノーベルウィークがいます

2024年10月8日、ジョン・ホップフィールドと共にノーベル物理学賞を受賞した。受賞理由は、「人工ニューラルネットワークによる機械学習を可能にする基礎的な発見と発明」である[5]。ヒントンは、ホップフィールドの開発したホップフィールド・ネットワークを基に、ボルツマンマシンと呼ばれる新たなネットワークを考案した。これは統計物理学の手法を用いて、データ中の特徴的な要素を学習する。ボルツマンマシンは、画像分類や新たなパターンの生成に利用可能であり、現在の機械学習の爆発的な発展の礎となった[5]ノーベル物理学委員会英語版委員長のエレン・ムーンズ英語版氏は、「両者の研究はすでに大きな利益をもたらしている。物理学では、特定の特性を持つ新素材の開発など、幅広い分野で人工ニューラルネットワークを活用している」と述べた[5]

見解

[編集]

人工知能のリスク

[編集]
映像外部リンク
ジェフリー・ヒントンがAIの利点と危険性についての考えを語る。, 日本経済新聞 YouTube動画

2023年、ヒントンはAIの急速な進歩について懸念を表明した[11][4][13]。ヒントンは以前、汎用人工知能(AGI)は「30年から50年、あるいはもっと先」であると信じていた[13]。しかし、2023年3月のCBSとのインタビューで、彼はAGIは20年以内に出現する可能性があり、「産業革命または電化英語版に匹敵する規模の変化」をもたらす可能性があると述べた[11]

2023年5月1日に公開された『The New York Times』のインタビューで[13]、ヒントンは「Googleへの影響を考慮せずにAIの危険性について話す」ことができるようにGoogleを辞任すると発表した[14]。彼は、自らの懸念から「今となっては人生の仕事の一部を後悔している」と述べ、GoogleMicrosoftの間の競争への懸念を表明した[13][15]

2023年5月初頭、ヒントンはBBCとのインタビューで、AIが間もなく人間の脳の情報容量を超える可能性があると主張した。彼は、これらのチャットボットによってもたらされるリスクのいくつかを「非常に恐ろしい」と表現した。ヒントンは、チャットボットが独自に学習し、知識を共有する能力を持っていると説明した。これは、1つのコピーが新しい情報を取得するたびに、それが自動的にグループ全体に広められることを意味する。これにより、AIチャットボットは、どの個人よりもはるかに多くの知識を蓄積する能力を持つ[16]

AGIによる存亡リスク

[編集]

ヒントンはAIによる支配の可能性について懸念を表明し、「AIが「人類を滅ぼす」ことは考えられないことではない」と述べている[11]。ヒントンは、知的エージェントとしての能力を持つAIシステムは、軍事目的または経済目的で有用であると述べている[17]。彼は、一般的に知的なAIシステムが、プログラマーの利益と一致しない「サブゴールを作成する」可能性があると懸念している[18]。彼は、AIシステムが、プログラマーが意図したためではなく、それらのサブゴールが後の目標を達成するために有用であるため、権力追求になったり、シャットダウンされないようにする可能性があると述べている[16]。特に、ヒントンは自己改善が可能なAIシステムを「どのように制御するかについて真剣に考える必要がある」と述べている[19]

壊滅的な誤用

[編集]

ヒントンは、悪意のある行為者によるAIの意図的な誤用について懸念を報告し、「悪意のある行為者がAIを悪いことに使用することを防ぐ方法を見るのは難しい」と述べている[13]。2017年、ヒントンは自律型致死兵器の国際的な禁止を求めた[20]

経済的影響

[編集]

ヒントンは以前、AIの経済効果について楽観的であり、2018年に次のように述べている。「『汎用人工知能』という言葉には、この種の単一のロボットが突然あなたよりも賢くなるという意味合いが含まれている。私はそうはならないと思う。私たちが行う日常的なことのますます多くがAIシステムに置き換えられると思う」[21]。ヒントンはまた、以前AGIは人間を冗長にしないと主張していた。「将来のAIはあなたが何をしたいと思うかについて多くのことを知るだろう…しかし、それはあなたに取って代わることはないだろう」[21]

しかし、2023年にヒントンは「AI技術がやがて雇用市場を混乱させ」、「単なる「退屈な仕事」以上のものを奪う」ことを「心配する」ようになった[13]。彼は2024年に再び、英国政府はAIの不平等への影響に対処するためにユニバーサルベーシックインカムを確立する必要があると述べた[22]。ヒントンの見解では、AIは生産性を向上させ、より多くの富を生み出すであろう。しかし、政府が介入しない限り、それは金持ちをより金持ちにし、仕事を失う可能性のある人々に害を与えるだけである。「それは社会にとって非常に悪いことになるだろう」と彼は述べた[23]

政治

[編集]

ヒントンは、ロナルド・レーガン時代の政治への幻滅と、人工知能への軍事資金提供への反対から、米国からカナダに移住した[24]

2024年8月、ヒントンはヨシュア・ベンジオスチュアート・ラッセルローレンス・レッシグと共同で、1億ドル以上のコストがかかるモデルをトレーニングする企業に展開前にリスク評価を実施することを義務付けるカリフォルニア州のAI安全法案SB1047を支持する書簡を作成した。彼らは、この法律は「この技術の効果的な規制のための最低限のもの」であると主張した[25][26]

受賞歴等

[編集]

親族

[編集]

父親はメキシコ育ちの昆虫学者ハワード・エベレスト・ヒントン英語版(1912-1977)。母親のマーガレットは教師で、兄と姉妹も教師や研究者である[27]。母方の伯父に経済学者コーリン・クラーク、元外交官で日本の大学で教えていたグレゴリー・クラークは母方のいとこ[27]

父方の祖父のジョージ・ブール・ヒントン(1882-1943)はメキシコで銀鉱を管理する鉱山技師で植物学者。その弟セバスチャン・ヒントンはシカゴの法律家でジャングルジムの考案者だが36歳で自殺。その妻のカルメリータ・ヒントン英語版は教育者で進歩主義の寄宿舎学校として知られたプットニー・スクール英語版の創立者。その子供たち(ジェフリーの父のいとこ)には、マルキスト作家のウィリアム・ヒントン、戦時中にはマンハッタン計画に関わった核物理学ジョアン・ヒントンがおり、二人とも中国で暮らしていた[27]

父方の曽祖父チャールズ・ハワード・ヒントン(1853-1907)は四次元超立方体(tesseract)の概念を作った数学者でSF作家だが、重婚で捕まって職を失い、一時横浜の英国人学校で教えたのち、プリンストン大学の教授となった。その妻マリーは夫の病死の翌年自殺したが、マリーの両親(ジェフリーの高祖父母)はブール代数で知られるジョージ・ブールと数学者のメアリー・エベレスト・ブール英語版エベレスト山の由来となったジョージ・エベレストの姪)である[27]。チャールズの父親のジェームズ・ヒントン外科医一夫多妻制提唱者、その父親はバプチスト牧師、その父も牧師で学校を経営していた。

出典

[編集]
  1. ^ The Nobel Prize in Physics 2024” (英語). NobelPrize.org. 2024年10月8日閲覧。
  2. ^ a b “AI想定より速く人知超える公算、危険性語るためグーグル退社=ヒントン氏”. ロイター. (2023年5月3日). https://jp.reuters.com/article/tech-ai-hinton-idJPKBN2WT19X 2023年5月3日閲覧。 
  3. ^ Daniela Hernandez (2013年5月7日). “The Man Behind the Google Brain: Andrew Ng and the Quest for the New AI”. Wired. 2023年5月3日閲覧。
  4. ^ a b c 株式会社インプレス (2023年5月15日). “AI研究の第一人者ジェフリー・ヒントン博士がグーグルを離れた ほか【中島由弘の「いま知っておくべき5つのニュース」2023/4/27〜5/10】”. INTERNET Watch. 2023年6月4日閲覧。
  5. ^ a b c d The Nobel Prize in Physics 2024” (英語). NobelPrize.org. 2024年10月8日閲覧。
  6. ^ Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J. (9 October 1986). “Learning representations by back-propagating errors” (英語). Nature 323 (6088): 533–536. Bibcode1986Natur.323..533R. doi:10.1038/323533a0. ISSN 1476-4687. 
  7. ^ Schmidhuber, Jürgen (1 January 2015). “Deep learning in neural networks: An overview” (英語). Neural Networks(雑誌)英語版 61: 85–117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637. 
  8. ^ 日経クロステック(xTECH). “深層学習の「ゴッドファーザー」3人が指摘した、現在のAIに足りない点とは”. 日経クロステック(xTECH). 2023年5月16日閲覧。
  9. ^ 日本放送協会. “AI界の“ゴッドファーザー” ヒントン博士の警告 | NHK”. NHK NEWS WEB. 2024年3月12日閲覧。
  10. ^ “AIの第一人者ジェフリー・ヒントン氏、グーグル離れる AIの危険性に警鐘”. CNN.co.jp. CNN. (2023年5月2日). https://www.cnn.co.jp/tech/35203340.html 2023年5月3日閲覧。 
  11. ^ a b c d Jacobson, Dana (host); Silva-Braga, Brook (reporter); Frost, Nick; Hinton, Geoffrey (guests) (25 March 2023). "'Godfather of artificial intelligence' talks impact and potential of new AI". CBS Saturday Morning. シーズン12. Episode 12. New York City: CBS News. 2023年3月28日時点のオリジナルよりアーカイブ。2023年3月28日閲覧
  12. ^ BNN Bloomberg – Canada Business News, TSX Today & Interest Rates” (英語). BNN. 2024年8月28日閲覧。
  13. ^ a b c d e f Metz, Cade (1 May 2023). “'The Godfather of A.I.' Leaves Google and Warns of Danger Ahead” (英語). The New York Times. ISSN 0362-4331. オリジナルの1 May 2023時点におけるアーカイブ。. https://web.archive.org/web/20230501153311/https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html 1 May 2023閲覧。 
  14. ^ Hinton, Geoffrey [@geoffreyhinton] (2023年5月1日). "In the NYT today, Cade Metz implies that I left Google so that I could criticize Google. Actually, I left so that I could talk about the dangers of AI without considering how this impacts Google. Google has acted very responsibly". X(旧Twitter)より2023年5月2日閲覧
  15. ^ Taylor, Josh; Hern, Alex (2 May 2023). “'Godfather of AI' Geoffrey Hinton quits Google and warns over dangers of misinformation”. The Guardian. https://www.theguardian.com/technology/2023/may/02/geoffrey-hinton-godfather-of-ai-quits-google-warns-dangers-of-machine-learning 8 October 2024閲覧。 
  16. ^ a b Kleinman, Zoe; Vallance, Chris (2 May 2023). “AI 'godfather' Geoffrey Hinton warns of dangers as he quits Google”. BBC News. オリジナルの2 May 2023時点におけるアーカイブ。. https://web.archive.org/web/20230502132025/https://www.bbc.com/news/world-us-canada-65452940 2 May 2023閲覧。 
  17. ^ “Full interview: "Godfather of artificial intelligence" talks impact and potential of AI” (英語), CBS Mornings, (25 March 2023), オリジナルの2 May 2023時点におけるアーカイブ。, https://web.archive.org/web/20230502013344/https://www.youtube.com/watch?v=qpoRO378qRY 2023年5月1日閲覧。 ; video at 31:45
  18. ^ “Full interview: "Godfather of artificial intelligence" talks impact and potential of AI” (英語), CBS Mornings, (25 March 2023), オリジナルの2 May 2023時点におけるアーカイブ。, https://web.archive.org/web/20230502013344/https://www.youtube.com/watch?v=qpoRO378qRY 2023年5月1日閲覧。 ; video at 31:55
  19. ^ (英語) Full interview: "Godfather of artificial intelligence" talks impact and potential of AI, (25 March 2023), オリジナルの2 May 2023時点におけるアーカイブ。, https://web.archive.org/web/20230502013344/https://www.youtube.com/watch?v=qpoRO378qRY 2023年5月1日閲覧。 ; video at 35:48
  20. ^ Call for an International Ban on the Weaponization of Artificial Intelligence” (英語). University of Ottawa: Centre for Law, Technology and Society. 8 April 2023時点のオリジナルよりアーカイブ2023年5月1日閲覧。
  21. ^ a b Wiggers, Kyle (17 December 2018). “Geoffrey Hinton and Demis Hassabis: AGI is nowhere close to being a reality”. VentureBeat. 21 July 2022時点のオリジナルよりアーカイブ21 July 2022閲覧。
  22. ^ AI 'godfather' says universal basic income will be needed” (英語). www.bbc.com. 2024年6月15日閲覧。
  23. ^ Varanasi, Lakshmi (2024年5月18日). “AI 'godfather' Geoffrey Hinton says he's 'very worried' about AI taking jobs and has advised the British government to adopt a universal basic income” (英語). Business Insider Africa. 2024年6月15日閲覧。
  24. ^ Smith, Craig S. (23 June 2017). “The Man Who Helped Turn Toronto into a High-Tech Hotbed”. The New York Times. オリジナルの27 January 2020時点におけるアーカイブ。. https://web.archive.org/web/20200127035044/https://www.nytimes.com/2017/06/23/world/canada/the-man-who-helped-turn-toronto-into-a-high-tech-hotbed.html 27 June 2017閲覧。 
  25. ^ Pillay, Tharin; Booth, Harry (2024-08-07). “Exclusive: Renowned Experts Pen Support for California's Landmark AI Safety Bill” (英語). TIME. https://time.com/7008947/california-ai-bill-letter/ 2024年8月21日閲覧。. 
  26. ^ Letter from renowned AI experts” (英語). SB 1047 – Safe & Secure AI Innovation. 2024年8月21日閲覧。
  27. ^ a b c d Mr.Robot Tronto Life, January 29, 2018

関連項目

[編集]

外部リンク

[編集]