OpenAI
この記事の主題はウィキペディアにおける組織の特筆性の基準を満たしていないおそれがあります。(2016年3月) |
設立 | 2015年12月11日 |
---|---|
設立者 | イーロン・マスク, サンフランシスコ Altman, Ilya Sutskever, Greg Brockman |
所在地 | |
製品 | OpenAI Gym |
寄付基金 | |
ウェブサイト |
openai |
OpenAI は、人工知能を研究する非営利団体である。人類全体に、害をもたらすよりは、有益性があるやりかたで、オープンソースと親和性の高い人工知能を、注意深く推進することを目的として掲げている[3]。
概要
2015年12月に設立された。イーロン・マスクをはじめとする有力な実業家・投資家が参加していることから注目を集める[4]。
2016年4月に強化学習アルゴリズムの検証プラットフォームであるOpenAI Gymを発表した[5][6]。
アプリケーション
DALL-E
自然言語処理と画像生成モデル(VAE,Clip)を組み合わせたAI「DALL・E」を発表。人間でも見分けが付かないほど高精度な文章を生成するAI「GPT-3」のパラメータを使用し、文章からイラストや写真を作り出すことができる。
DALL-E 2
自然言語処理と画像生成モデル(拡散モデル,Clip)を組み合わせたAI「DALL・E2」を発表。同じくGPT-3のパラメータを使用している。
GPT-3
Generative Pretrained Transformer 2 (GPT-2) の後継モデルである Generative Pretrained Transformer 3 (GPT-3) は、教師なしの Transformer 言語モデルである。 GPT-3 は 2020 年 5 月に初めて紹介された [7] [8]。 OpenAI によると、GPT-3 には 1,750 億個のパラメータが含まれ、GPT-2(パラメータ数 15 億個)より 2 桁大きい[9]。
OpenAI は、GPT-3 は特定の「メタ学習」タスクで成功すると述べた。単一の入出力ペアの目的を一般化できる。この論文は、英語-ルーマニア語間、および英語-ドイツ語間の翻訳および言語間転移学習の例を示している。
GPT-3 のベンチマーク結果は、GPT-2 のそれと比較して劇的に改善している。 OpenAI は、そのような言語モデルのスケールアップは、予測言語モデルの基本的な機能制限に近づいたり遭遇したりする可能性があると警告した。 トレーニングに要した計算量は、GPT-2 では数十ペタフロップ/秒・日だったのに対し、GPT-3 では、数千ペタフロップ/秒・日を要した。
GPT-2 と同様、GPT-3 の完全にトレーニングされたモデルは、悪用される可能性があるという理由ですぐには一般公開されなかった。 OpenAI は、2 か月の無料プライベートベータ版の提供後に有料クラウド API を介したアクセスを許可する予定だった。
GPT-3が書いたことを伏せたオンライン記事がニュースサイトで、ランキング1位を獲得するなど、人間並みに自然な文章を実現している。ただし、GPT-3を含む「言語AI」の言語処理は「定量的アプローチ」であり、人間の言語能力とは根本的に異なる[10]。
また、将来的には「自然言語を用いたプログラミング」が可能になることも期待されている[11]。
脚注
- ^ Markoff, John (2015年12月11日). “Artificial-Intelligence Research Center Is Founded by Silicon Valley Investors”. The New York Times 2015年12月12日閲覧。
- ^ Metz, Cade (2019年7月22日). “With $1 Billion From Microsoft, an A.I. Lab Wants to Mimic the Brain”. The New York Times 2019年7月22日閲覧。
- ^ “Introducing OpenAI”. OpenAI Blog. Open AI (2015年12月11日). 2015年5月15日閲覧。
- ^ Meyers, Michelle (2015年12月14日). “イーロン・マスク氏ら、AI研究組織「OpenAI」を創設--人類への貢献を目指す”. CNET Japan. 2016年5月15日閲覧。
- ^ “OpenAI Gym Beta”. OpenAI Blog. Open AI (2016年4月27日). 2016年5月15日閲覧。
- ^ Reynolds, Emily (2016年5月2日). “「AI用トレーニングジム」を、OpenAIがオープン”. WIRED.jp. 2016年5月15日閲覧。
- ^ “openai/gpt-3”. OpenAI (2020年5月29日). 2020年7月30日閲覧。
- ^ Sagar, Ram (2020年6月3日). “OpenAI Releases GPT-3, The Largest Model So Far” (英語). Analytics India Magazine. 2020年6月14日閲覧。
- ^ Brown, Tom; Mann, Benjamin; Ryder, Nick; Subbiah, Melanie; Kaplan, Jared; Dhariwal, Prafulla; Neelakantan, Arvind; Shyam, Pranav; Sastry, Girish; Askell, Amanda; Agarwal, Sandhini (1 June 2020). "Language Models are Few-Shot Learners". arXiv:2005.14165.
Since we increase the capacity by over two orders of magnitude from GPT-2 to GPT-3
- ^ 日経新聞朝刊2021/5/28
- ^ マイクロソフトはGPT-3を使い自然言語でコードを書けるようにする 2021/5/28閲覧