アディティブ・シンセシス

出典: フリー百科事典『ウィキペディア(Wikipedia)』
移動: 案内検索
21個の非整数次倍音を加算合成したベル音

この音声や映像がうまく視聴できない場合は、Help:音声・動画の再生をご覧ください。

アディティブ・シンセシス (Additive synthesisあるいは 加算合成) とは、複数の正弦波を足し合わせて音色を合成する サウンド・シンセシス技術(音響合成技術)である。[1][2]

フーリエ理論によれば、楽器の音色は複数の

で構成されていると考える事ができる。ここで各パーシャル(部分音)は、互いに周波数が異なり、また振幅が時間変化する正弦波信号である。

アディティブ・シンセシスは一般に、複数の正弦波を加算して音を合成する。その他、事前計算した波形テーブル(ウェーブテーブル・シンセシス)や、逆高速フーリエ変換でも実装できる。

アディティブ・シンセシスの構成
   (オシレータ・バンク方式)

上部のK個のパーシャル・オシレータ(〜)には、それぞれ周波数f_k\, と振幅r_k\,(1\le k\le K) が入力される。各オシレータの出力は下部の加算器(+)で加算され、合成信号 y(t)\,が出力される。

定義[編集]

フーリエ級数による
方形波の近似(最初の4項)

ハーモニック・アディティブ・シンセシス(調波加算合成)は、フーリエ級数の概念 —— つまり

周期関数を級数展開して、基本周波数f_0\,の整数倍周波数の正弦関数(または余弦関数)の級数和の形を得ること
\begin{align}
	y(t)	= r_0	& + r_1\sin(2\pi f_0\cdot t) + \cdots  \\
			& + r_k\sin(2\pi k f_0\cdot t) + \cdots 
\end{align}

—— と密接に関連している。級数展開に現れる個々の正弦波は、ハーモニクス[要曖昧さ回避]または倍音、あるいは非周期関数への拡張を考慮してパーシャル(部分音)と呼ばれる。

一般にフーリエ級数は、無限個の正弦波成分を含み、その周波数に上限はなく、下限は直流成分(周波数 0 Hz)である。一方、アディティブ・シンセシスでは人間の可聴域外の成分を省略可能であり、結果的に可聴域内の有限個の正弦波成分のみ扱う事になる。

周期関数のフーリエ級数展開[編集]

任意の波形もしくは関数 y(t)\, が、周期 T\, について全ての時刻 t\, について

 y(t) = y(t+T) \

を満たす場合、これを周期的波形もしくは周期関数と呼ぶ。

周期関数のフーリエ級数展開は、次のように表現される:

 \begin{align}
  y(t)	&= \frac{a_0}{2} + \sum_{k=1}^{\infty} \left[ a_k \cos(2 \pi k f_0 \cdot t ) + b_k \sin(2 \pi k f_0 \cdot t ) \right] \\
	&= \frac{a_0}{2} + \sum_{k=1}^{\infty} r_k \cos\left(2 \pi k f_0 \cdot t + \phi_k \right) 
\end{align}

ここで

f_0\ \,

周期関数の基本周波数(周期の逆数\textstyle{1/T}\,

※ 二番目の表式は
  加法定理で得られる↓
a_k\ \,

k\,次のフーリエ余弦係数

\textstyle(a_k = r_k \cos(\phi_k))\,
a_k \equiv \frac{2}{T} \int_{0}^T y(t) \cdot \cos(2 \pi k f_0 \cdot t)\, dt\ , \quad k \ge 0\,
b_k\ \,

k\,次のフーリエ正弦係数

\textstyle(b_k = - r_k \sin(\phi_k))\,
b_k \equiv \frac{2}{T} \int_{0}^T y(t) \cdot \sin(2 \pi k f_0 \cdot t)\, dt\ , \quad k \ge 1\,
r_k\ \,

k\,次ハーモニック・パーシャルの振幅

\textstyle\left(r_k = \sqrt{a_k^2 + b_k^2}\right)\,
\phi_k\ \,

k\,次ハーモニック・パーシャルのオフセット位相

\textstyle(\phi_k = - \operatorname{atan2}(b_k, a_k))\,
※※ atan2逆正接 tan-1二引数版

である。以降、アディティブ・シンセシスの表式では、人間の可聴域外成分である直流成分 a_0/2\,(初項)と、適当な上限周波数 K f_0\, を超えるK\,次以上の級数成分 は省略する。

ハーモニック形式[編集]

もっとも単純なハーモニック・アディティブ・シンセシスは、上述の周期関数のフーリエ級数展開により次のように表される:

y(t) = \sum_{k=1}^{K} r_k \cos\left(2 \pi k f_0 \cdot t + \phi_k \right)

 

 

 

 

(1)

ここで y(t)\, は合成出力、r_k\,, k f_0\,, \phi_k\, はそれぞれk次ハーモニック・パーシャルの振幅、周波数、オフセット位相であり、f_0\,は波形の基本周波数、楽音の音程に相当する。

振幅が時間変化するハーモニック・アディティブ・シンセシスの例
(基本周波数 f0 = 440 Hz)

振幅の時間発展(ハーモニック形式)[編集]

より一般的に各パーシャルの振幅r_k\,は、振幅エンベロープ[要曖昧さ回避](あるいは瞬時振幅)と呼ばれる時間の関数 r_k(t)\, で記述され、合成出力は次式で表される:

y(t) = \sum_{k=1}^{K} r_k(t) \cos\left(2 \pi k f_0 \cdot t + \phi_k \right)

 

 

 

 

(2)

帯域制限(band-limited signal)の観点から、各パーシャルの振幅エンベロープ[要曖昧さ回避] r_k(t)\, の変化は、付帯的な振幅変調による帯域の広がり \Delta f_{r_k}(t)\,が 隣接パーシャル間の周波数間隔(≒基本周波数 f_0\,)より有意に小さくなるよう[3][4][脚注 1]、充分ゆっくりした速度で変化させる必要がある。[1][脚注 2]

振幅の変化速度 振幅変調による
帯域の広がり
隣接パーシャル間の
周波数間隔
基本周波数
\quad\frac{d}{dt}\frac{r_k(t)}{|r_k|}\quad\, \ \quad\propto\quad\, \Delta f_{r_k}(t)\quad\, \ \quad\ll\ \quad\, |f_{k} - f_{k-1}|\ \quad\, \quad\approx\quad\, f_0 \quad \,

インハーモニック形式[編集]

アディティブ・シンセシスは、非整数次倍音を含むインハーモニックな音(非周期的波形)も合成できる。[5][1] 従来の大多数の楽器の音色は、主にハーモニック・パーシャルで構成されているが(例:オーボエ)、インハーモニック・パーシャルが特徴的な楽器も存在する(例:ベル[要曖昧さ回避])。インハーモニック・アディティブ・シンセシスの合成出力は次の数式で表される:

y(t) = \sum_{k=1}^{K} r_k(t) \cos\left(2 \pi f_k \cdot t + \phi_k \right)\,

ここで、f_k\,k\,次パーシャルの周波数(定数)である。

振幅と周波数の両方が時間変化するインハーモニック・アディティブ・シンセシスの例

周波数の時間発展(インハーモニック形式)[編集]

周波数が時間発展する場合、各パーシャルの周波数f_k\,瞬時周波数英語版f_k(t)\,へと拡張して扱う必要がある。[脚注 3]

周波数が時間発展しない k\,次パーシャルの表式は:
x_k(t) = r_k(t) \cos(2\pi f_k\cdot t + \phi_k) = r_k(t) \cos(\theta_k(t))\,
ここで\theta_k瞬時位相英語版であり、上記表式の解析信号英語版x_a(t)\,偏角[要曖昧さ回避]で与えられる:
\theta_k(t) = \arg(x_a(t)) = 2\pi f_k\cdot t + \phi_k\ ,\quad \theta_k(0)=\phi_k\,
瞬時周波数f_k(t)は、瞬時位相の時間微分で与えられる:
f_k(t) = \frac{1}{2\pi}\frac{d \theta_k(t)}{dt}
周波数が時間発展する瞬時位相は、瞬時周波数で再定義して
\theta_k(t) = 2\pi\int^t_0 f_k(u)du + \phi_k\ ,\quad f_k(t)>0

以上より、最も一般的なアディティブ・シンセシスの表式は、与えられた瞬時周波数 f_k(t)\, を使って下記のように表現される:

y(t) = \sum_{k=1}^{K} r_k(t) \cos\left(2 \pi \int_0^t f_k(u)\ du + \phi_k \right), \quad f_k(t) > 0

 

 

 

 

(3)

広義の定義[編集]

アディティブ・シンセシス」という用語は広義に、正弦波ベースか否かを問わず「単純な基本要素を足し合わせて複雑な音色を合成する」タイプのサウンド・シンセシス手法全般を指す包括的用語として使われる事がある。[6][7] 例えば F. Richard Mooreはサウンド・シンセシスの「四つの基本カテゴリー」として、アディティブ・シンセシスを他の三つと共に挙げている。[7]

この広義の意味で、正弦波以外の音色(パイプやストップ)を組み合わせるパイプオルガン電子オルガンも広義のアディティブ・シンセサイザーと見なせる。また主成分(変量間の相関行列の固有値分解で得られる合成基底)やウォルシュ関数英語版Walsh-Hadamard変換の基底関数)の総和による音響合成も、広義のアディティブ・シンセシスに分類できる。[8]

加算分析/再合成[編集]

加算分析/再合成 の 概要
(additive analysis/re-synthesis)

録音された音の周波数成分を分析して、「正弦波の総和」の表現を得ることができる。[脚注 4]この表現はアディティブ・シンセシスで再合成(re-synthesis)できる。音を分解して時間変化する正弦波パーシャルを得る分析手法には、例えば以下がある:

再合成の前に「正弦波の総和」の表現を修正すれば、音色を改変できる。例えばハーモニックな音を再構成してインハーモニックな音にしたり、その逆も可能である。複数の音色のかけ合わせ(hybrid)や モーフィング も加算再合成で実装されている。[12]

加算分析/再合成は、他のいくつもの手法で採用されている。たとえば

等。またソフトウェア実装には下記がある:

応用例[編集]

楽器[編集]

アディティブ・シンセシスは、ハモンド・オルガンや、シンセサイザー電子楽器に応用されている。

音声合成[編集]

音声波形とスペクトログラム(下):
赤点列は5つのフォルマント周波数、
下側水色カーブは基底周波数(ピッチ)

言語学の研究では1950年代初頭より、合成あるいは変更した音声スペクトログラムの再生にハーモニック・アディティブ・シンセシスが使用されている。[21] 1980年代初頭には、音声の音響的手がかり(acoustic cues)の意義を評価するために、それらを取り去った合成音声の聴取テストが行われた。[22] また線形予測符号で抽出したフォルマント周波数と振幅の時系列を使う音声合成手法の一つ sinewave synthesis は、インハーモニックな正弦波パーシャルの加算合成を行う。[23](関連:Sinusoidal Modeling

実装方式[編集]

今日のアディティブ・シンセシス実装系は、主にデジタル処理で実装されている(#離散表現参照)。

オシレータ・バンク[編集]

アディティブ・シンセシスは、各パーシャルに対応して正弦波オシレータを複数用意したオシレータ・バンクで実装できる[1](記事冒頭の図参照)。

ウェーブテーブル・シンセシス[編集]

楽音がハーモニックで準周期的な場合、ウェーブテーブル・シンセシスは時間発展のあるアディティブ・シンセシスと同様な一般性を備え、しかも合成に必要な計算量は少なくて済む。[24] 従って、ハーモニックな音色合成のための時間発展のあるアディティブ・シンセシスは、ウェーブテーブル・シンセシスで効率的に実装できる。

グループ・アディティブ・シンセシス(Group additive synthesis)[25][26][27] は、各パーシャルを基本周波数の異なるハーモニック・グループに分け、各グループ個別にウェーブテーブル・シンセシスで合成後、ミックスして結果を得る手法である。

逆高速フーリエ変換[編集]

高速フーリエ変換は、変換周期を均等分割した周波数[脚注 5] に関する(加算)合成を効率的に行える。また、離散フーリエ変換の周波数領域表現を注意深く考慮すれば、複数の逆高速フーリエ変換結果をオーバーラップさせた列を使って、任意周波数の正弦波による(加算)合成を効率的に行える。[28]

歴史的背景[編集]

調和解析[編集]

調和解析は、1822年フランスの数学者ジョゼフ・フーリエ[29]熱伝導の文脈で彼の研究に関する広範な論文を発表して、研究が端緒に付いた。[30] この理論の初期の応用には、潮の干満の予測がある。1876年頃、[31] ケルビン卿ことウィリアム・トムソンは機械式の潮汐予測機(Tide-predicting machine)を構築した。この装置はharmonic analyzerharmonic synthesizerで構成され、それらは19世紀に既に前述の名で呼ばれていた。[32][33] 潮汐の測定値は、ケルビン卿の兄ジェームズ・トムソン英語版積分機integrating machine)を使い分析された。結果として得られたフーリエ係数は、紐と滑車のシステムを使ったsynthesizerに入力され、将来の潮汐の予測のための正弦波基底の調和部分波が生成され足し合わされた。同様な装置は1910年にも、音の周期波形の解析を目的として構築された。[34] この装置のsynthesizer部は合成波形をグラフに描画し、それは主に解析結果の視覚的検証に使用された。[34]

フーリエ理論の音への応用[編集]

フーリエ理論の音への応用は、1843年ゲオルク・オームによって行われた。この系統の研究はヘルマン・フォン・ヘルムホルツにより大きな進歩を遂げ、彼は8年間の成果を1863年出版した。[35] 彼は、音色の心理的知覚は学習によるものだが、官能的感覚は純粋に生理的なものだと信じていた。[36] また彼は、音の知覚は基底膜の神経細胞からの信号に由来し、これら細胞の弾性付属物は適切な周波数の純粋な正弦波トーンに共鳴振動する、という考えを支持した。[34] この他ヘルムホルツは、ある種の音源はインハーモニック(基底周波数の非整数倍)な振動モードを含むとする エルンスト・クラドニの1787年の発見に同意した。[36]

ヘルムホルツのサウンド・シンセサイザー[編集]

ヘルムホルツ の サウンド・シンセサイザーと
ケーニッヒ の サウンド・アナライザー

Sound synthesizer
Sound analyzer
ヘルムホルツのトーンジェネレータ(左図):電磁石で音叉を励起し、ヘルムホルツ・レゾネータ(右図)で音響増幅する。

ヘルムホルツの時代、電子的な音響増幅手段(アンプ)はまだ存在しなかった。ヘルムホルツは、ハーモニック・パーシャルに基づく音色合成(ハーモニック・アディティブ・シンセシス)を目的として、パーシャル生成用の電磁石励起式音叉と、音量調整用のアコースティックな共鳴チャンバー (ヘルムホルツ・レゾネータ) の組を並べた装置を製作した。[37] 製作は少なくとも1862年という早い時期に行われ、[37] 次にルドルフ・ケーニッヒ英語版により洗練され、1872年ケーニッヒの装置の実演が行われた。[37] ハーモニック・アディティブ・シンセシスに関し、ケーニッヒは彼の音波サイレン(wave siren)に基づく大型装置も製作した。この装置は空気圧式で、切断したトーンホイールを使っていたが、パーシャルの正弦波精度が低い点を批評された。[31] なお19世紀末に登場したシアター・オルガン英語版Tibiaパイプは正弦波に近い音波を発生でき、アディティブ・シンセシスと同様な方法で組み合わせる事ができる。[31]

アディティブとサブトラクティブ[編集]

1938年ポピュラーサイエンス誌で、人間の声帯は消防サイレンのように機能して、倍音に富んだ音色を生成し、その音色は声道でフィルタリングされ、異なる母音の音色が生成される、とする説が新しい重要な証拠と共に[38]報じられた。[39](関連:ソース・フィルタモデル)既に当時、アディティブ方式のハモンドオルガン(トーンホイールによる電気機械式実装)が市販されていた。しかし初期の電子オルガン・メーカの大多数は、大量のオシレータを要するアディティブ方式オルガンの製造は高価過ぎると判断し、代わりにサブトラクティブ方式オルガンの製造を開始した。[40] 1940年Institute of Radio Engineersの会議でハモンドのフィールド・エンジニア長は、従来の「音波を組合せて最終的な音色を組み上げる[脚注 6]ハモンドオルガンとは対照的な、「サブトラクティブ・システム」を採用した同社の新製品ノヴァコードについて詳しい説明を行った。[41]

Alan Douglasは1948年のRoyal Musical Associationの論文で、異なる方式の電子オルガンを説明するために修飾子「アディティブ」と「サブトラクティブ」を使った。[42] 現代的な用法のアディティブ・シンセシスサブトラクティブ・シンセシスという用語は、彼の1957年著作“The electrical production of music”に登場しており、音色生成の3つの手法が次の3つの章に示されている:[43]

  • アディティブ・シンセシス(additive synthesis
  • サブトラクティブ・シンセシス(subtractive synthesis
  • 他の形態の組合せ(Other forms of combinations

現代のアディティブ・シンセサイザーは典型的に、出力を電気アナログ信号やデジタルオーディオの形で生成する。後者の例には2000年前後に一般化したソフトウェア・シンセサイザーが含まれる。[44]

年表[編集]

以下に、歴史的もしくは技術的に注目に値するアディティブ・シンセシスの実装例(電気/アナログ/デジタル式のシンセサイザーやデバイス)を年表形式で示す。

初期実装 商用化 組織 名称 概要 サンプル
1900[45] 1906[45] New England Electric Music Company Telharmonium ポリフォニックかつタッチセンシティブな、最初のサウンド・シンセサイザー[46]
実装: 正弦波加算合成。トーンホイールオルタネーターを使用。
発明者:Thaddeus Cahill
no known recordings[45]
1933[47] 1935[47] Hammond Organ Company ハモンドオルガン Telharmoniumと同様な方式で大きな商業的成功を収めた、電気楽器式アディティブ・シンセサイザー[46]
実装:正弦波加算合成。トーンホイールマグネティック・ピックアップを使用。
発明者Laurens Hammond
Hammond Organ - Model A Medley.ogg Model A[ヘルプ/ファイル]
1950 or earlier [21]   Haskins Laboratories Pattern Playback スピーチ・シンセサイザー

実装:ハーモニック・パーシャル(整数次倍音)の振幅を、手描きまたは分析で得たスペクトログラムで制御。各パーシャル(部分音)は、マルチトラックの光学式トーンホイールで生成。[21]

samples
1958[48]     ANS 微分音(マイクロトーナル)を扱う光学-電子式アディティブ・シンセサイザー[49]

実装:マルチトラックの光学式トーンホイールで、マイクロトーナル・パーシャル列(微分音列)を帯状の光源として生成。黒い樹脂を塗布したガラス表面を引掻いて作成したマイクロトーナル・スコア(スペクトログラム類似)を、時間軸方向に光電管でスキャンして音を合成。
発明者Evgeny Murzin
関連:1959年Hugh Le Caineが、電子音源Oscillator Bank と入力デバイス Spectrogramから成る同様な楽器を開発。[50][51]

The ANS Synthesizer playing doodles (live).ogg 2009年デモ[ヘルプ/ファイル]
1963[52]   MIT   楽器音色をアタック部と定常部に分け、デジタルで スペクトル分析/再合成 を行うオフライン処理システム

発明者:David Luce[52]

 
1964[53]   イリノイ大学 Harmonic Tone Generator 電圧制御式電子回路によるハーモニック・アディティブ・シンセシスのシステム

発明者:James Beauchamp.[53][54]

samples (info)
1974 or earlier [55][56] 1974 [55][56] RMI Harmonic Synthesizer デジタル・オシレータを使いアディティブ・シンセシス[57]を実装した最初のシンセサイザー製品、[55][56] 時間変化するアナログ・フィルタも備えている[55]

関連: RMIの親会社Allen Organ Companyは1971年、North American Rockwellが開発したデジタル・オルガン技術に基づき、世界最初の教会用デジタル・オルガン製品 Allen Computer Organを発売した。[58]

1 2 3 4
1974[59]   EMS (London) Digital Oscillator Bank ミニコン制御でデジタル式の 分析/再合成楽器(チャンネル・ヴォコーダ類似)

実装:複数のデジタル・オシレータの組(バンク)。任意波形を利用可能、周波数と振幅を個々に制御可能。[60] EMS製作のデジタル式Analysis Filter Bank (AFB)と組み合わせ、分析/再合成に使用。[59][60]
別名DOB.

in The New Sound of Music[61]
1976[62] 1976[63] Fairlight[要曖昧さ回避] Qasar M8 完全デジタル処理のシンセサイザー、高速フーリエ変換を使用[64]

実装: 各ハーモニクスの振幅エンベロープを、画面にライトペンで描き、高速フーリエ変換でサンプリング・データを生成[65]

samples
1977[66] (1980) [67] ベル研究所 Digital Synthesizer リアルタイム計算によるデジタル・アディティブ・シンセサイザー、[66] 「最初の真のデジタル・シンセサイザー」と呼ばれている[68]

別名Alles Machine, Alice.
関連:Music TechnologiesがCrumarと提携し、1980年Crumar GDS として製品化。

sample (info)
1979[68] 1979[68] New England Digital Synclavier II デジタル・シンセサイザー製品

実装:アディティブ・シンセシスで生成した複数の波形を、クロスフェードでスムースに切り替えて音色の時間発展を実現。

Jon Appleton - Sashasonjon (info)

離散表現[編集]

アディティブ・シンセシスのデジタル実装では、これまで扱ってきた連続時間の式(連続時間形式)の代わりに、離散時間の式(離散時間形式)を用いる。

連続時間形式(3)を出発点とする:

\begin{align}
    y(t)& = \sum_{k=1}^{K} r_k(t) \cos\left(2\pi \int_0^t f_k(u)\ du + \phi_k \right) \\
 	& = \sum_{k=1}^{K} r_k(t) \cos(\theta_k(t)) \end{align}

連続時間形式を書き換えて離散時間形式を得るために、下記の置換を使う:

時刻:      t \ \to n/f_\mathrm{s}\,
出力:    y(t) \to y[n]\,
振幅:    r_k(t) \to r_k[n] = r_k(n/f_\mathrm{s})\,
瞬時周波数: f_k(t) \to f_k[n] = \int^{n/f_\mathrm{s}}_{(n-1)/f_\mathrm{s}}f_k(u)du\, [脚注 7]
瞬時位相:  \theta_k(t) = 2\pi \int^t_0 f_k(u) du + \phi_k \ \to \  \theta_k[n] = \frac{2\pi}{f_\mathrm{s}} \sum_{i=0}^n f_k[i] + \phi_k \,
  (\because dt = dn/f_\mathrm{s})\,

すると次の離散時間形式が得られる:

\begin{align}
    y[n]& = \sum_{k=1}^{K} r_k[n] \cos\left(\frac{2 \pi}{f_\mathrm{s}} \sum_{i=1}^{n} f_k[i] + \phi_k \right) \\ 	& = \sum_{k=1}^{K} r_k[n] \cos\left(\theta_k[n]\right) \\ \end{align}

ここで\theta_k[n]\, の差分より

\begin{align}
    \theta_k[n] &= \theta_k[n-1] + \frac{2 \pi}{f_\mathrm{s}} f_k[n]\ ,\quad n > 0\\
    \theta_k[0] &= \phi_k \end{align}

である。[28]

脚注[編集]

  1. ^ Papoulis 1977, p. 184の \sigma\, は帯域制限幅に相当し、Kwakernaak & Sivan 1991, p. 613-614に見られるように、しばしば基本周波数 \omega_0 = 2\pi f_0\, を基準に用いる。
  2. ^ 振幅エンベロープ(瞬時振幅)の周波数スペクトル(振幅スペクトル)は、振幅変調を介して信号スペクトルに以下の形で寄与する:
    f_c[k]\pm f_m[\kappa]\,
    f_c[k]\,:元信号のk\,次パーシャル成分の周波数
    f_m[\kappa]\,:瞬時振幅の\kappa\,次パーシャル成分の周波数
    例えばオルガンのように急激なon/offを伴う振幅スペクトルは、矩形波と同様な幅広い周波数成分を含み、結果的にon/off時にクリック音が発生する。これを防ぐには、振幅スペクトルの可聴帯域への寄与が等ラウドネス曲線上で目立たなくなるよう、例えば振幅スペクトルを数十Hz以下に帯域制限し、結果的に形状が鈍った振幅エンベロープを使う事になる。なおこの方法では鋭いアタックを持つ音を実現できないので、必要に応じアタック部に過渡モデルを併用する事になる。(関連:Smith III 2011, Sines + Noise + Transients Models
  3. ^ 直感的説明:波の伝播速度v\,に基づく周波数の定義 f = v/\lambda\, は、単位時間\Delta t = 1\,に波が距離v\,伝播し、その区間に波長\lambda\,の波がf\,周期分並ぶ事を意味する。この式が与えるf\,は単位時間\Delta t\,内の平均周波数(より正確には瞬時周波数の定積分)と解釈できる。 ここで波の表式をy(t) = r \cos(2\pi f\cdot t+\phi)\,とすると、瞬時位相(余弦関数の偏角)は\theta(t) = 2\pi f\cdot t+\phi\,で与えられ、f\,は下記のように差分形式で表現できる:
    \begin{align}
    f 	& = \frac{(f\cdot(t+\Delta t)+\phi/2\pi) - (f\cdot t+\phi/2\pi)}{\Delta t}
\end{align}
    上記式で周波数f\,を瞬時周波数f(t)\,に置き換え、極限\Delta t \to 0\,をとると、瞬時周波数f(t)\,と瞬時位相\theta(t)\,の関係式が導かれる:
    \begin{align}
    f(t)& = \lim_{\Delta t\to 0} \frac{(f(t+\Delta t)\cdot(t+\Delta t) + \phi/2\pi) - (f(t)\cdot t + \phi/2\pi)}{\Delta t} \\
	& = \frac{d(f(t)\cdot t + \phi/2\pi)}{dt}
	  = \frac{1}{2\pi}\frac{d\theta(t)}{dt} 
\end{align}
    上記関係式より、周波数が時間発展する波の表式は、瞬時周波数を使い次のように表される:
    
    y(t) = r\cos(\theta(t)) = r\cos\left(2\pi \int^t_{-\infty}f(u)du\right) = r\cos\left(2\pi \int^t_{0}f(u)du + \phi\right)
  4. ^ 周期的波形の場合、フーリエ変換で「正弦波の総和」の形を得る事ができる。しかし非周期的波形の場合、準周期的波形として扱えるように短い時間区間に分割した上で、区間毎に基本周波数(周期)や各パーシャルの瞬時周波数と瞬時振幅を推定し、各区間の分析結果をスムースに補間した軌跡を生成する、などの処理が必要であり、扱う波形の特性や分析用途に応じ様々な分析手法がある。
  5. ^ 原文:“frequencies that evenly divide the transform period
  6. ^ 原文: “the final tones were built up by combining sound waves
  7. ^ 離散時間形式の瞬時周波数\textstyle{f_k[n] = \int^{n/f_\mathrm{s}}_{(n-1)/f_\mathrm{s}}f_k(u)du}\,後退差分で計算される。

参考文献[編集]

  1. ^ a b c d Smith III 2011, Additive Synthesis (Early Sinusoidal Modeling), "The term “additive synthesis” refers to sound being formed by adding together many sinusoidal components ..."
  2. ^ Reid, Gordon (2000), “Synth Secrets, Part 14: An Introduction To Additive Synthesis”, Sound On Sound (Jun 2000), http://www.soundonsound.com/sos/jun00/articles/synthsec.htm 
  3. ^ Papoulis, Athanasios (1977), Signal Analysis, USA: McGraw-Hill, p. 184, ISBN 9-780-0704-8460-3, "We shall say that a function f(t) is bandlimited if its Fourier transform is zero outside a finite interval (F(ω) = 0 for |ω| > σ) and its energy E is finite." 
  4. ^ Kwakernaak, Huibert; Sivan, Raphael (1991), Modern Signals and Systems: solutions manual with software, USA: Prentice Hall, pp. 613–614, ISBN 9-780-1380-9260-3 
  5. ^ Smith III & Serra 2005, Additive Synthesis
  6. ^ Roads 1996, p. 134
  7. ^ a b Moore, F. Richard (1990), Elements of Computer Music, Prentice Hall, p. 16, ISBN 0-132-52552-6 
  8. ^ Roads 1996, p. 150–153
  9. ^ McAulay, R. J.; Quatieri, T. F. (Aug 1986), “Speech analysis/synthesis based on a sinusoidal representation”, IEEE Transactions on Acoustics, Speech, Signal Processing ASSP-34 (4): 744–754 
  10. ^ “McAulay-Quatieri Method”, Loris for Your Cough, CLEAR, Rice University, http://www.clear.rice.edu/elec301/Projects02/lorisFor/mqmethod2.html 
  11. ^ 鷲沢嘉一; 田中聡久 (2007), “経験的モード分解: チュートリアル”, 電子情報通信学会 第22回 信号処理シンポジウム: 135–140, http://www.sip.tuat.ac.jp/~tanaka/pdf/A7-1.pdf 
  12. ^ a b Serra, Xavier (1989), A System for Sound Analysis/Transformation/Synthesis based on a Deterministic plus Stochastic Decomposition, Stanford University, http://mtg.upf.edu/node/304 
  13. ^ Smith III & Serra 2005
  14. ^ Fitz, Kelly Raymond (1999), The Reassigned Bandwidth-Enhanced Method of Additive Synthesis, Dept. of Electrical and Computer Engineering, University of Illinois at Urbana-Champaign, CiteSeerX: 10.1.1.10.1130 
  15. ^ “Reassigned Bandwidth-Enhanced Method”, Loris for Your Cough, CLEAR, Rice University, http://www.clear.rice.edu/elec301/Projects02/lorisFor/bandwidth_enhanced2.html 
  16. ^ ARSS: The Analysis & Resynthesis Sound Spectrograph
  17. ^ SPEAR Sinusoidal Partial Editing Analysis and Resynthesis for MacOS X, MacOS 9 and Windows
  18. ^ Sinusoidal Modeling and Lemur, CERL Sound Group
  19. ^ Loris Software for Sound Modeling, Morphing, and Manipulation, CERL Sound Group
  20. ^ SMSTools application for Windows
  21. ^ a b c Franklin S. Cooper, Alvin M. Liberman, John M. Borst (May 1951), “The interconversion of audible and visible patterns as a basis for research in the perception of speech”, Proc. Natl. Acad. Sci. U.S.A. 37 (5): 318–325, doi:10.1073/pnas.37.5.318, PMC 1063363, PMID 14834156, http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid=1063363 
  22. ^ Remez, R.E.; Rubin, P.E., Pisoni, D.B., & Carrell, T.D. (1981), “Speech perception without traditional speech cues”, Science (212): 947–950, http://people.ece.cornell.edu/land/courses/ece4760/Speech/remez_rubin_pisoni_carrell1981.pdf 
  23. ^ Rubin, P.E. (1980), “Sinewave Synthesis Instruction Manual (VAX)”, Internal memorandum (Haskins Laboratories, New Haven, CT), http://www.haskins.yale.edu/featured/sws/SWSmanual.pdf 
  24. ^ Bristow-Johnson, Robert (November 1996), Wavetable Synthesis 101, A Fundamental Perspective, http://www.musicdsp.org/files/Wavetable-101.pdf 
  25. ^ Smith III, Julius O. (2010), “Group Additive Synthesis”, Spectral Audio Signal Processing (March 2010 Draft ed.), CCRMA, Stanford University, オリジナルの2011-06-06時点によるアーカイブ。, https://ccrma.stanford.edu/~jos/sasp/Group_Additive_Synthesis.html 
  26. ^ Kleczkowski, P. (1989), “Group additive synthesis”, Computer Music Journal 13 (1): 12–20 
  27. ^ Eaglestone, B.; Oates, S. (1990), “Analytical tools for group additive synthesis”, Proceedings of the 1990 International Computer Music Conference, Glasgow (Computer Music Association), http://quod.lib.umich.edu/cgi/p/pod/dod-idx?c=icmc;idno=bbp2372.1990.015 
  28. ^ a b Rodet, X.; Depalle, P. (1992), “Spectral Envelopes and Inverse FFT Synthesis”, Proceedings of the 93rd Audio Engineering Society Convention, doi:10.1.1.43.4818 
  29. ^ Prestini, Elena (2004) [Rev. ed. of: Applicazioni dell'analisi armonica. Milan: Ulrico Hoepli, 1996], The Evolution of Applied Harmonic Analysis: Models of the Real World, trans., New York, USA: Birkhäuser Boston, pp. 114–115, ISBN 0-8176-4125-4, http://books.google.fi/books?id=fye--TBu4T0C 
  30. ^ Fourier, Jean Baptiste Joseph (1822) (フランス語), Théorie analytique de la chaleur [The Analytical Theory of Heat], Paris, France: Chez Firmin Didot, père et fils, http://www.archive.org/details/thorieanalytiqu00fourgoog 
  31. ^ a b c Miller, Dayton Clarence (1926) [First published 1916], The Science Of Musical Sounds, New York: The Macmillan Company, pp. 110, 244–248, http://www.archive.org/details/scienceofmusical028670mbp 
  32. ^ The London, Edinburgh and Dublin philosophical magazine and journal of science (Taylor & Francis) 49: 490, (1875) 
  33. ^ Thomson, Sir W. (1878), “Harmonic analyzer”, Proceedings of the Royal Society of London (Taylor and Francis) 27: 371–373, JSTOR 113690, http://jstor.org/stable/113690 
  34. ^ a b c Cahan, David (1993), Cahan, David, ed., Hermann von Helmholtz and the foundations of nineteenth-century science, Berkeley and Los Angeles, USA: University of California Press, pp. 110–114, 285–286, ISBN 978-0-520-08334-9, http://books.google.fi/books?id=lfdJNRgzKyUC 
  35. ^ Helmholtz, Hermann von (1863) (ドイツ語), Die Lehre von den Tonempfindungen als physiologische Grundlage für die Theorie der Musik [On the sensations of tone as a physiological basis for the theory of music] (1st ed.), Leipzig: Leopold Voss, pp. v, http://vlp.mpiwg-berlin.mpg.de/library/data/lit3483/index_html?pn=1&ws=1.5 
  36. ^ a b Christensen, Thomas Street (2002), The Cambridge History of Western Music, Cambridge, United Kingdom: Cambridge University Press, pp. 251, 258, ISBN 0-521-62371-5, http://books.google.fi/books?id=ioa9uW2t7AQC 
  37. ^ a b c Helmholtz, Hermann von (1875), On the sensations of tone as a physiological basis for the theory of music, London, United Kingdom: Longmans, Green, and co., pp. xii, 175–179, http://www.archive.org/details/onsensationston00helmgoog 
  38. ^ Russell, George Oscar (1936), Carnegie Institution of Washington: Year Book, 35, Washington: Carnegie Institution of Washington, pp. 359–363, http://www.archive.org/details/yearbookcarne35193536carn 
  39. ^ Lodge, John E. (April, 1938), Brown, Raymond J., ed., “Odd Laboratory Tests Show Us How We Speak: Using X Rays, Fast Movie Cameras, and Cathode-Ray Tubes, Scientists Are Learning New Facts About the Human Voice and Developing Teaching Methods To Make Us Better Talkers”, Popular Science Monthly (New York, USA: Popular Science Publishing) 132 (4): 32–33, http://books.google.fi/books?id=wigDAAAAMBAJ&pg=PA32 
  40. ^ Comerford, P. (1993), “Simulating an Organ with Additive Synthesis”, Computer Music Journal 17 (2): 55–65., doi:10.2307/3680869, JSTOR 3680869, http://jstor.org/stable/3680869 
  41. ^ “Institute News and Radio Notes”, Proceedings of the IRE 28 (10): 487–494, (Oct. 1940), doi:10.1109/JRPROC.1940.228904 
  42. ^ Douglas, A. (1948), “Electrotonic Music”, Proceedings of the Royal Musical Association 75: 1–12, doi:10.1093/jrma/75.1.1, JSTOR 765906, http://jstor.org/stable/765906 
  43. ^ Douglas, Alan Lockhart Monteith (1957), The Electrical Production of Music, London, UK: Macdonald, pp. 140, 142, http://www.archive.org/details/electricalproduc00doug 
  44. ^ Pejrolo, Andrea; DeRosa, Rich (2007), Acoustic and MIDI orchestration for the contemporary composer, Oxford, UK: Elsevier, pp. 53–54 
  45. ^ a b c Weidenaar, Reynold (1995), Magic Music from the Telharmonium, Lanham, MD: Scarecrow Press, ISBN 0-8108-2692-5 
  46. ^ a b Moog, Robert A. (October/November 1977), “Electronic Music”, Journal of the Audio Engineering Society (JAES) 25 (10/11): 856 
  47. ^ a b Olsen, Harvey (14 December 2011), Brown, Darren T., ed., “Leslie Speakers and Hammond organs: Rumors, Myths, Facts, and Lore”, The Hammond Zone (Hammond Organ in the U.K.), http://www.hammond-organ.com/History/hammond_lore.htm 
  48. ^ Holzer, Derek (22 February 2010), TONEWHEELS - A brief history of optical synthesis, http://www.umatic.nl/tonewheels_historical.html 
  49. ^ Vail, Mark (2002), “Eugeniy Murzin's ANS — Additive Russian synthesizer”, Keyboard Magazine (November 1, 2002): 120 
  50. ^ Young, Gayle, “Oscillator Bank (1959)”, Hugh Le Caine - An Inventor's Notebook, http://www.hughlecaine.com/en/oscbank.html 
  51. ^ Young, Gayle, “Spectrogram (1959)”, Hugh Le Caine - An Inventor's Notebook, http://www.hughlecaine.com/en/spectro.html 
  52. ^ a b Luce, David Alan (1963), Physical correlates of nonpercussive musical instrument tones, Cambridge, Massachusetts, U.S.A.: Massachusetts Institute of Technology, hdl:1721.1/27450 
  53. ^ a b Beauchamp, James (17 November 2009), “The Harmonic Tone Generator: One of the First Analog Voltage-Controlled Synthesizers”, Prof. James W. Beauchamp Home Page, http://ems.music.uiuc.edu/beaucham/htg.html 
  54. ^ Beauchamp, James W. (October 1966), “Additive Synthesis of Harmonic Musical Tones”, Journal of the Audio Engineering Society 14 (4): 332–342, http://www.aes.org/e-lib/browse.cfm?elib=1129 
  55. ^ a b c d “RMI Harmonic Synthesizer”, Synthmuseum.com, オリジナルの2011-06-09時点によるアーカイブ。, http://web.archive.org/web/20110609205852/http://www.synthmuseum.com/rmi/rmihar01.html 
  56. ^ a b c Reid, Gordon (2011), “PROG SPAWN! The Rise And Fall Of Rocky Mount Instruments (Retro)”, Sound On Sound (Dec 2001), http://www.soundonsound.com/sos/dec01/articles/retrozone1201.asp 
  57. ^ Flint, Tom (2008), “Jean Michel Jarre: 30 Years Of Oxygene”, Sound On Sound (Feb 2008), http://www.soundonsound.com/sos/feb08/articles/jmjarre.htm 
  58. ^ Thomas Derdak, ed. (2000), Allen Organ Company, “International Directory of Company Histories”, Gale virtual reference library (St. James Press) 33: pp. 26–28, ISBN 9-781-5586-2392-7, http://www.fundinguniverse.com/company-histories/Allen-Organ-company-company-History.html 
  59. ^ a b Cosimi, Enrico (20 May 2009), “EMS Story - Prima Parte” (イタリア語), Audio Accordo.it, http://audio.accordo.it/articles/2009/05/23828/ems-story-prima-parte.html 
  60. ^ a b Hinton, Graham (2002), EMS: The Inside Story, Electronic Music Studios (Cornwall), http://www.ems-synthi.demon.co.uk/emsstory.html 
  61. ^ The New Sound of Music, UK: BBC, (1979)  Includes a demonstration of DOB and AFB.
  62. ^ Leete, Norm (1999), “Fairlight Computer – Musical Instrument (Retro)”, Sound On Sound (Apr 1999), http://www.soundonsound.com/sos/apr99/articles/fairlight.htm 
  63. ^ Twyman, John (1 November 2004) (pdf), (inter)facing the music: The history of the Fairlight Computer Musical Instrument, Unit for the History and Philosophy of Science, University of Sydney, http://www.geosci.usyd.edu.au/users/john/thesis/thesis_web.pdf 
  64. ^ Street, Rita (8 November 2000), “Fairlight: A 25-year long fairytale”, Audio Media magazzine (IMAS Publishing UK), オリジナルの2003-10-08時点によるアーカイブ。, http://web.archive.org/web/20031008201831/http://www.audiomedia.com/archive/features/uk-1000/uk-1000-fairlight/uk-1000-fairlight.htm 
  65. ^ “QASAR M8” (JPG), Computer Music Journal (Fall 1978), http://egrefin.free.fr/images/Fairlight/CMJfall78.jpg 
  66. ^ a b Leider, Colby (2004), “The Development of the Modern DAW”, Digital Audio Workstation, McGraw-Hill, p. 58 
  67. ^ CRUMAR/DKI GDS System & Synergy, Synthony Music, http://www.synthony.com/vintage/dkigds.html 
  68. ^ a b c Chadabe, Joel (1997), Electric Sound, Upper Saddle River, N.J., U.S.A.: Prentice Hall, pp. 177–178, 186, ISBN 978-0-13-303231-4, http://www.pearsonhighered.com/educator/product/Electric-Sound-The-Past-and-Promise-of-Electronic-Music/9780133032314.page 

関連項目[編集]

外部リンク[編集]