コンテンツにスキップ

音声分析

出典: フリー百科事典『ウィキペディア(Wikipedia)』

これはこのページの過去の版です。Anakabot (会話 | 投稿記録) による 2022年11月18日 (金) 05:24個人設定で未設定ならUTC)時点の版 (セクションリンク修正)であり、現在の版とは大きく異なる場合があります。

音声分析(おんせいぶんせき、: speech analysis)は音声特徴量へ変換・表現することである[注 1]

概要

音声とは人の喉から言語として発せられた振動である。最も単純な表現として音声は波、すなわち振幅の時間変動で表される。一方で波には様々な表現が存在する。例えばフーリエ変換を介して周波数表現でも等価に表現できるし、STFTによりスペクトログラムとしても表現できる。このように波である音声を分析し異なる表現へ変換することを音声分析という。

音声分析により得られる音響特徴量にはスペクトログラム、基本周波数などが挙げられる。これらの音響特徴量は音声認識音声合成の入力として利用される。

音響特徴量

音声分析で得られる特徴量音響特徴量: acoustic feature, speech representation)と呼ばれる。音響特徴量は専門家の手による特徴量エンジニアリングで考案されたり、機械学習を利用した表現学習によって得られる。特徴量の良さはその用途により異なる。以下は音響特徴量の例である。

手法

フーリエ変換に基づく周波数解析がしばしば利用される。これによりスペクトルやスペクトログラムが得られ、また更なる分析によってfoフォルマントの経時変化が得られる。

また、音声波形について、DCT変換を用いて直接数値化する事も行われている。これを更にパターンに当てはめる事で伝送用に特化させたものが音声圧縮アルゴリズムのCELPであり、この数値の相関性を基にして、特定の人物の音声を合成することも可能である。

Acoustic Unit Discovery

機械学習によりAcoustic Unit (AU) を得ることをAcoustic Unit Discovery; AUD という。典型的なAUDでは教師なし学習を用い、音声信号に繰り返し現れる単位(= AU)を抽出できるようモデルを学習する。学習方法やモデルによりAUがもつ特性は異なる(例: 音素に似た話者独立な特徴量、話者性を持つフォルマント的な特徴量)。AUは音声合成(unit-to-speech, speech resynthesis)や言語モデル(例: GSLM)に利用される。用途によりAUに求められる特性は異なる。

以下は具体的な手法の一例である。

  • 教師なし学習[注 2]
    • 再構成ベース: VQ-VAE-WaveNet
    • 自己教師あり学習ベース: CPC, wav2vec 2.0, HuBERT
  • ASRモデル

注釈

  1. ^ "音声分析合成システムは、音声の特徴を活用し、音声をパラメータとして表現する分析法、 および パラメータから合成する方法をまとめた方式を指す。" [1]
  2. ^ "Studies on unsupervised speech representation learning can roughly be divided into reconstruction and self-supervised learning methods." [2]

出典

  1. ^ 森勢. (2018). 音声分析合成. コロナ社. p.53.
  2. ^ Polyak, et al. (2021). Speech Resynthesis from Discrete Disentangled Self-Supervised Representations.

関連項目