普段、スマホなどの電話で通話していると「なんか声が違う」と思うことありませんか?
あの別人と喋っている感、実は正解なんです!
電話で聞こえる相手の声は、本人の声ではないようなんです。
それは通話技術や容量が関係しているということなんです。
電話の声は別人の声ってマジ!?

電話で聞こえる声が、実は別人の声だったとしたらどう思いますか?
驚くべきことに、これは事実なのです。
「えっ、マジで?じゃあ、いつも電話で話してる相手の声は誰なの?」
そう思った方も多いのではないでしょうか。
実は、電話で聞こえる声は「コードブック」という電話の声の辞書から選ばれた合成音なのです。
コードブックには数千種類の声が登録されており、その中から話している人の声に最も近いものが選ばれます。
では、なぜこのような仕組みが採用されているのでしょうか。
その理由は、通信量の問題にあります。
世界中で使われている携帯電話の音声をそのまま伝えようとすると、通信量が膨大になってしまうのです。
「へー、そんな理由があったんだ。でも、ちょっと寂しい気もするなぁ」
確かに、少し寂しく感じる方もいるかもしれません。
しかし、この技術のおかげで、私たちは世界中の人々と手軽に会話ができるのです。
この仕組みを「CELP」と呼びます。
そして、そのデータからコードブックに最も近い声を選び出すのです。
「なるほど。だから兄弟の声が電話だと似て聞こえるんだね」
その通りです。
CELPによって、似た声の人には同じ種類の声が選ばれる可能性が高いのです。
この事実を知って、電話での会話がより興味深いものに感じられませんか?
電話の声は本人じゃない!?スマホ通話は誰の声?

電話の声が本人の声ではないのはわかりましたが、中でも「スマホ通話」がより別人に聞こえるという意見を耳にします。
実は、あなたの感覚は正しいのです。
KDDI総合研究所の堀内俊治さんによると、スマートフォンの通話では、実際の声ではなく、合成音声が使われているそうです。
――ネットなどで「スマホで聞こえる声は、本当の相手の声ではない」という説がしばしば話題になりますが、本当のことなんでしょうか?
堀内「実は本当なんです。ただそれを理解するには、「人はどのように声を出しているのか」という仕組みを知っておく必要があります。
引用:KDDI
「えっ、じゃあ私が聞いてるのは誰の声なの?」
そう驚く方も多いでしょう。
しかし、安心してください。
その合成音声は、限りなく本人の声に近いものなのです。
堀内さんは、これを「スマートフォンがモノマネした声」と表現しています。
「モノマネ?まるで人間みたいだね」
確かに、そう感じる方も多いかもしれません。
では、なぜスマートフォンはこのような「モノマネ」をするのでしょうか?
その理由は、通信技術の仕組みにあります。
固定電話では、声そのものの波形を相手に届けています。
一方、スマートフォンや携帯電話では、声の作り方の情報を届けているのです。
「へぇ、そんな違いがあったんだ。でも、どうやってその声を作ってるの?」
その疑問にお答えしましょう。
スマートフォンには「音声コーデック」というプログラムが内蔵されています。
このプログラムには、声の分析方法と作り方が収められており、非常に多くのパターンの声を作ることができます。
スマートフォンに入力された声を分析し、似た声のパターンを組み合わせて合成音声を作るのです。
「すごい技術だね。でも、なんでそんな面倒なことするの?」
その理由は、通信資源の効率的な利用にあります。
合成音声の作り方の情報だけを送ることで、届けるデータ量を少なくできるのです。
これは、限られた電波を有効に使うための工夫なのです。
「なるほど。でも、やっぱり本物の声じゃないって知るとちょっと寂しいな」
そう感じる方もいるかもしれません。
しかし、堀内さんによれば、この合成音声は本人の声とほぼそっくりだそうです。
違いを感じるとすれば、それはスピーカーやイヤホンを通して聞くからかもしれません。
「じゃあ、普段の会話とそんなに変わらないってこと?」
その通りです。
技術の進歩により、私たちは高品質な通話を楽しむことができるのです。
この事実を知って、次にスマートフォンで通話するとき、どんな風に感じるでしょうか。
きっと、新しい発見があるはずです。
電話の声が本人と違う理由は?
電話で聞こえる声が本人と少し違うと感じる理由。
実は、これには科学的な理由があるのです。
「えっ、そうなの?てっきり気のせいだと思ってた」
多くの人がそう感じているかもしれません。
しかし、この違和感には明確な理由があります。
その主な原因は、電話の仕組みにあります。
電話、特に携帯電話やスマートフォンでは、音声を圧縮して送信しています。
「圧縮?写真とかの圧縮と同じってこと?」
そうですね、似たような原理です。
音声を圧縮することで、限られた通信帯域でも効率よく情報を送ることができるのです。
しかし、この圧縮の過程で、音声の一部の情報が失われてしまいます。
「へぇ、そうなんだ。でも、それだけじゃないよね?」
鋭い指摘ですね〜!
実は、もう一つ大きな理由があります。
それは、私たちが普段聞いている自分の声と、録音された自分の声の違いです。
「あー、確かに録音された自分の声って違和感あるよね」
多くの人がそう感じるはず!
これは、私たちが普段自分の声を聞く際の特殊な状況が関係しています。
私たちは、自分の声を外耳だけでなく、頭蓋骨を通しても聞いているのです。
頭蓋骨を通した音は低音が強調されるため、実際の声よりも低く聞こえます。
「なるほど。だから録音された声は高く感じるんだね」
その通りです。
電話では、この頭蓋骨を通した音が含まれないため、本人が思っている声とは違って聞こえるのです。
さらに、電話では周波数帯域が制限されています。
人間の可聴域は約20Hz〜20,000Hzですが、電話では300Hz〜3,400Hz程度しか伝送されません。
「えっ、そんなに狭いの?」
そうなんです。
この帯域制限により、声の細かいニュアンスが失われてしまうのです。
「じゃあ、電話で聞こえる声って、かなり加工されてるってこと?」
その表現は少し極端かもしれませんが、確かに原音とは異なります。
しかし、この技術のおかげで、私たちは世界中の人々と手軽に会話ができるのです。
技術の進歩により、今後はさらに高品質な音声通話が可能になるかもしれませんね。
コメント