音楽を数値化する
Sunoのこと調べてて、そもそも音楽ってどう数値化するんだろう?って思ったんだけど
意外とシンプルで、音楽ってただの「音の高さ」の時系列データらしい
ある瞬間は100Hz、次の瞬間は101Hz、みたいなのを一秒間に440000回(44kHz)とか高密度に記録すると
不思議なことに波の形によってギターの音になったり人の声になったりするらしい
もっと動画(画像の時系列データ)みたいに一瞬ごとの質感みたいなのを別軸で記録してるんだと思ってたけどガチの二次元データ(音の高さ✖️時間)だったのがびっくりだよぃ