Amélioration du sonogramme et ajout explications

This commit is contained in:
Mattéo Delabre 2020-12-18 20:37:44 +01:00
parent 575d9b5992
commit 093a341dd2
Signed by: matteo
GPG Key ID: AE3FBD02DC583ABB
4 changed files with 46 additions and 20 deletions

View File

@ -1,7 +1,26 @@
<!-- vim: set spelllang=fr: -->
# Utilisation dun sonagramme pour retrouver les notes dun enregistrement
# À la recherche des notes originelles
![](fig/synth-single.png)
À partir de lenregistrement numérique dune interprétation musicale, est-il possible de reconnaître la séquence de notes qui a été jouée sur les différents instruments utilisés ?
Cette situation sapparente à celle où lon dispose dune image matricielle rendue à partir dune image vectorielle et où lon souhaite retrouver les vecteurs dorigine dont on ne dispose plus — à la différence que nous traitons ici dun signal 1D au lieu de 2D, et dun signal sonore plutôt que visuel qui plus est.
![](fig/synth-shorttime.png)
## Excursion sinusoïdale
Simplifions dabord le problème en considérant [un signal composé uniquement de sinusoïdes pures](sounds/synth.wav) (produit par le synthétiseur de fortune quest [ce script Python](generate.py)).
Cela facilite doublement la tâche, puisque non seulement le signal est totalement exempt de bruit, mais en plus les instruments convoqués nont quune seule harmonique.
Une première approche consiste à étudier le spectre du signal en utilisant une [transformation de Fourier](https://fr.wikipedia.org/wiki/Transformation_de_Fourier_discrète) (générée par [ce script Python](analyze-single.py)).
![Spectre du son produit par le synthétiseur](fig/synth-single.png)
Ce spectre permet de lire les différentes fréquences qui composent le son étudié.
On y distingue, parmi les fréquences les plus représentées, un *sol₂* (192 Hz), un *do₂* (131 Hz), un *la₂* (220 Hz) et un *la₃* (440 Hz).
Une information cruciale manque, celle de lévolution du signal dans le temps.
Une façon de lobtenir consiste à découper le signal en courtes fenêtres de temps et dappliquer la transformation de Fourier sur les morceaux obtenus : cest [la transformée de Fourier à court terme](https://fr.wikipedia.org/wiki/Transform%C3%A9e_de_Fourier_%C3%A0_court_terme).
On obtient ainsi un [sonagramme](https://fr.wikipedia.org/wiki/Sonagramme) qui montre lévolution des fréquences du signal dans le temps (produit par [ce script Python](analyze-shorttime.py)).
![Évolution dans le temps du spectre du son produit par le synthétiseur](fig/synth-shorttime.png)
Ce sonagramme permet de distinguer clairement les deux parties du morceau, celle jouée par une sinusoïde au dessus de 250 Hz et celle jouée par une onde carrée en dessous de cette fréquence.
On reconnaît également les quatre accords en do majeur joués par la sinusoïde deux fois de suite.
Sur cet exemple simple, la transformée de Fourier à court terme est donc suffisante pour extraire les notes, mais quen est-il dun signal plus complexe ?

View File

@ -17,24 +17,29 @@ output_file = sys.argv[2]
# Calcul du STFT
signal = soundbox.load_signal(source_file)
freq, time, fts = sig.stft(signal, soundbox.samp_rate, nperseg=soundbox.samp_rate * 0.5)
freq, time, vecs = sig.stft(signal, soundbox.samp_rate, nperseg=soundbox.samp_rate * 0.5)
values = np.absolute(vecs)
# Génération du graphe
plt.rcParams.update({
'figure.figsize': (8, 8),
'font.size': 16,
'figure.figsize': (10, 8),
'figure.frameon': True,
'font.size': 20,
'font.family': 'Concourse T4',
})
fig, ax = plt.subplots()
fig, ax = plt.subplots(frameon=True)
ax.tick_params(axis='both', which='major', labelsize=12)
freq_filter = values.max(axis=1) / np.max(values) >= 0.01
x = np.arange(len(values))
ax.pcolormesh(
time, freq,
np.abs(fts),
cmap='plasma',
time, freq[freq_filter], values[freq_filter],
cmap='Greys',
shading='gouraud')
# Configuration des axes
def time_format(value, pos):
return f'{value:.0f} s'
@ -43,14 +48,16 @@ def freq_format(value, pos):
return f'{value:.0f} Hz'
ax.set_xlabel('Temps')
ax.set_xlabel('Temps', labelpad=10)
ax.xaxis.set_major_formatter(matplotlib.ticker.FuncFormatter(time_format))
ax.set_ylabel('Fréquence')
ax.set_ylim(0, 800)
ax.set_ylabel('Fréquence', labelpad=10)
ax.set_yscale('log', base=2)
ax.yaxis.set_major_locator(plt.MultipleLocator(100))
ax.yaxis.set_major_formatter(matplotlib.ticker.FuncFormatter(freq_format))
ax.grid(alpha=.3)
# Rend le résultat
# Rendu du résultat
if output_file == '-':
plt.show()
else:

View File

@ -17,8 +17,8 @@ output_file = sys.argv[2]
# Calcul du FFT
signal = soundbox.load_signal(source_file)
freqs = np.fft.fft(signal)[:soundbox.samp_rate // 2]
values = np.absolute(freqs) / np.max(np.absolute(freqs))
vecs = np.fft.fft(signal)[:soundbox.samp_rate // 2]
values = np.absolute(vecs) / np.max(np.absolute(vecs))
# Génération du graphe
plt.style.use('ggplot')
@ -31,9 +31,9 @@ plt.rcParams.update({
fig, ax = plt.subplots()
ax.tick_params(axis='both', which='major', labelsize=12)
remove = values < 0.01
x = np.arange(len(values))
ax.plot(x[remove == False], values[remove == False])
freq_filter = values >= 0.01
freq = np.arange(len(values))
ax.plot(freq[freq_filter], values[freq_filter])
# Configuration des axes
freq_scale = soundbox.samp_rate / len(signal)

Binary file not shown.

Before

Width:  |  Height:  |  Size: 143 KiB

After

Width:  |  Height:  |  Size: 72 KiB