diff --git a/README.md b/README.md index 8d6c63d..e356f9e 100644 --- a/README.md +++ b/README.md @@ -1,7 +1,26 @@ -# Utilisation d’un sonagramme pour retrouver les notes d’un enregistrement +# À la recherche des notes originelles -![](fig/synth-single.png) +À partir de l’enregistrement numérique d’une interprétation musicale, est-il possible de reconnaître la séquence de notes qui a été jouée sur les différents instruments utilisés ? +Cette situation s’apparente à celle où l’on dispose d’une image matricielle rendue à partir d’une image vectorielle et où l’on souhaite retrouver les vecteurs d’origine dont on ne dispose plus — à la différence que nous traitons ici d’un signal 1D au lieu de 2D, et d’un signal sonore plutôt que visuel qui plus est. -![](fig/synth-shorttime.png) +## Excursion sinusoïdale + +Simplifions d’abord le problème en considérant [un signal composé uniquement de sinusoïdes pures](sounds/synth.wav) (produit par le synthétiseur de fortune qu’est [ce script Python](generate.py)). +Cela facilite doublement la tâche, puisque non seulement le signal est totalement exempt de bruit, mais en plus les instruments convoqués n’ont qu’une seule harmonique. +Une première approche consiste à étudier le spectre du signal en utilisant une [transformation de Fourier](https://fr.wikipedia.org/wiki/Transformation_de_Fourier_discrète) (générée par [ce script Python](analyze-single.py)). + +![Spectre du son produit par le synthétiseur](fig/synth-single.png) + +Ce spectre permet de lire les différentes fréquences qui composent le son étudié. +On y distingue, parmi les fréquences les plus représentées, un *sol₂* (192 Hz), un *do₂* (131 Hz), un *la₂* (220 Hz) et un *la₃* (440 Hz). +Une information cruciale manque, celle de l’évolution du signal dans le temps. +Une façon de l’obtenir consiste à découper le signal en courtes fenêtres de temps et d’appliquer la transformation de Fourier sur les morceaux obtenus : c’est [la transformée de Fourier à court terme](https://fr.wikipedia.org/wiki/Transform%C3%A9e_de_Fourier_%C3%A0_court_terme). +On obtient ainsi un [sonagramme](https://fr.wikipedia.org/wiki/Sonagramme) qui montre l’évolution des fréquences du signal dans le temps (produit par [ce script Python](analyze-shorttime.py)). + +![Évolution dans le temps du spectre du son produit par le synthétiseur](fig/synth-shorttime.png) + +Ce sonagramme permet de distinguer clairement les deux parties du morceau, celle jouée par une sinusoïde au dessus de 250 Hz et celle jouée par une onde carrée en dessous de cette fréquence. +On reconnaît également les quatre accords en do majeur joués par la sinusoïde deux fois de suite. +Sur cet exemple simple, la transformée de Fourier à court terme est donc suffisante pour extraire les notes, mais qu’en est-il d’un signal plus complexe ? diff --git a/analyze-shorttime.py b/analyze-shorttime.py index bd1514b..dc5f47f 100644 --- a/analyze-shorttime.py +++ b/analyze-shorttime.py @@ -17,24 +17,29 @@ output_file = sys.argv[2] # Calcul du STFT signal = soundbox.load_signal(source_file) -freq, time, fts = sig.stft(signal, soundbox.samp_rate, nperseg=soundbox.samp_rate * 0.5) +freq, time, vecs = sig.stft(signal, soundbox.samp_rate, nperseg=soundbox.samp_rate * 0.5) +values = np.absolute(vecs) # Génération du graphe plt.rcParams.update({ - 'figure.figsize': (8, 8), - 'font.size': 16, + 'figure.figsize': (10, 8), + 'figure.frameon': True, + 'font.size': 20, 'font.family': 'Concourse T4', }) -fig, ax = plt.subplots() +fig, ax = plt.subplots(frameon=True) ax.tick_params(axis='both', which='major', labelsize=12) + +freq_filter = values.max(axis=1) / np.max(values) >= 0.01 +x = np.arange(len(values)) + ax.pcolormesh( - time, freq, - np.abs(fts), - cmap='plasma', + time, freq[freq_filter], values[freq_filter], + cmap='Greys', shading='gouraud') - +# Configuration des axes def time_format(value, pos): return f'{value:.0f} s' @@ -43,14 +48,16 @@ def freq_format(value, pos): return f'{value:.0f} Hz' -ax.set_xlabel('Temps') +ax.set_xlabel('Temps', labelpad=10) ax.xaxis.set_major_formatter(matplotlib.ticker.FuncFormatter(time_format)) -ax.set_ylabel('Fréquence') -ax.set_ylim(0, 800) +ax.set_ylabel('Fréquence', labelpad=10) +ax.set_yscale('log', base=2) +ax.yaxis.set_major_locator(plt.MultipleLocator(100)) ax.yaxis.set_major_formatter(matplotlib.ticker.FuncFormatter(freq_format)) +ax.grid(alpha=.3) -# Rend le résultat +# Rendu du résultat if output_file == '-': plt.show() else: diff --git a/analyze-single.py b/analyze-single.py index 5e205a8..170bf64 100644 --- a/analyze-single.py +++ b/analyze-single.py @@ -17,8 +17,8 @@ output_file = sys.argv[2] # Calcul du FFT signal = soundbox.load_signal(source_file) -freqs = np.fft.fft(signal)[:soundbox.samp_rate // 2] -values = np.absolute(freqs) / np.max(np.absolute(freqs)) +vecs = np.fft.fft(signal)[:soundbox.samp_rate // 2] +values = np.absolute(vecs) / np.max(np.absolute(vecs)) # Génération du graphe plt.style.use('ggplot') @@ -31,9 +31,9 @@ plt.rcParams.update({ fig, ax = plt.subplots() ax.tick_params(axis='both', which='major', labelsize=12) -remove = values < 0.01 -x = np.arange(len(values)) -ax.plot(x[remove == False], values[remove == False]) +freq_filter = values >= 0.01 +freq = np.arange(len(values)) +ax.plot(freq[freq_filter], values[freq_filter]) # Configuration des axes freq_scale = soundbox.samp_rate / len(signal) diff --git a/fig/synth-shorttime.png b/fig/synth-shorttime.png index ac809d7..94243d5 100644 Binary files a/fig/synth-shorttime.png and b/fig/synth-shorttime.png differ