ICMC 2000

(Verschenen in Music Maker, november 2000)

@ Rutger Teunissen

 

 

 

De ICMC is 's werelds grootste en belangrijkste conferentie op het gebied van muziektechnologie. Veel van wat over vijf of tien jaar op de Beurzen als hapklare producten te bewonderen zal zijn, wordt nu reeds op de ICMC aangebraden en voorgeproefd.

 

In 1983 ontstond er in de internationale muziekvakpers grote opwinding over een nieuw soort synthesizer die niet alleen de primeur had volledig digitaal te zijn, maar die tevens een klankopwekkingstechniek introduceerde die volledig afweek van de (filter)technieken die tot dan toe altijd in synthesizers waren toegepast. Die synthesizer was Yamaha's DX7 en de revolutionaire techniek heette Frequentie Modulatie (FM). De DX7 werd een uitzonderlijk succes. Maar het opmerkelijke aan al dat "nieuws" over FM in de muziekbladen was nog wel dat het helemaal niets nieuws betrof. Al acht jaar eerder, in 1975, had Yamaha patenten aangekocht van een onderzoeker aan de Stanford universiteit, John Chowning, die twee jaar daarvoor in een toen al wereldwijd stukgelezen artikel had laten zien hoe door middel van FM zeer realistisch klinkende imitaties van gongen, bellen, tokkel- en koperblaasinstrumenten gemaakt kunnen worden. De FM-synthesetechniek behoorde dus al zo'n 10 jaar tot de inventaris van de synthesizermuziek voordat er, alleen al door de DX7, meer dan een miljard dollar omzet mee zou worden gedraaid.

Het begrip "nieuws" is dus nogal betrekkelijk: het gaat er niet zozeer om of iets nieuws is, maar eerder: waar. Ga je naar de NAMM-show, de Frankfurter Messe, de Music Expo, dan krijg je een goed beeld van "hapklare" producten. Zowel voor de muzikant als voor de vakhandel levert een beurs dus relevante, concrete informatie op.

Maar als je verder dan één seizoen of één jaar vooruit wilt kijken, dan zou je vooral ook de ontwikkelingen op de vele onderzoekscentra en universitaire instituten moeten volgen. Een mooie gelegenheid daartoe doet zich jaarlijks in begin september voor. Dan vindt de ICMC (International Computer Music Conference) plaats, de grootste en belangrijkste conferentie op het gebied van muziektechnologie. Dit jaar werd de conferentie in Berlijn gehouden, in de 'Stabi', zoals de Berlijners de kolossale Staatsbibliothek, vlakbij het gloednieuwe regeringscentrum, noemen. In vijf dagen tijd worden zo'n 130 lezingen en vele demo's, poster sessions, studio reports en paneldiscussies gehouden, waaraan in totaal zo'n vijfhonderd, uit alle delen van de wereld afkomstige vertegenwoordigers van onderzoeksinstituten op het gebied van muziek- en audiotechnologie, informatica, DSP en cognitiewetenschappen deelnemen.

De lezingen zijn ondergebracht in 17 niet altijd even scherp afgebakende categorieën, waaronder Physical Modeling, Klanksynthese, DSP, Interactieve Systemen, Compositieprogramma's, Klankverruimtelijking en wat genoemd wordt Music Information Retrieval, waarover verderop meer. De ICMC bestrijkt dus zeer uiteenlopende vakgebieden, en er is natuurlijk geen mens die ze allemaal beheerst, zoals er ook geen mens in staat is om in vijf dagen 130 lezingen te volgen. Daarom is het programma opgedeeld in twee parallelle conferenties die in twee verschillende zalen plaatsvinden.

In dit verhaal kunnen we uiteraard niet meer doen dan uit deze gigantische pot enkele krenten halen en proberen om tenminste de belangrijkste ontwikkelingen op het gebied van Physical Modeling, klanksynthese en Information Retrieval aan te geven.

 

Snaren van beton

Als je onder een digitale gitaar (zie kader: 'Wanneer komt de Digitale Gitaar?') niets anders verstaat dan een computerprogramma dat de klank van bijvoorbeeld een akoestische gitaar natuurgetrouw kan nabootsen en het instrument zo kan laten klinken dat het lijkt alsof het door een echte gitarist bespeeld wordt, dan mag je gerust stellen dat de digitale gitaar inmiddels een feit is. Tijdens de ICMC presenteerden onderzoekers van het Centrum voor Muziek en Technologie in Helsinki er een die, op 't eerste gehoor, via de boxen in de zaal, verbluffend realistisch klonk.

Deze 'virtuele', akoestische gitaar is een voorbeeld van een synthesetechniek die bekend staat onder de naam Physical Modeling (natuurkundig modelleren). Daarbij wordt ervan uitgegaan dat je de klank van een muziekinstrument het best kunt benaderen door het instrument zelf zo gedetailleerd mogelijk 'digitaal' na te bouwen. Dat wil zeggen dat je het trillingsgedrag van elk onderdeel van het instrument onderzoekt en dat samen met de wijze waarop al die trillende delen elkaar onderling beïnvloeden probeert te beschrijven in de vorm van wiskundige formules. Die stop je vervolgens in de computer en rekent, sample voor sample, uit hoe het instrument zal gaan trillen wanneer je het zus of zo zou bespelen.

Ook deze ICMC toonde aan dat Physical Modeling een bloeiend onderzoeksgebied is waarin veel vorderingen worden gemaakt. Hoe een snaar trilt, of hoe de lucht in de buis van een blaasinstrument heen en weer wordt geslingerd, weten ze onderhand wel. Daarvoor bestaan inmiddels enkele succesvolle modellen, zoals de Waveguide (een toepassing van een Waveguide kan ook grafisch zijn en is te zien in Figuur 1 van Afl. 10 in de DSP-serie, waar een ‘filmpje’ van een trillende snaar te zien is). Ook de koppeling van zo'n Waveguide aan een resonator, zoals de klankkast van een gitaar, is al lang gesneden koek. Er zijn dus heel acceptabel klinkende modellen van een akoestische gitaar mogelijk. Maar hoe het riet van een saxofoon precies trilt, of wat er gebeurt als een pianohamer tegen de snaar slaat, of hoe die typische klank ontstaat wanneer je een strijkstok met een krachtige, hakkende beweging op de snaar laat neerkomen, dat zijn allemaal veel ingewikkelder zaken, waarvan in Berlijn nieuwe benaderingen en modellen werden gepresenteerd. Daar komt heel wat experimenteel onderzoek bij kijken: Figuur 1 toont schematisch een proefopstelling waarin een snaar met een hamer wordt aangeslagen, waarbij een Laser de uitwijking van de snaar heel precies volgt.

Een van de vele aantrekkelijkheden van Physical Modeling is het gegeven dat je de akoestisch-instrumentale modellen gemakkelijk kunt laten overgaan in virtuele instrumenten die weliswaar 'onwerkelijk' zijn en dus nooit gebouwd zouden kunnen worden, maar die niettemin altijd klinken volgens akoestische wetten en dus tegelijkertijd bizar, fantastisch en toch heel 'natuurlijk' aandoen. Bijvoorbeeld snaren die al trillend dikker worden of klankkasten die als luchtballonnen opzwellen. Zo was er een presentatie van een model waarin de vorm en het materiaal van een instrument volledig onafhankelijke (software)modules zijn. Eerst wordt van allerlei materialen de zogenaamde "klank-handtekening" (Sound Signature) vastgesteld en die wordt vervolgens gekoppeld aan een of andere instrumentvorm. Dat kan dan bijvoorbeeld leiden tot een trompet van diamant, betonnen snaren, of een trommelvel van bevroren motorolie.

 

Scanned Synthesis: nieuwe Hype voor DJ's?

Op het beeldscherm van de computer zie je een kralenketting. En via de luidspreker klinkt een doodse, elektronische toon. Geef nu door middel van Midi of een touchpad een ‘tik’ tegen de ketting, zodat die als een slang begint te kronkelen. Tegelijkertijd begint de toon continu van timbre te veranderen en krijgt daarmee de levendigheid van een akoestisch instrument. De golfbeweging in de ketting dempt geleidelijk uit. En het timbre van de toon wordt geleidelijk weer constant. Totdat je de ketting weer een nieuwe tik geeft.

Dit is de eenvoudigst denkbare vorm van een klankopwekkingstechniek die op de ICMC een wereldpremière beleefde en die de geschiedenis zal ingaan onder de naam Scanned Synthesis, schematisch weergegeven in Figuur 2.

Het is de verrassende combinatie van twee bekende ideeën. Het ene is dat van de Waveguide (zie: Snaren van Beton) waarmee je de ketting kunt laten kronkelen. Het andere idee wordt al vele jaren toegepast in samplers, namelijk de Wavetable: een rij samplegetallen die samen een ‘loop’ vormen. De sampler holt voortdurend van voor naar achter door de Wavetable heen, waarbij telkens één periode van de toon wordt geproduceerd. Dat levert het bekende, statische en dus oersaaie 'loop-geluid' op. Bij Scanned Synthesis wordt de hoogtepositie van elke kraal in de ketting gerepresenteerd door een sample in de Wavetable. Het verschil met de sampler zit ‘m hierin dat de kralensnoer op allerlei manieren kan rollen en kronkelen, afhankelijk van de bespeler. Die beweging wordt voortdurend ‘gescanned’, zodat er voor elke trillingsperiode weer iets andere samplegetallen in de Wavetable staan. Vandaar ook die continue verandering van timbre en de levendige 'akoestische' toon. Simpel, maar muzikaal heel doeltreffend.

Scanned synthesis is gemakkelijk uit te breiden tot zeer complexe, twee- zelfs driedimensionale netwerken van kralen die overeenkomstig complexe timbrestructuren veroorzaken. In Figuur 3 is het schema van een 2D-ketting met vier kralen (bolletjes) te zien en de wijze waarop ze onderling kunnen bewegen.

Bovendien kun je met deze techniek ook FM en granulaire synthese aansturen (Zie DSP-serie Afl. 4) of er Midi-Control mee uitvoeren.

De presentatie maakte weer eens duidelijk dat je de muzikale betekenis van een nieuwe klanksynthesetechniek nooit kunt afmeten aan een paar voortrollende timbreveranderingen. Gelukkig had een van de ontwikkelaars een muzikaal zeer getalenteerde student op z’n instituut rondlopen, die een compositie had gemaakt met Scanned Synthesis. Klonk erg indrukwekkend. Daardoor rees bij sommigen het vermoeden dat deze nieuwe synthesetechniek wel eens erg populair zou kunnen worden onder DJ’s.

 

Elvis lacht, Elvis huilt

Dat muzikale klanken waanzinnig complex en moeilijk na te maken zijn wordt direct duidelijk als je naar computerimitaties van akoestische instrumenten luistert, ook al zijn die imitaties vaak fantastisch, zoals die van Physical Modeling. Die waanzinnige complexiteit is echter niet alleen een eigenschap van klanken, maar ook van het muziek maken en naar muziek luisteren. Ook daar kom je snel achter als je probeert om die typisch menselijke bezigheden door een computer te laten uitvoeren. Daarom snijdt het mes in de muziekinformatica aan twee kanten: het biedt niet alleen een nieuwe kijk op muziek, maar ook op allerlei psychologische processen die zich afspelen bij het maken en beleven van muziek. Het raakvlak tussen informatica en psychologie is in tien jaar tijd zo breed geworden dat er een nieuwe tak van wetenschap uit is voortgevloeid: de cognitiewetenschap. Daarin wordt onderzocht wat kennis nu eigenlijk is, hoe waarnemings- en leerprocessen in elkaar zitten en hoe je die in computerprogramma's kunt simuleren. De trend in de huidige muzieksoftware gaat onmiskenbaar in de richting van de cognitiewetenschap en dat krijgt gestalte in allerlei cyberachtige software die op een of andere manier kan 'luisteren' naar muziek en daar dan allerlei zinvolle, specifieke informatie uithalen. Enkele voorbeelden.

Onderzoekers van de technische universiteit van Tokio demonstreerden een Internetapplicatie die in staat was om op basis van een zangopname binnen een seconde de naam van een liedje op te vissen uit een lijst van 10.000 songs. Het enige wat de gebruiker moet doen is via de microfoon van de PC enkele tonen van het liedje neuriën, vanaf een willekeurige maat, op willekeurige toonhoogte en in een willekeurig tempo.

Op de universiteit van Baltimore werd een programma ontwikkeld dat in realtime het timbre van 39 instrumenten kan herkennen met een trefzekerheid die minstens zo goed is als die van ervaren muzikanten.

Medewerkers van de universiteit van Barcelona demonstreerden een bijzonder karaoke-programma (gesponsord door Yamaha). Al zingend kun je je stem in elke gewenste mate laten overvloeien ('morphing') in die van je favoriete zanger(es), terwijl je toch zelf zowel het tempo als het zangvolume volledig controleert. Het programma heeft een erg amusante vorm van feedback, want terwijl je staat te zingen word je in de gaten gehouden door een bekjes trekkende, Elvis-achtige stripfiguur op het scherm van de PC, wiens humeur razendsnel kan omslaan als je eerst heel goed en dan heel slecht zingt (Zie Figuur 4).

Er wordt gewerkt aan een versie waarin je tegelijkertijd kunt morfen naar meerdere stemmen, bijvoorbeeld naar een Sinatra met de gruizelige stembanden van Tom Waits.

 

Slimme Filters

Geluidsignalen samenvoegen doe je met een mixer, zoals elke zuigeling weet. Maar ze vanuit die mix weer van elkaar scheiden is een heel ander verhaal. Je kunt gerust stellen dat het apparaat dat daartoe in staat is nog uitgevonden moet worden. En dat doet toch een beetje vreemd aan als je bedenkt dat je op een caféterras zonder veel moeite een van de vele gesprekken om je heen kunt uitselecteren en volgen, terwijl je de andere op een of andere manier wegfiltert. Ook dit is dus weer zo'n cognitief probleem: hoe spelen je hersenen dat klaar? En kun je die vaardigheid ooit in een computer stoppen?

De meest beruchte en ongewenste mix in de muziek is ongetwijfeld de met ruis verontreinigde opname. De ruisonderdrukkers die tot nu toe worden gebruikt zijn echte paardenmiddelen, want ze onderdrukken niet alleen de ruis, maar altijd ook het eigenlijke signaal. Ze kunnen immers niet onderscheiden wat ruis is en wat niet. Een filter dat dit tot op zekere hoogte wèl kan is het zogenaamde Kalmanfilter, dat in de jaren '60 bekendheid kreeg door de toepassing in het navigatiesysteem van de Apollo 11. Het Kalmanfilter is heel geschikt voor implementatie in een computerprogramma; het is geen statisch, maar een adaptief filter dat op basis van het inputsignaal zijn filtereigenschappen voortdurend aanpast en daar dan de ruis grotendeels uit weet weg te poetsen. Op de ICMC demonstreerden onderzoekers uit Padua hoe een aangepaste versie van het Kalmanfilter niet alleen ruis maar ook rumble en kliks uit een signaal sterk kan onderdrukken.

Het Kalmanfilter kun je dus overal inzetten waar het gaat om "zuivere" meetgegevens die "verontreinigd" zijn door iets. Een heel spitsvondige en zinvolle toepassing van dit basisidee werd op de ICMC gepresenteerd door onderzoekers van de Nijmeegse universiteit (zie www.nici.kun.nl), een toepassing waarmee een zeer effectieve tempo tracker kan worden gerealiseerd. Zoals bekend speelt een drumcomputer perfect - en dus zeer onmuzikaal en onmenselijk - in de maat. En het klinkt misschien een beetje vreemd, maar als je juist die menselijke, muzikale timing beschouwt als de "veronreiniging" van de machinale dreun die een drumapparaat genereert en je laat daar een Kalmanfilter op los, dan heb je een prachtmethode om het tempo en de tempowisselingen in een muzikale voordracht te bepalen. Heel interessant voor sequencers en muzieknotatieprogramma's. Dit Nederlandse onderzoek won op de ICMC dan ook de "Distinguished Paper Award".

Maar hoe zit het nu met dat scheiden van verschillende signalen in een mix? Ook daar worden grote vorderingen gemaakt. Een medewerker van Mitsubishi Electric Research Labs stelde een nieuwe methode voor, Independent Subspace Analysis, waarmee een zeer aanzienlijke scheiding van bronnen in een audiosignaal mogelijk wordt.

In de figuur hierboven is te zien hoe uit een mix van verschillende percussie-instrumenten de Bass Drum, de Snare Drum en de Cow Bell van elkaar worden gescheiden. Deze demonstratie vormde een van de hoogtepunten van de ICMC.