You are on page 1of 14

EIMAS 2010

Instrumentos acústicos e meios eletrônicos em tempo real:


estratégias de improvisação coletiva

Daniel Luís Barreiro


Universidade Federal de Uberlândia

Cesar Adriano Traldi


Universidade Federal de Uberlândia

Celso Luiz de Araujo Cintra


Universidade Federal de Uberlândia

Carlos Roberto Ferreira de Menezes Júnior


Universidade Federal de Uberlândia

Resumo: Este artigo aborda a prática da improvisação coletiva com instrumentos acústicos e meios eletrônicos em
tempo real no contexto das experiências do MAMUT - Grupo de Música Aberta da UFU, relacionadas à pesquisa
"Composição e improvisação musical com recursos eletroacústicos em tempo real", financiada pela FAPEMIG. Após
traçar um histórico das propostas de indeterminação e aleatoriedade em música, discutimos a prática da livre
improvisação através de um relato sobre as atividades do grupo e uma menção aos próximos passos da pesquisa.

Palavras-chave: livre improvisação coletiva; interatividade; meios eletracústicos em tempo real; práticas interpretativas
mediadas.

1. Introdução

Os dispositivos eletrônicos não foram inventados para aplicações musicais, mas sua utilização
levaria a mutações que poderiam engendrar soluções inovadoras (BOULEZ, 1977). O
desenvolvimento da capacidade de processamento dos computadores no final do século XX
incrementou as possibilidades de interação em tempo real entre meios sonoros acústicos e
eletrônicos, constituindo uma das principais linhas de composição e interpretação musical do início
do século XXI. A utilização de dispositivos tecnológicos cria novos paradigmas na composição e
interpretação musical nos quais computação musical e os processos composicionais voltados à
interatividade se entrelaçam. Wanderley (2006) aponta que é nesse momento que surgem algumas
questões: “como utilizar esta capacidade de geração sonora em tempo real? Ou, como tocar um
computador?”. Assim, são necessários esforços de pesquisa que levem compositores e intérpretes a
integrarem tais processos ao seu conhecimento e à sua prática musical.
Esse artigo apresenta algumas das estratégias que estão sendo estudadas e desenvolvidas no Núcleo
de Música e Tecnologia (NUMUT) da Universidade Federal de Uberlândia. Dentro do NUMUT foi
criado o MAMUT - Grupo de Música Aberta da UFU, cujo objetivo é a prática e divulgação de
músicas que utilizem interação entre o acústico e o eletrônico, com ênfase na livre improvisação
coletiva com diferentes formações instrumentais. Através da realização de oficinas de improvisação
livre, o grupo tem buscado desenvolver estratégias de utilização e interação de instrumentos
acústicos e dispositivos tecnológicos. Num trabalho anterior (BARREIRO, 2009), foram
apresentadas algumas diretrizes para as atividades do grupo. O presente trabalho aprofunda algumas
questões de embasamento teórico, apresenta alguns resultados obtidos nas oficinas e aponta
desafios futuros a serem perseguidos pelo grupo.

2. Propostas de indeterminação e aleatoriedade em música

Podemos considerar 1951 como um ano chave para a progressiva diminuição do controle do
resultado sonoro da música pelo compositor. São deste ano duas peças que possuem mais em
comum do que possa parecer à primeira vista: Music of Changes (piano), de John Cage, e Structures
1a (dois pianos), de Pierre Boulez. Enquanto a última é baseada no serialismo integral, cuja
disciplina rigorosa muitas vezes fazia o compositor se sentir tolhido, a música de Cage foi escrita
tomando-se como base lances ao acaso utilizando o I-Ching, um completo abandono das decisões
pessoais.
Cage buscava suprimir as influências do gosto e da subjetividade, enquanto Boulez procurava
eliminar a influência do passado para que uma nova música pudesse se desenvolver. Ambos
deixavam que o sistema criado guiasse, em maior ou menor grau, suas decisões a respeito do
resultado final. No entanto, ambas apresentam uma partitura finalizada que o intérprete deve
executar fielmente. Ainda assim, embora exista esta semelhança entre o resultado final da obra –
uma partitura escrita – encontramos na peça de Cage uma maior abertura aos resultados
imprevistos, transformando, como dizia o próprio Cage a respeito da música de Morton Feldman, a
responsabilidade do compositor, de forma que não seja mais aquela de criar e sim a de aceitar
(CAGE, 1961, p.129). Outra música de Cage, deste mesmo ano, que também foi criada utilizando o
I-Ching e que também possui uma partitura fixa com instruções precisas é Imaginary Landscape
n.4. Seu resultado sonoro, porém, é completamente diverso. Cage escreveu para doze rádios, cada
um operado por duas pessoas, uma controlando o volume e outra controlando a sintonia, deste
modo a cada execução da obra temos um resultado sonoro completamente diferente e inesperado,
pois depende daquilo que está sendo transmitido pelas estações naquele momento.
Em 1958, em Variations n.1 Cage proporciona uma maior indeterminação na partitura, permitindo
ao intérprete definir, por meio de decisões próprias, diretrizes diferenciadas para cada interpretação.
São seis folhas transparentes, uma com pontos de tamanho diferentes espalhados pela página e
outras cinco com retas dispostas aleatoriamente. Ao sobrepor estas folhas e definir parâmetros
musicais a cada reta e ponto, o intérprete acaba tendo uma maior liberdade em sua interpretação,
ainda que direcionada pelas instruções do compositor.
Com respeito à música indeterminada propriamente dita, em sua conferência Indeterminacy de
1958, Cage as diferencia daquelas que utilizam operações ao acaso. Enquanto o acaso utiliza algum
procedimento aleatório no ato da composição, uma música indeterminada é aquela que permite
resultados substancialmente diferentes a cada interpretação. Encontramos muitos exemplos de
música indeterminada no grupo que convencionou-se chamar Escola de Nova Iorque, formado por
Cage, Morton Feldman, Christian Wolff e Earle Brown; embora este tipo de composição também
tenha sido realizado por compositores europeus. Uma característica comum às obras indeterminadas
é que sua notação guarda algum tipo de semelhança com a partitura tradicional, ainda que muitas
vezes não se assemelhe na aparência. Tais semelhanças encontram-se num nível conceitual,
especialmente no que diz respeito às divisões dos parâmetros sonoros, tais como altura, duração e
intensidade, e à relação convencionada estabelecida entre estes parâmetros e sua representação
gráfica. Tal característica as diferencia das músicas com partituras gráficas propriamente ditas, em
que as relações entre desenho e resultado sonoro não são indicadas previamente pelo compositor,
mas são deixadas inteiramente a cargo do intérprete, muitas vezes para serem decididas no
momento da própria interpretação. No entanto, tais aberturas, deixadas pelo compositor ao
intérprete nas músicas indeterminadas, muitas vezes não são consideradas tão amplas por alguns
autores, são mesmo consideradas restritivas, uma vez que o compositor define instruções precisas
para a aparente liberdade, o que faz com que a diferença entre a abertura interpretativa da música
tradicional e esta não seja de grau de liberdade e sim de natureza, ou de qualidade, da abertura.
Trata-se apenas de uma nova forma de abordar a escrita ou notação musical e não de uma forma
mais aberta de abordagem, o que a tornaria completamente diferente da improvisação livre, por
exemplo (COSTA, 2009).
Por isso, muitas vezes partituras gráficas são usadas para a improvisação livre, como por
exemplo Treatise (1963-7) de Cornelius Cardew. Nesta partitura temos apenas desenhos que se
sucedem, alguns lembram pentagramas e/ou notas musicais, porém outros são bastante abstratos.
Cabe ao intérprete decidir o que fazer com cada grafismo, uma vez que Cardew não fez acompanhar
desta partitura nenhuma bula e nem qualquer tipo de instruções para sua execução (só alguns anos
depois Cardew publicou o Treatise Handbook com sugestões de instruções para a execução
de Treatise, já que não havia ficado satisfeito com as performances anteriores).
Independentemente do tipo de música em que se utiliza elementos ou procedimentos casuísticos,
vemos que a utilização destes elementos são decorrentes de duas abordagens básicas sobre o acaso:
uma que crê que ele é fruto da ignorância do observador e outra que crê que ele é ontologicamente
constituinte do real (ZAMPRONHA, 1997, p.45), que estão respectivamente alinhadas com as
idéias de determinismo e indeterminismo. Embora não caiba aqui neste artigo aprofundar esta
questão (cf. CINTRA, 2004), a forma como cada compositor entende o acaso determina o quanto de
acaso ele permite em sua música.
No que diz respeito à realização musical de tais conceitos, pode-se interpretar estas aberturas ao
acaso de duas maneiras: ao aleatório e ao arbitrário (cf. CINTRA 2004). O termo aleatório vem da
palavra alea e quer dizer sorte (ou azar), ou seja, algo que não temos controle, seja porque já não o
queremos ou porque de fato é impossível ter qualquer previsão de seu efeito ou consciência de sua
causa. De maneira geral, atribuímos este termo para músicas que envolvam a renúncia ou
diminuição da escolha do compositor, mesmo que a partir desta renúncia se produza uma partitura
cujos elementos são fixos e que deverão ser interpretados sempre da mesma maneira. Costuma-se
englobar no mesmo termo – música aleatória – tanto as músicas que possuem uma abertura ao acaso
nos processos de composição quanto aquelas que utilizam esta abertura na interpretação. Por sua
vez o termo arbitrário pode ser definido como algo “que depende unicamente de uma decisão
individual, não de uma ordem preestabelecida ou de uma razão válida para todos” (LALANDE,
1999, p.84), e no caso da música podemos considerar que o arbitrário estaria “no âmbito de uma
escolha que não é motivada nem por uma relação de causalidade, nem por uma convenção ou hábito
consolidado” (CINTRA e ZAMPRONHA, 2003, p.206).
A abertura ao aleatório se dá de forma que as decisões do compositor seja deixadas a algum tipo de
procedimento ao acaso – sorteios, o I-Ching ou o computador. Este tipo de procedimento pode gerar
partituras definidas, que devem ser interpretadas de modo rigoroso, e pode gerar resultados sonoros
sempre semelhantes ou completamente imprevisíveis – como por exemplo as peças de Cage, Music
of Changes e Imaginary Landscape n.4, respectivamente. Além disso a abertura ao aleatório pode
gerar também partituras indeterminadas, como Concert for Piano and Orchestra (1957-8), também
de John Cage. Já na abertura ao arbitrário, o intérprete toma decisões: a) baseadas apenas em sua
própria vontade, sem nenhuma relação com qualquer informação ou contexto pré-definidos,
podendo ou não se basear em seus próprios hábitos de interpretação, como por exemplo nas
improvisações livres; b) definindo relações arbitrárias entre os grafismos das partituras gráficas sem
bulas e o seu resultado sonoro; c) motivado em maior ou menor grau pela escrita, no caso das
músicas com partitura indeterminada.
No caso das improvisações livres em grupo (o caso do MAMUT), temos ocorrência tanto do acaso
arbitrário, gerado pelas decisões dos intérpretes no momento da execução, motivados ou não pelas
sonoridades que então acontecem; quanto do acaso aleatório, que acontece tanto por algumas das
transformações aleatórias feitas pelo computador dos sons gerados pelos instrumentistas, quanto da
combinação de decisões arbitrárias dos músicos, seja dos instrumentos tradicionais ou dos
computadores. Ou seja, a somatória de diferentes decisões individuais, sem combinação prévia, que
gera para o ouvinte uma sensação de aleatoriedade, torna o resultado sonoro mais ou menos
previsível, porém pouco controlável, e quanto menos as diretrizes para a improvisação forem
baseadas em estereótipos, mais imprevisível será sua resultante sonora (CINTRA, 2004, p.116).

3. Improvisação

A prática de improvisação não é uma novidade do século XX e XXI. Segundo Albino (2009, p.69),
no período barroco a improvisação era naturalmente aceita no meio musical, havia a clara intenção de
improvisar em música. Isso se deve, talvez, à força de uma tradição onde a improvisação com certeza
fazia parte do cotidiano musical. J. S. Bach foi mais conhecido em sua época como exímio improvisador
do que como compositor.

Olhando para a história da música ocidental, notaremos que a prática de improvisação foi
desaparecendo da música ocidental junto com o desenvolvimento do sistema de escrita musical.
Entretanto, surge no século XX a chamada música aleatória, movimento musical que tem Cage
como principal representante. De acordo com Albino (2009, p.77),
neste período assistimos a uma expansão da área de indeterminação nas composições e uma liberdade
interpretativa a níveis jamais vistos na história da música ocidental, despojando muitas vezes a
composição de qualquer vestígio de controle advindo do compositor. Também nesse período os meios
tecnológicos que haviam sido empregados como proibitivos da liberdade interpretativa, foram utilizados
como ferramentas adicionais para a produção sonora.

Faz-se necessário, no entanto, discernir as liberdades interpretativas advindas das propostas de


indeterminação em música — e até mesmo as propostas de improvisação livre — daquela
improvisação chamada idiomática mencionada por Albino na referência a Bach. A improvisação de
modo geral, tal como pensada tradicionalmente, possui “certas regras: de estilo, de ritmo, de
harmonia, de melodia, de ordem de seções, e assim por diante” (STOCKHAUSEN, 1991, p. 113).
Mesmo no Free Jazz, sem empregar partituras, estas regras estão presentes já que “ela deveria soar
como jazz, de outro modo as pessoas a chamariam de Free Music” (STOCKHAUSEN, 1991, p.
112).
Somando-se a essas observações de Stockhausen, que claramente referem-se à improvisação
chamada idiomática, existe uma idéia de jogo, segundo Costa (2009), que permeia toda idéia de
improvisação, seja ela livre ou idiomática. Na improvisação chamada de idiomática “o intérprete é
quem realiza as possibilidades de jogo que existem em potência no idioma que, por sinal é
resultante dinâmica das práticas interativas que envolvem os músicos que a atualizam” (COSTA,
2009, p. 88). Já na improvisação livre, o jogo se dá de outra maneira, já que ela “põe em ação a
vontade criativa dos músicos, o desejo de atuar num ambiente pleno de virtualidades onde as
matérias ainda não estão formadas” (COSTA, 2009, p. 87). Costa (2009, p.87) afirma ainda que
o músico deve se propor a um mergulho num tempo intensivo, num tempo de diferenças puras. Isto é, na
livre improvisação só existem as diferenças intensivas. Não há repetições. A única repetição é a do desejo,
da intensidade, do devir, da potência de futuro. E tudo isto depende, primordialmente (mas não só) dos
músicos em interação.

É aí que se dá, como citado anteriormente, a diferença entre esta concepção de jogo, ou de
improvisação livre, e aquela proporcionada pela abertura nas músicas de Cage, pois “para jogar o
jogo de Cage é preciso adentrar num universo regrado e já conceitualmente imaginado a priori (e
neste sentido paradoxalmente, controlado)” (COSTA, 2009, p. 87). [1]
Podemos dizer que a concepção de improvisação livre definida por Costa tem um caráter imanente
e material, ou seja, a cada improvisação um novo universo se cria durante a sua realização,
resultado da interação entre os músicos a partir das idéias, gestos e principalmente sons e silêncios
que nela acontecem. Uma realização musical que ele chega a chamar de concreta (COSTA, 2009, p.
87), fazendo alusão às idéias de Schaeffer. Já a abertura de Cage refere-se a um universo já
delineado pelo compositor anteriormente, ainda que em potência, e que cabe ao músico fazê-lo vir à
tona, atualizando uma de suas possíveis versões.
É preciso notar que abordagens como as encontradas em trabalhos de improvisação livre propiciam
ao ouvinte uma experiência de escuta muito mais voltada ao ato de perceber do que de reconhecer.
Segundo Zampronha (2000), o reconhecer é mais característico do paradigma tradicional de
composição musical e o perceber mais característico do novo paradigma. A diferença está no fato
de que no “reconhecer”, o ouvinte se direciona à audição carregado de sintaxes construídas a partir
de hábitos de escuta tornando a experiência com a obra musical um processo de diálogo com as
estruturas convencionadas carregadas de estereótipos. Já o trabalho sobre o “perceber” busca criar
obras que trazem em si processos que rompem com as sintaxes convencionadas, propiciando ao
indivíduo se afastar do reconhecimento de estereótipos e direcionando-o a uma nova escuta com
novas construções perceptuais. Zampronha (2000, p.241) comenta que
o estereótipo quer enquadrar constantemente a obra em processos conhecidos e estáveis, tornando-a um
mero transmissor dele mesmo, como se a obra fosse um significante e o próprio estereótipo um
significado. Ou, em outras palavras, como se aquilo que a obra quisesse dizer não fosse outra coisa senão
ele mesmo: o estereótipo. Ao trabalhar sobre o perceber, ao contrário, a obra não se configura como algo
dado, definido e estável, pronto a ser conhecido. Ela se torna, propriamente dita, um trabalho sobre o
próprio construir, sobre o próprio modelar da percepção.

4. Improvisação livre com dispositivos eletrônicos

Barreto (2009, p.2) comenta que


desde o advento de controladores de voltagem nos anos 1960 ficaram dadas todas as possibilidades de
gerar e manipular sons artificiais; criaram-se as primeiras composições de música interativa. Este fato
permitiu a qualquer compositor ou executante recorrer à informática como auxiliar da criação musical.

Na década de 1970 surge a possibilidade de intérpretes introduzirem nuances em tempo real e


aparecem os primeiros concertos de live electronics, potencializados na década de 1980 através da
conexão de instrumentos à computadores (via MIDI) e à manipulação sonora em tempo real. Esse
desenvolvimento tecnológico possibilitou o surgimento de novas sonoridades e rapidamente tornou-
se uma importante ferramenta na realização de improvisações livres. Barreto (2009, p.4) comenta
que “também a música interativa é aplicada na Nova Música Improvisada, é uma reconsideração da
música assistida por computador pela vanguarda experimentalista”.
Ao abordar as interações entre instrumentos acústicos e dispositivos eletrônicos é importante
identificar qual o papel da parte eletrônica. Rocha (2008, p.22) menciona as seguintes tarefas
geralmente desempenhadas pelo computador em processos interativos:
(1) ele pode tocar um som ou uma seqüência de sons pré-gravados em um momento pré-determinado, de
acordo com uma 'partitura'; (2) ele pode gravar sons produzidos pelo performer e armazená-los na
memória para um uso posterior na peça; (3) ele pode processar os sons acústicos em tempo real,
utilizando efeitos tais como espacialização, filtros, delays, moduladores de anel (ring modulator), entre
outros; (4) ele pode também sintetizar novos sons ou seqüências de sons, com base em algoritmos que
utilizem dados gerados pelo performer.

Vale observar que o processamento dos sons em tempo real pode ser aplicado não apenas aos sons
dos instrumentos ao vivo, podendo também ser aplicado no momento em que são disparados sons
pré-gravados ou sons que foram gravados durante a performance. Os parâmetros de processamento
e de síntese podem ser gerados a partir de dados provenientes da análise do sinal sonoro produzido
pelos instrumentos acústicos, ou com base em dados de interfaces de controle e sensores, ou ainda a
partir de processos computacionais algorítmicos.
5. Oficinas de livre improvisação coletiva - interfaces e processamento computacional

Nas oficinas de improvisação coletiva do MAMUT, a parte eletroacústica têm estado geralmente a
cargo de dois integrantes do grupo que controlam dois laptops independentes. Cada um deles utiliza
um conjunto distinto de ferramentas, selecionadas a partir das preferências desses integrantes. Um
deles roda em Linux utilizando aplicativos livres tais como o Pd-extended, o Jack (audio
connecting kit), o Freqtweak, o Ardour e o Qsynth, com os quais têm sido realizadas modulações e
sínteses em tempo real, principalmente síntese granular e síntese por wavetable. Um dos
equipamentos acoplados a esse laptop é um controlador MIDI com 8 knobs giratórios e 25 teclas
(cobrindo uma extensão de duas oitavas) que também funciona como interface de áudio via conexão
USB. Além de ser portátil, esse controlador MIDI permite que vários parâmetros sonoros sejam
manipulados simultaneamente, propiciando grande variedade sonora.
No outro laptop, que utiliza o software Max/MSP sobre a plataforma Mac OSX, têm sido
exploradas possibilidades de controle gestual dos parâmetros sonoros com o wiimote e o nunchuck
(do Nintendo Wii), conforme detalharemos mais adiante. A funcionalidade do wiimote e do
nunchuck pode ser facilmente adaptada para performances musicais através de comunicação com o
computador via bluetooth e da utilização de aplicativos de interação em tempo real como o Pure
Data (Pd) e o Max/MSP. Tanto o wiimote quanto o nunchuck são dotados de acelerômetros que
identificam movimentos nos eixos esquerda-direita, frente-trás e para cima-para baixo. Além disso,
o nunchuck é dotado de um joystick e dois botões, e o wiimote possui vários botões. A captação dos
dados do wiimote e do nunchuck no Max/MSP é feita através do objeto "aka.wiiremote", de
Masayuki Akamatsu [2].
Os dois laptops têm sido utilizados principalmente para gerar eventos a partir de sons pré-gravados
ou a partir de sons gravados em tempo real durante a performance. Embora inúmeros tipos de
processamento possam ser aplicados a esses sons no momento em que são tocados, têm sido
explorados processamentos que preservem muitas das características sonoras originais como um
artifício para não distanciar exageradamente os sons eletroacústicos de suas fontes. Assim, um
recurso simples como a alteração da velocidade de reprodução dos sons tem sido bastante utilizado,
o que altera concomitantemente a transposição e o escoamento temporal das amostras,
proporcionando diferentes matizes de variação em relação aos sons originais. Os patches
implementados em Pd e em Max/MSP permitem que os músicos que controlam os laptops
selecionem em tempo real os instrumentos que vão gravar e armazenem as amostras de áudio em
buffers. A sobreposição dos sons dessas amostras em diferentes camadas sonoras distribuídas por
distintas faixas do registro tende a gerar texturas complexas que dialogam com as improvisações
realizadas pelos instrumentos acústicos.
No caso da implementação em Max/MSP, são utilizados 20 buffers diferentes. A possibilidade de
preservar algumas dessas amostras durante um longo período da performance (enquanto outras
amostras vão sendo substituídas por eventos sonoros mais recentes) permite a exploração de uma
certa "memória musical" da performance, articulada com base em eventos recentes (memória de
curto prazo) e eventos temporalmente mais remotos (memória de médio e longo prazo). As
amostras a serem reproduzidas podem ser selecionadas individualmente pelo músico que controla o
laptop ou então disparadas a partir de um dispositivo que faz uma seleção aleatória. As velocidades
de reprodução das amostras (que definem a transposição e o escoamento temporal dos sons)
também podem ser controladas manualmente ou escolhidas aleatoriamente privilegiando três faixas
distintas do registro.
No caso da implementação em Pd, procura-se também explorar essa “memória musical”
armazenando amostras de trechos da performance em tempo real, porém em apenas um buffer (com
todos os intrumentos mixados). A reprodução destas amostras mixadas no sentido reverso (de trás
para frente) e com velocidade de reprodução alterada permite explorar sonoridades que diferem do
processamento de amostras individuais de cada instrumento, pois a combinação de alguns timbres
faz com que surja, em certos momentos, um novo timbre. Assim, a própria mixagem dos diferentes
instrumentos é explorada como um recurso para a transformação do resultado sonoro. Em alguns
momentos é utilizado junto com o Pd o software Freqtweak, que permite fazer modulações em
tempo real no espectro de freqüências de uma amostra de áudio. Com ele são aplicados efeitos
de delay, variação de altura e variação de amplitude por faixas de freqüências. É possível, por
exemplo, manipular determinado trecho do som mantendo sua faixa de freqüência entre 50hz e
200hz com delay de 500 milisegundos, variação de altura de ¼ de tom mais agudo, - 3 dB de
amplitude, concomitantemente com as freqüências entre 2000hz e 5000hz apresentando delay de
1500 milisegundo, variação de altura de ½ tom mais grave e + 4 db de amplitude. Com isso surge
um timbre novo e ao mesmo tempo com forte referência aos sons originais. O computador é
inserido na performance como mais um instrumento improvisador, pois através do controlador
MIDI o músico manipula os parâmetros e a forma como seu equipamento gera o som (de forma
análoga à maneira como os músicos que tocam os instrumentos acústicos controlam a produção dos
sons em seus instrumentos). O computador deixa, então, de ser um mero instrumento de gravação e
reprodução e passa a ser um instrumento com timbres dinâmicos que variam de acordo com a
sonoridade da performance.
Com base em Traldi (2007), verificamos o potencial da exploração dos gestos dos músicos na
performance como um elemento de controle dos processos sonoros trabalhados no computador.
Para Traldi (2007, p.25), “o gesto físico do intérprete passa a ser de enorme importância e é preciso
que ele (o intérprete) tenha consciência das possibilidades gestuais e o que cada gesto irá
desencadear em sua performance”. [3]
Considerando a integração dos músicos que controlam os laptops na constituição desse componente
gestual da performance, a versão mais recente do patch em Max/MSP acima mencionado utiliza
o wiimote e o nunchuck para alterar parâmetros e disparar ações de gravação e reprodução das
amostras. Na implementação realizada até o momento, a rotação do nunchuck no eixo esquerda-
direita altera o valor que regula a velocidade de reprodução das amostras num âmbito entre 0.1 e 2.0
(ou seja, de 10% a 200% da velocidade original de reprodução das amostras). A combinação desse
movimento de rotação com o acionamento dos botões "-" ou "+" do wiimote permite que o âmbito
desses valores chegue a até 4.0 ou 6.0 (ou seja, 400% e 600% da velocidade de reprodução das
amostras, respectivamente). Assim que um determinado valor é alcançado, o acionamento do botão
"Z" (no nunchuck) dispara a amostra desejada com a velocidade de reprodução que foi escolhida.
Caso o botão "home" também esteja acionado, o movimento de rotação do nunchuck é
desconsiderado e a velocidade de reprodução passa a ser aleatória dentro de um âmbito previamente
estipulado no patch. Nas oficinas de improvisação, o uso do nunchuck para definir a transposição
(com base na velocidade de reprodução das amostras) mostrou-se eficaz para explorar o potencial
expressivo dos sons eletroacústicos quando concentrados em regiões específicas no âmbito das
freqüências. Movimentos de rotação do wiimote no eixo esquerda-direita, combinados com o
acionamento do botão "C" do nunchuck, propiciam o controle do volume da amostra selecionada a
cada momento. A seleção das amostras, por sua vez, é realizada com o botão up-down-left-right (no
wiimote), que permite a navegação entre os buffers que contêm as amostras. O buffer selecionado
aparece com uma cor diferente em relação aos demais, facilitando as ações do músico. A seleção da
fonte sonora a ser captada a cada momento é realizada através da utilização combinada do botões
"1" e "A" (no wiimote). O número de vezes que o botão "1" é apertado define o número do
microfone cujo sinal será gravado. O acionamento do botão "A", por sua vez, dispara a gravação da
amostra. Na atual versão, o patch dispõe de quatro gravadores independentes, o que permite a
gravação simultânea de quatro fontes sonora distintas.
Verificou-se que o uso do wiimote e do nunchuck tem viabilizado a busca de um maior grau de
congruência entre gesto e som eletroacústico (cf. VILLAVINCENCIO, 2009) nas performances do
MAMUT.
6. Conclusão

Segundo Barreto (2009, p.7) “A computer music improvisada (ou improvisação livre em grupo)
(…) propõe áreas de fruição encantatórias, ilumina o pensamento desconhecido e desbrava outras
zonas da sensibilidade”. Além de levar o público a vivenciar esse tipo de experiência musical, a
prática da livre improvisação coletiva realizada com o MAMUT tem sido utilizada com as seguintes
finalidades:
a) como um meio de pesquisa e desenvolvimento das práticas interpretativas mediadas;
b) para o desenvolvimento da linguagem composicional com a utilização de dispositivos
eletrônicos;
c) como um laboratório onde são testados na prática novos dispositivos eletrônicos e patches
interativos.
Os trabalhos com o MAMUT apontam para os seguintes desdobramentos futuros:
a) exploração de outras formas de transformação sonora e de controle gestual;
b) uso de tabelas de probabilidade e cadeias de Markov para a implementação de um modo de
disparo automático das amostras;
c) implementação de mecanismos de análise das amostras que viabilizem a classificação automática
das mesmas a partir de suas características morfológicas;
d) controle gestual de síntese granular utilizando o wiimote e o nunchuck [4];
e) conexão dos laptops em rede para a troca de dados e a realização de ações integradas;
f) realização de improvisações puramente eletroacústicas (orquestra de laptops);
g) exploração da espacialização dos sons em múltiplos canais de áudio.

Notas
[1] Para uma interessante abordagem sobre as relações entre improvisação e jogo, ver Furlanete
(2010).

[2] Disponível para download em http://www.iamas.ac.jp/~aka/max/#aka_wiiremote

[3] Musique de Table, do compositor francês Thierry de Mey, é um bom exemplo de obra em que
os gestos do intérprete adquirem uma grande importância na performance (ver
http://www.youtube.com/watch?v=ZKZzAAqMhDk).
[4] Jesus, Moreira e Fritsch (2009) mencionam o controle de síntese granular com os botões do
wiimote. Acreditamos que o controle através de movimentos captados pelos acelerômetros permitirá
a incorporação de um dado expressivo interessante para a performance.

Referências

ALBINO, C. A. C. (2009), A Importância do Ensino da Improvisação Musical no


Desenvolvimento do Intérprete, Dissertação (Mestrado), Universidade Estadual Paulista (UNESP),
São Paulo-SP.
BARREIRO, D. L. (2009), “Uma investigação sobre estratégias de interação em tempo-real em
obras eletroacústicas mistas com abertura (composição modular e/ou improvisação)”, Anais do XIX
Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música - ANPPOM 2009,
Curitiba, ANPPOM.
BARRETO, J. L. (2009), Computer Music e Improvisação, Artigos Meloteca 2009.
BOULEZ, P. (1977), Technology and the Composer, Language of Electroacoustic Music. ed.
Simon Emmerson, Londod, Macmillan Press, p.5-14.
CAGE, J. (1961), “Lecture on something”, Silence. Connecticut: Wesleyan University Press.
p.128-145.
CINTRA, C. L. A. (2004), Formas de utilização do acaso na composição musical contemporânea,
Dissertação (Mestrado), Universidade Estadual Paulista (UNESP), São Paulo-SP.
CINTRA, C. L. A. e ZAMPRONHA, E. S. (2003), “Considerações sobre aleatório e arbitrário na
música contemporânea”, Revista UNICSUL, São Paulo, v. 10, p.205-214.
COSTA, R. L. M. (2009), “A idéia de jogo em obras de John Cage e no ambiente da livre
improvisação”, Per Musi (UFMG), v. 19, p.83-90.
FURLANETE, F. P. (2010), Modelagem de interações musicais com dispositivos informáticos,
Tese (Doutorado), Universidade Estadual de Campinas (Unicamp), Campinas-SP.
JESUS, A. R.; MOREIRA, D. F. e FRITSCH, E. F. (2009), “Música Eletroacústica
Experimental: Criação de uma Interface Musical Interativa”, Anais do XIX Congresso
da Associação Nacional de Pesquisa e Pós-Graduação em Música - ANPPOM 2009, Curitiba,
ANPPOM.
LALANDE, A. (1999), “Arbitrário”, Vocabulário técnico e crítico da filosofia. 3a ed., São Paulo,
Martins Fontes, p.84-85.
ROCHA, F. O. (2008), Works for percussion and computer-based live electronics: aspects of
performance with technology, Tese (Doutorado), McGill University, Montreal (Canadá).
STOCKHAUSEN, K. (1991), “Intuitive Music”, Stockhausen on Music, London, Marion
Boyars, p. 112-125.
TRALDI, C. (2007), Interpretação Mediada & Interfaces Tecnológicas para Percussão,
Dissertação (Mestrado), Universidade Estadual de Campinas, Campinas-SP.
VILLAVICENCIO, Cesar (2009), “Considerations in the use of Computer Technology in
Contemporary Improvisation Are Computers Musical Instruments?”, Proceedings of the 12th
Brazilian Symposium on Computer Music, São Paulo, USP/SBC, p.183-186.
WANDERLEY, M. (2006), Instrumentos Musicais Digitais, Input Devices and Music Interaction
Laboratory, Music Technology Area – Faculty of Music, McGill University, Montréal, Québec,
Canadá.
ZAMPRONHA, E. S. (2000), Notação, representação e composição: Um novo paradigma da
escritura musical, São Paulo, Annablume, Fapesp.
_____. (1997). “Linguagem: propriedade emergente do material”, ARTEunesp, São Paulo, v.13,
p.31-53.

Agradecimentos

Agradecemos ao apoio da Universidade Federal de Uberlândia e à Fundação de Amparo à Pesquisa


do Estado de Minas Gerais (FAPEMIG).

Daniel Luís Barreiro (nascido em 1974, São Carlos-SP): Suas composições eletroacústicas têm
sido apresentadas na Europa, nas Américas e na Austrália. Em 2006, teve obras premiadas no
Concurso Internacional de Bourges (França) e no Concurso Métamorphoses (Bélgica). Doutor em
Composição Musical pela University of Birmingham (Inglaterra) sob orientação de Jonty Harrison
(bolsa Capes), é atualmente docente da Universidade Federal de Uberlândia (UFU).
dlbarreiro@demac.ufu.br

Cesar Adriano Traldi (nascido em 1983, Descalvado-SP): é Bacharel em percussão e Doutor em


Música pela Unicamp. Já se apresentou como solista em importantes eventos nacionais e
internacionais: Croácia, Eslovênia, Dinamarca, Estados Unidos, Portugal, Espanha e Cuba.
Atualmente é pesquisador NICS (Unicamp), professor de percussão e Chefe do Departamento de
Música e Artes Cênicas da Universidade Federal de Uberlândia.
ctraldi@demac.ufu.br
Celso Luiz de Araujo Cintra (nascido em 1969, São Paulo-SP): Como compositor teve trabalhos
gravados nos CDs Música Maximalista v.3 do Studio PANaroma/Unesp e Music for Guitar, de
Gilson Antunes. Mestre em Música e Bacharel em Composição e Regência pelo Instituto de Artes
da Unesp/SP, atualmente é doutorando em Musicologia pela ECA/USP e professor do curso de
Música da Universidade Federal de Uberlândia.
www.myspace.com/celsocintra
http://card.ly/celsocintra
celsocintra@gmail.com

Carlos Roberto Ferreira de Menezes Júnior (nascido em 1973, Campinas-SP): É Bacharel em


violão e Mestre em inteligência artificial / computação sônica pela Universidade Federal de
Uberlândia. Compositor, arranjador, violonista e cantor. Atualmente é professor da área de música
popular e música e novas tecnologias do Departamento de Música e Artes Cênicas da Universidade
Federal de Uberlândia.
carlosmenezesjunior@gmail.com

You might also like