• Weird Woodland Walk

    Weird Woodland Walk

     

     Par Maria AMOKRANE & Nawfal Elheziti   -   L3 EVMAN TD1   -   2021/2022

     

     

     

     

     

     

     

    Description et intention


    A travers notre projet, nous voulions créer une expérience visuelle et sonore, une sorte de représentation abstraite des différents bruits et sons que nous pourrions entendre lors d’une promenade nocturne en forêt.

    Le spectateur serait plongé dans une épaisse forêt à l’ambiance étrange et pesante. En totale immersion dans un environnement à l'esthétique énigmatique. La présence de sons va d’autant plus renforcer cet aspect oppressant. En effet, notre installation a pour but la création d’une composition musicale, accompagnée d’un visuel réagissant aux sons émis. Afin de produire une atmosphère singulière, créer chez l’utilisateur, l’expérience sensorielle d’une balade en forêt particulièrement angoissante.
     

    Le spectateur serait dans une pièce sombre, face à un grand écran. Cette vidéo montrerait la vision à la première personne d’une personne se baladant en forêt. Celle-ci servirait grandement au caractère immersif de l'installation, grâce au point du vue subjectif et aux bords noirs sur les côtés.

    L’utilisateur aurait également, positionné devant lui, un potentiomètre dissimulé sous une feuille de papier représentant des touches de piano. Chaque touche activerait un son, eux mêmes activant des effets visuels à l’écran. 2 haut-parleurs seraient positionnés à gauche et à droite. Ainsi, il aurait la possibilité de créer sa propre composition musicale.

     

     

     

     

    Références

     

    •  Nous avons pour inspiration l’exposition “North Forest Lights”. Chaque pièce est animée par une musique d'inspiration locale et une riche palette de couleurs qui mettent en lumière le passé humain et naturel de ce site. Une technologie interactive permet aux visiteurs de chanter au son d'un grand chêne rouge, tandis que des arbres illuminés et une bande sonore personnalisée invitent chacun à se mettre à l'écoute des longueurs d'onde cachées de la forêt.
      https://www.youtube.com/watch?v=8Nj2O60BJdk

     

    • La forêt d'Aokigahara au Japon a aussi été une forme d’inspiration dans son caractère effrayant. Un site à l’histoire particulièrement lourde, dont nous voulions reprendre l’atmosphère afin de le retranscrire dans notre forêt. Créer de la même manière, un environnement étrange dont les mythes hantent tous ses visiteurs. 

     

    • Pour finir, notre dernière référence est en rapport avec l’idée de composition musicale. Blob Opera est un site permettant de créer son propre opéra, par David Li en collaboration avec Google Arts & Culture. Chaque personne à la possibilité de réaliser sa propre musique en interagissant avec des objets produisant des sons, de la même manière qu’un musicien.
      https://artsandculture.google.com/experiment/AAHWrq360NcGbw 

     

     

     

     

    Idée de base

     

    Dans notre conception initiale, nous voulions créer une installation musicale, avec une ambiance prédominante. Celle-ci enrichit par différents sons disponibles grâce à plusieurs capteurs que l’utilisateur choisirait d’actionner. Un but assez proche de notre idée finale. Cependant, l'évolution du projet nous a permis de rajouter un aspect visuel très important. Une sensorialité de plus, qui permet grandement de renforcer cette idée d’immersion dans un environnement particulier. Approfondir cette atmosphère dérangeante qui s’est au fur et à mesure concrétisée.

    Il est aussi important d'ajouter que la manière d’interagir avec les sons, mais aussi les sons en eux même ont été conditionnés et ont évolué en fonction de nos capacités, ce qui nous a entraînés à faire certains choix.

     

    Schéma fonctionnel initial : 

    Weird Woodland Walk

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

    Installation

     

    Schéma fonctionnel final : 

     

    Weird Woodland Walk

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

    L’utilisateur se trouve ainsi devant un écran, mais surtout devant un capteur dissimulé sous une feuille de papier. Ce dernier servant à favoriser l’utilisation des effets sonores. En effet, ils sont au nombre de 9 (le premier étant la touche initiale: effet nul + son nul), nous avons divisé les valeurs du potentiomètre en 9 “touches”. En plus de cet aspect pratique, la figuration en piano renforce aussi cette de composition musicale. Cependant, les dièses que nous avons figurés sur le piano ne sont pas cliquables, ils ont été représenté afin de comprendre que l’on se trouve devant un piano. 

     

    Weird Woodland Walk

     

     

     

     

     

     

     

    Difficultés et solutions

     

    Tout d’abord, la première difficulté se trouvait dans l’organisation des sons, comment
    interagir avec les éléments sonores. 

     

    De la même manière que sur un piano, en appuyant sur les touches, nous voulions avoir
    la possibilité de déclencher un, ou plusieurs sons à la fois. Comme le ferait un musicien
    pour créer une composition. C’est pourquoi nous voulions utiliser deux potentiomètres,
    afin que l’utilisateur puisse actionner deux sons séparément. Cependant, actionner deux
    sons en même temps envoie deux fréquences qui devaient être superposées pour être
    visualisées. Cette difficulté nous a alors amenée à repenser notre composition musicale.
    L’utilisateur ne déclenche plus des sons de la même manière que des notes de pianos.
    Mais il actionne différentes combinaisons de son, indépendantes, que l’on peut jouer
    dans n’importe quel ordre tout en gardant leur unité. Ces combinaisons vont aussi
    fonctionner entre elles afin que chaque spectateur crée sa propre composition
    musicale. De plus, les sons joués fonctionnent aussi avec la musique de la vidéo de
    manière à créer une cohérence sonore. 

    Dans un second temps, nous pensions agir directement sur la vidéo en déclenchant les
    sons. L’interaction aurait provoqué une action au sein même de la vidéo, sans lui
    apporter d’effets par-dessus. Cependant, cette nouvelle version nous a permis de
    visualiser directement les fréquences du son, en voir la l’empreinte directe. De manière
    à donner encore plus d’importance à la conception sonore. Le son s’inscrit d’autant plus
    dans le projet, lui conférant encore plus de cohérence. 

     

     

     

    Capteurs


    Nous avons utilisé un potentiomètre. Ce capteur a été choisi de manière à créer une
    interaction facile avec les différents sont disponibles. De plus, il permet, lors de
    l’installation, de le figurer sous la forme de piano, en différenciant des touches qui
    activent un son particulier. Une idée cohérente avec notre but de créer la composition
    musicale.

     

     

     

     

    Explication du code 

    Notre patch est composé de trois grandes parties.
    La première permet de gérer le lancement des sons en fonction des données qu’envoie
    le potentiomètre. Nous y retrouvons un coll qui contient tous les effets sonores qui
    peuvent être choisis. Celui-ci est relié à un scale se rapportant aux valeurs du capteur.
    Elles vont de 0 à 127, nous les avons divisées en 9 parties. 

     

     

     

     

    La seconde partie contient les différentes catégories contenues dans le scale, les 9 sons
    disponibles à la composition sonore. Ces sons sont ici associés à des effets. Chacun
    possède un code qui lui est assigné, en fonction de l’effet désiré.
    Cependant, la première catégorie (son1 - sel 1) contient un effet nul, avec un son nul car
    c’est la base initiale, celle qui annule tout effet. Néanmoins, nous entendons le son en
    fond de la vidéo, qui lui, reste constant, et fonctionne avec tous les sons. 

     

     

     

     

     

     

     

    La troisième partie contient un jit.op qui est le cœur du code. Cet élément permet de
    “mélanger” les différentes couches en une vidéo finale. Celui qui assemble le tout pour
    créer le résultat montré aux visiteurs. En effet, grâce aux deux entrées chaudes, nous
    avons superposé les fréquences générées, les effets visuels prédéfinis associés à chaque
    son et la vidéo initiale. La résolution de la vidéo est définie grâce au jit.matrix et nous
    avons modifié la luminosité de la vidéo grâce au jit.brcosa. 

     

     

     

     

     

     

     

    En clair, stimuler le potentiomètre revient à activer une certaine position reliée à un son
    particulier. Ces derniers sont reliés à des effets qui permettent de percevoir les
    fréquences différemment pour chaque son. Enfin, la résultante des sons, et la vidéo de la
    promenade en forêt sont mixés par le jit.op pour donner le résultat final. 

     

     

     

     

     

     

     

    Répartition du travail


    Nawfal : J’ai été en charge de la conception des sons, j’ai réalisé les différents sons et
    bruits sonores ainsi que l’ambiance de fond. J’ai également coder l’apparition des effets
    de distorsion en fonction des fréquences des sons joués, ainsi que tous les autres effets
    visuels. Je me suis finalement occupé de coder le mix des différentes couches d’effets
    pour la vidéo finale.


    Maria : Sur le patch Max, je me suis occupée d’intégrer la liste des sons, par rapport au
    scale et au mtr. De plus, je me suis occupée du choix des effets par rapport aux sons qui
    leur sont associés pour être complémentaires (intensité, couleurs, mode, fondu). Pour
    fi
    nir, j’ai assuré la conception du piano pour l’installation et le rendu vidéo de la forêt

    (post production sur After Effets). 

     

     

     

    « Voix guidée par le gesteCarte musicale »

    Tags Tags : , , , ,
  • Commentaires

    Aucun commentaire pour le moment

    Suivre le flux RSS des commentaires

    Vous devez être connecté pour commenter