OVH Cloud OVH Cloud

Bœuf online avec un pote.

23 réponses
Avatar
Wolfmaniac
Hello.

Je désire faire un bœuf online avec un pote, et je cherche donc un
logiciel (gratuit) car j'ai jusqu'à présent pas trouvé grand chose, mise
à part Ninjam (http://www.zikinf.com/ninjam/).

Comme j'ai uniquement besoin de l'audio (la vidéo est un plus qui
ajoute plus... de latence), j'ai bien pensé à l'application Livephone/PC
de chez Orange, mais malheureusement (ou heureusement, c'est selon) ;-)
le pote en question est chez un autre FAI.

Quelqu'un aurait testé ce Ninjam ? ou aurait d'autres pistes ?

10 réponses

1 2 3
Avatar
Tonton Th
On 05/10/2012 07:47 PM, Marc_L wrote:

Ouais, pourquoi streamer tant de données quand on ne pourrait streamer
que le MIDI ?



[...]

Un logiciel bien fait devrait pouvoir voir le jour, lancer l'idée dans
le domaine du monde libre, pourquoi pas ?



Avec Linux, on peut faire passer du MIDI sur le réseau par
la commande "aconnect". Il y a des gens qui l'ont essayé
sur le grand Ternet ?

--

Nous vivons dans un monde étrange/
http://foo.bar.quux.over-blog.com/
Avatar
Trinine
Le Sat, 12 May 2012 16:59:20 +0200, Tonton Th a écrit :

Avec Linux, on peut faire passer du MIDI sur le réseau par la
commande "aconnect". Il y a des gens qui l'ont essayé sur le grand
Ternet ?



On doit aussi pouvoir utiliser NetJack (il me semble que cela peut
tourner sous Linux et MacOs). Si ma mémoire est bonne, on peut l'utiliser
pour diffuser audio, MIDI et "transport" (infos genre "play", "pause",
etc., pour synchroniser des logiciels entre eux).
http://trac.jackaudio.org/wiki/WalkThrough/User/NetJack

Ça a l'air de fonctionner via le pas petit ternet :
http://www.linuxmao.org/tikiwiki/tiki-index.php?page=Net+Jack

T.
Avatar
Gerald
Marc_L wrote:

Ouais, pourquoi streamer tant de données quand on ne pourrait streamer
que le MIDI ?



Peut-être parce que le paradigme du MIDI a évolué (ou est revenu aux
sources) ?

Non seulement le MIDI n'est pas et n'a jamais été du *son* mais il est
désormais devenu clair que ce qu'il pouvait offrir comme possibilités
*sonores* (1) est aujourd'hui invalidé par... les outils (matériels ou
informatiques) mis à la disposition de ceux qui croient que la *musique*
est une agrégation de sons... :-(

Il est et a toujours été un système numérique d'ordres de commandes et à
ce titre il continue à tirer largement son épingle du jeu dans le
domaine... de l'éclairage ! Tout un symbole !

Pour moi et quelques autres, le MIDI est *aussi* (et avant tout ?) un
langage *musical* porteur d'une créativité immense. Certes en partie
borné par des choix initiaux qu'on ne ferait plus aujourd'hui de la même
manière mais qui ont exactement la même valeur historique que l'écriture
solfégique : c'est notre patrimoine et, après tout, on peut largement
faire avec.

--------

Note toutefois qu'en raisonnant le MIDI "à l'ancienne", on pourrait tout
à fait y arriver quand même ! Recette potagère donc :

1/ utiliser de part et d'autre de la liaison télécom les mêmes
générateurs de sons. Mêmes marques, mêmes modèles, mêmes programmes,
mêmes fichiers. On assure ainsi la parfaite identité du résultat sonore
produit par une commande MIDI. Naturellement ces appareils sont
*strictement* MIDI : aucun contrôle ou effet externe ne vient modifier
le son produit. On part aussi du principe que la diffusion est neutre de
part et d'autre.

2/ donc avant de commencer, synchroniser les programmes des machines
(envoi de bulk des unes vers les autres pour faire simple)..

3/ pour éviter tout problème de latence, procéder de manière asynchrone.
Un appareil-maître arrose tous les appareils-esclaves. L'enregistrement
par chacun de sa piste est donc parfaitement sans délai. Il y a un
problème de "retours" si on est plusieurs. Je ne sais pas s'il est
grave.

4/ on peut renvoyer l(es) enregistrement(s) à l'expéditeur initial ou
inverser le processus pour faire une autre prise, etc.

MAIS : le fait que cette solution ne se soit pas popularisée alors que
le montage est évident semble indiquer une préférence générale du public
pour le "feuilleté d'échantillons"...

mon explication : tout simplement parce que l'acte d'écriture ou même
d'improvisation MIDI consiste à créer des *notes*, pas des sons ! Et que
créer des notes s'appelle *composer*, mot obscène désormais rangé au
placard des oubliettes au profit des bricolages essais-erreurs-on-efface
et on recommence.

Remarque que ça ou peindre un coucher de soleil sur l'Adriatique à la
manière de Joachim-Raphaël Boronali... :-)
<http://fr.wikipedia.org/wiki/Joachim-Rapha%C3%ABl_Boronali>

chacun faiskiveut, hein ! hth, G.

(1) on met de côté la sauvegarde/transmission d'échantillons par MIDI
qui, de toutes façons n'est jamais sortie du SysEx

--
Gérald
Avatar
Pascal J. Bourguignon
"Cl.Massé" writes:

"Pascal J. Bourguignon" a écrit dans le message de
news:
Paul Gaborit writes:

Mes propres calculs (avec une vitesse du son à 320 m/s) me donnent les
correspondances suivantes :

latence distance équivalente
50 ms 16 m
300 ms 96 m
1000 ms (=1s) 320 m



Oui, c'est la bonne réponse, désolé pour mes mauvais calculs.

Donc, voilà, il suffit de se mettre à côté du haut parleur au lieu de à
l'autre bout du salon.



Ben non, le lag acoustique se rajoute.



Bien entendu. C'est pourquoi si on élimine le lag acoustique en se
plaçant tout près du haut parleur, on compense le lag réseau.

Si les deux musiciens sont dans la même pièce, le lag est:

L = LA


S'ils sont séparé par le réseau, le lag est:

L = LR + LA


S'ils sont séparé par le réseau, mais qu'ils se placent tout près du
haut parleur, le lag est:

L = LR + 0 = LR


Donc un réseau + tout près du haut parleur donne le même lag que d'être
dans la même salle à 16 m l'un de l'autre.


--
__Pascal Bourguignon__ http://www.informatimago.com/
A bad day in () is better than a good day in {}.
Avatar
Paul Gaborit
À (at) Sun, 13 May 2012 18:35:46 +0200,
"Pascal J. Bourguignon" écrivait (wrote):

Si les deux musiciens sont dans la même pièce, le lag est:

L = LA


S'ils sont séparé par le réseau, le lag est:

L = LR + LA


S'ils sont séparé par le réseau, mais qu'ils se placent tout près du
haut parleur, le lag est:

L = LR + 0 = LR


Donc un réseau + tout près du haut parleur donne le même lag que d' être
dans la même salle à 16 m l'un de l'autre.



Pour être plus précis, il faudrait compter les latences des machines
elles-mêmes (LM) :

L = LA + LR + LM

En utilisant un micro au plus prêt et un casque, les musiciens
supprimment LA. Mais il reste LR et LM. Or LR n'est généralement pas
50ms mais plutôt (au minimum) 150ms. Et LM (qui est le cumul des
latences des deux machines) est de l'ordre de 10ms (avec de bonnes
cartes sons et des OS bien réglés).

Donc un musicien (s'il joue d'un instrument réel) s'entend
instantanément et entend un autre musicien avec au moins 160ms de
décalage ce qui correspond à une distance de 50m ou 1/3 de temps avec un
tempo de 120. C'est injouable sauf si on joue sans écouter les autres,
ce qui ne correspond pas vraiment à la notion de b½uf (quoi que...).

En réalité, le décalage sera doublé : le batteur donne le tempo ; un
autre musicien se cale sur lui (donc, en fait, avec déjà 160ms de
décalage) ; et le batteur l'entend 160ms plus tard (donc avec un total
de 320ms de décalage).

Évidemment, on peut synchroniser très précisement un métronome sur
chaque machine (les protocoles de synchronisation savent évaluer et
quasiment supprimer les latences de communications) et chaque musicien
joue alors sur la base de ce tempo. Mais, dans ce cas, même si les
musiciens jouent bien de manière synchrone, ils ne jouent pas ensemble :
c'est comme un orchestre de sourds... Ce n'est pas adapté à tous les
styles. ;-)

--
Paul Gaborit - <http://perso.mines-albi.fr/~gaborit/>
Avatar
RVG
Le 14/05/2012 08:09, Paul Gaborit a écrit :

À (at) Sun, 13 May 2012 18:35:46 +0200,
"Pascal J. Bourguignon" écrivait (wrote):

Si les deux musiciens sont dans la même pièce, le lag est:

L = LA


S'ils sont séparé par le réseau, le lag est:

L = LR + LA


S'ils sont séparé par le réseau, mais qu'ils se placent tout près du
haut parleur, le lag est:

L = LR + 0 = LR


Donc un réseau + tout près du haut parleur donne le même lag que d'être
dans la même salle à 16 m l'un de l'autre.



Pour être plus précis, il faudrait compter les latences des machines
elles-mêmes (LM) :

L = LA + LR + LM

En utilisant un micro au plus prêt et un casque, les musiciens
supprimment LA. Mais il reste LR et LM. Or LR n'est généralement pas
50ms mais plutôt (au minimum) 150ms. Et LM (qui est le cumul des
latences des deux machines) est de l'ordre de 10ms (avec de bonnes
cartes sons et des OS bien réglés).

Donc un musicien (s'il joue d'un instrument réel) s'entend
instantanément et entend un autre musicien avec au moins 160ms de
décalage ce qui correspond à une distance de 50m ou 1/3 de temps avec un
tempo de 120. C'est injouable sauf si on joue sans écouter les autres,
ce qui ne correspond pas vraiment à la notion de b½uf (quoi que...).

En réalité, le décalage sera doublé : le batteur donne le tempo ; un
autre musicien se cale sur lui (donc, en fait, avec déjà 160ms de
décalage) ; et le batteur l'entend 160ms plus tard (donc avec un total
de 320ms de décalage).

Évidemment, on peut synchroniser très précisement un métronome sur
chaque machine (les protocoles de synchronisation savent évaluer et
quasiment supprimer les latences de communications) et chaque musicien
joue alors sur la base de ce tempo. Mais, dans ce cas, même si les
musiciens jouent bien de manière synchrone, ils ne jouent pas ensemble :
c'est comme un orchestre de sourds... Ce n'est pas adapté à tous les
styles. ;-)




Ce fil est totalement glucose.

https://www.youtube.com/watch?v=CQRWyBr3K3s

--
« Dieu n'est-il pas le poète suprême en tant qu'il improvise les mondes ? »
Vladimir Jankélévitch


http://rvgmusic.bandcamp.com/
http://www.jamendo.com/fr/user/RVG95
http://bluedusk.blogspot.com/
Avatar
Achim Bombota
Le 14/05/2012 08:09, Paul Gaborit a écrit :

Évidemment, on peut synchroniser très précisement un métronome sur
chaque machine (les protocoles de synchronisation savent évaluer et
quasiment supprimer les latences de communications) et chaque musicien
joue alors sur la base de ce tempo. Mais, dans ce cas, même si les
musiciens jouent bien de manière synchrone, ils ne jouent pas ensemble :
c'est comme un orchestre de sourds... Ce n'est pas adapté à tous les
styles. ;-)




J'ai pas tout compris à vos histoires, je préfère le live, vous parlez
de temps de latence à la réception du musicien, le susnommé lag du
réseau à l'envoi LE + la distance du HP du receveur, vous oubliez de
rajouter le lag du réseau en retour LR et la distance du HP de
l'envoyeur. Les deux sont forcément différents selon le musicien et sa
localisation/atténuation. La distance au HP est franchement Donc si Paul
envoie sa note de basse il entendra la guitare de Georges avec un retard
de LE1+LR1, la voix de John avec LE2+LR2, et Ringo avec LE3+LR3. Et
chacun des musiciens entendra avec sa propre latence. Bref, même au
casque ça me ferait chier de jouer comme ça avec mes potes. Surtout
qu'on joue à 140 bpm.

--
" Tous les jours et à tous points de vue, je vais de mieux en mieux "
(Émile Coué)
Avatar
Achim Bombota
Le 16/05/2012 22:10, Achim Bombota a écrit :
Le 14/05/2012 08:09, Paul Gaborit a écrit :

Évidemment, on peut synchroniser très précisement un métronome sur
chaque machine (les protocoles de synchronisation savent évaluer et
quasiment supprimer les latences de communications) et chaque musicien
joue alors sur la base de ce tempo. Mais, dans ce cas, même si les
musiciens jouent bien de manière synchrone, ils ne jouent pas ensemble :
c'est comme un orchestre de sourds... Ce n'est pas adapté à tous les
styles. ;-)




J'ai pas tout compris à vos histoires, je préfère le live, vous parlez
de temps de latence à la réception du musicien, le susnommé lag du
réseau à l'envoi LE + la distance du HP du receveur, vous oubliez de
rajouter le lag du réseau en retour LR et la distance du HP de
l'envoyeur. Les deux sont forcément différents selon le musicien et sa
localisation/atténuation. La distance au HP est franchement Donc si Paul
envoie sa note de basse il entendra la guitare de Georges avec un retard
de LE1+LR1, la voix de John avec LE2+LR2, et Ringo avec LE3+LR3. Et
chacun des musiciens entendra avec sa propre latence. Bref, même au
casque ça me ferait chier de jouer comme ça avec mes potes. Surtout
qu'on joue à 140 bpm.




Correction (suite au lag)
La distance aux HP est franchement négligeable, on va pas faire un b½uf
sur internet à 30 mètres des HP.



--
" Tous les jours et à tous points de vue, je vais de mieux en mieux "
(Émile Coué)
Avatar
Pascal J. Bourguignon
Achim Bombota writes:

Le 14/05/2012 08:09, Paul Gaborit a écrit :

Évidemment, on peut synchroniser très précisement un métronome sur
chaque machine (les protocoles de synchronisation savent évaluer et
quasiment supprimer les latences de communications) et chaque musicien
joue alors sur la base de ce tempo. Mais, dans ce cas, même si les
musiciens jouent bien de manière synchrone, ils ne jouent pas ensemble :
c'est comme un orchestre de sourds... Ce n'est pas adapté à tous les
styles. ;-)




J'ai pas tout compris à vos histoires, je préfère le live, vous parlez
de temps de latence à la réception du musicien, le susnommé lag du
réseau à l'envoi LE + la distance du HP du receveur, vous oubliez de
rajouter le lag du réseau en retour LR et la distance du HP de
l'envoyeur. Les deux sont forcément différents selon le musicien et sa
localisation/atténuation. La distance au HP est franchement Donc si Paul
envoie sa note de basse il entendra la guitare de Georges avec un retard
de LE1+LR1, la voix de John avec LE2+LR2, et Ringo avec LE3+LR3. Et
chacun des musiciens entendra avec sa propre latence. Bref, même au
casque ça me ferait chier de jouer comme ça avec mes potes. Surtout
qu'on joue à 140 bpm.



Oui, mais c'est le même problème sur scène.

Si le batteur est à gauche, le basse à 5 m, et le guitariste à 10 m, ils
vont recevoir le rythme avec 15.625 ms de différence, soit 1/27 de
battement à 140 b/m.

Et le spectateur qui est 10 m en face du batteur va recevoir la guitare
avec 37.722 ms de décallage par rapport au tempo du batteur…

--
__Pascal Bourguignon__ http://www.informatimago.com/
A bad day in () is better than a good day in {}.
Avatar
RVG
Le 17/05/2012 01:34, Pascal J. Bourguignon a écrit :
Achim Bombota writes:

Le 14/05/2012 08:09, Paul Gaborit a écrit :

Évidemment, on peut synchroniser très précisement un métronome sur
chaque machine (les protocoles de synchronisation savent évaluer et
quasiment supprimer les latences de communications) et chaque musicien
joue alors sur la base de ce tempo. Mais, dans ce cas, même si les
musiciens jouent bien de manière synchrone, ils ne jouent pas ensemble :
c'est comme un orchestre de sourds... Ce n'est pas adapté à tous les
styles. ;-)




J'ai pas tout compris à vos histoires, je préfère le live, vous parlez
de temps de latence à la réception du musicien, le susnommé lag du
réseau à l'envoi LE + la distance du HP du receveur, vous oubliez de
rajouter le lag du réseau en retour LR et la distance du HP de
l'envoyeur. Les deux sont forcément différents selon le musicien et sa
localisation/atténuation. La distance au HP est franchement Donc si Paul
envoie sa note de basse il entendra la guitare de Georges avec un retard
de LE1+LR1, la voix de John avec LE2+LR2, et Ringo avec LE3+LR3. Et
chacun des musiciens entendra avec sa propre latence. Bref, même au
casque ça me ferait chier de jouer comme ça avec mes potes. Surtout
qu'on joue à 140 bpm.



Oui, mais c'est le même problème sur scène.

Si le batteur est à gauche, le basse à 5 m, et le guitariste à 10 m, ils
vont recevoir le rythme avec 15.625 ms de différence, soit 1/27 de
battement à 140 b/m.

Et le spectateur qui est 10 m en face du batteur va recevoir la guitare
avec 37.722 ms de décallage par rapport au tempo du batteur…




Problème résolu avec les enceintes de retour ou les écouteurs.

--
« Dieu n'est-il pas le poète suprême en tant qu'il improvise les mondes ? »
Vladimir Jankélévitch


http://rvgmusic.bandcamp.com/
http://www.jamendo.com/fr/user/RVG95
http://bluedusk.blogspot.com/
1 2 3