Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

La loi de Moore est elle encore valide ?

116 réponses
Avatar
ast
Bonjour

Mon premier PC avait 16 Mo de mémoire RAM
Mon deuxième PC avait 512 Mo de RAM, 32 fois plus que le précédent
Mon 3ème PC, l'actuel, a 4 Go de RAM, 8 fois plus que le précédent

Je garde mes PC 6 ou 7 ans, et ce sont au moment de l'achat des
PC "moyens".

Je commence à étudier l'achat d'un nouveau PC et je constate que la
mémoire des PC actuels "moyens" est de 8 Go
ça n'a que très peu évolué ces 6 ou 7 dernières années.

D'ou la question: La loi de Moore est elle encore valide ?

10 réponses

Avatar
François Guillet
Le 08/01/2017, ast a supposé :
Bonjour
Mon premier PC avait 16 Mo de mémoire RAM
Mon deuxième PC avait 512 Mo de RAM, 32 fois plus que le précédent
Mon 3ème PC, l'actuel, a 4 Go de RAM, 8 fois plus que le précédent
Je garde mes PC 6 ou 7 ans, et ce sont au moment de l'achat des
PC "moyens".
Je commence à étudier l'achat d'un nouveau PC et je constate que la
mémoire des PC actuels "moyens" est de 8 Go
ça n'a que très peu évolué ces 6 ou 7 dernières années.

J'ai eu la même surprise.
D'ou la question: La loi de Moore est elle encore valide ?

Elle est encore vérifiée. Le problème, c'est qu'à gamme équivalente,
les commerçants fournissent aujourd'hui des PC moins bien équipés,
l'euro étant passé de près de 1,40$ en 2010 à presque 1$ aujourd'hui.
Avatar
pehache
Le 13/01/2017 à 21:58, François Guillet a écrit :
Le 08/01/2017, ast a supposé :
Bonjour
Mon premier PC avait 16 Mo de mémoire RAM
Mon deuxième PC avait 512 Mo de RAM, 32 fois plus que le précédent
Mon 3ème PC, l'actuel, a 4 Go de RAM, 8 fois plus que le précédent
Je garde mes PC 6 ou 7 ans, et ce sont au moment de l'achat des
PC "moyens".
Je commence à étudier l'achat d'un nouveau PC et je constate que la
mémoire des PC actuels "moyens" est de 8 Go
ça n'a que très peu évolué ces 6 ou 7 dernières années.

J'ai eu la même surprise.
D'ou la question: La loi de Moore est elle encore valide ?

Elle est encore vérifiée.

Non, plus vraiment, en tous cas pas sur tout. Les gains de puissance
d'une génération à l'autre des core i3/i5/i7 par exemple sont de l'ordre
de 10-15%, 20% au mieux. C'était beaucoup plus il y a quelques années.
Le problème, c'est qu'à gamme équivalente, les
commerçants fournissent aujourd'hui des PC moins bien équipés, l'euro
étant passé de près de 1,40$ en 2010 à presque 1$ aujourd'hui.

Les grands fabricants de PC ont des gammes qu'ils vendent partout avec
les mêmes configs. Les ordis vendus aux US, par définition non affectés
par la parité $/¤, n'ont pas plus de RAM que ceux vendus en Europe.
Concernant la RAM, son prix au Go ne baisse pas si vite que ça, et
actuellement il est même en train d'augmenter (en $).
Avatar
Benoit-Pierre DEMAINE
On 11/01/17 18:27, pehache wrote:
Tu écrivais "depuis 10 ans". Or depuis 10 ans la taille des transistors a
bien diminué : c'est un fait établi, pas une propective.

Quand Intel a révolutionné le chipset pour lancer le P4, ils ont fait des
promesses: 10GHz dans 10 ans, sous entendu, par rédution de taille et
amélioration de la topologie interne du CPU. Ils ont promis que ce serait
le dernier grand changement de chipset, et l'avant dernier changement (ils
avaient annoncé que ce serait le dernier GRAND changement d'interface de
chipset, mais qu'il y en aurait un second plus petit pour pouvoir dépasser
les 10GHz).
Les 10 ans sont passés, et ils n'ont même pas atteint 5GHz. Donc, un bute
très sévèrement. Et le grand frein à l'amélioration des cadences, c'est
qu'on a de plus en plus de mal à réduire la taille des transistors: depuis
2005-2010, on arrive plus à réduire.
Certes, en fouinant, tu arrivera à trouver qu'un gratte quelques nm chaque
année; mais sur les 10 dernières années, on a beaucoup moins progressé sur
la taille des transistors, que sur les décénies précédentes: on bloque.
Le gain en performances se fait sur d'autres aspects.
Les compétences existent et existaient, c'est juste une question de prix
à y mettre pour embaucher les bons développeurs. Le problème du dev sur
PS3 était tout simplement économique : hors exclusivités, un éditeur
essaie de rentabiliser ses jeux sur plusieurs consoles et sur PC, donc
d'avoir une base de code générique en limitant autant que possible les
morceaux de code spécifiques à une console particulière. Or avec son
architecture très spécifique, la PS3 mettait à mal ce modèle.

Tu viens de dire que le marché du jeu dépend du fait que toutes les
consoles soient identiques ? Et que ce sont les éditeurs qui incitent les
constructeurs à tout fabriquer la même chose ? et que tout constructeur
qui va tenter un peu d'innovation, et de divergence d'archi se verra boudé
par les éditeurs de jeux ?
Ca expliquerait la disparition de toutes les "architectures alternatives",
et pas que dans le monde du jeu (consoles portables, serveurs).
Le seul contre exemple, c'est ARM en mobilité; parce qu'ils ont créé leur
propre segment de marché; dans un secteur vierge de toute concurrence.
D'ailleurs c'est rigolo de voir les logiciels du monde mobile
progressivement portés vers les stations stations.
--
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/

If computing were an exact science, IT engineers would'nt have work _o<
"So all that's left, Is the proof that love's not only blind but deaf."
(FAKE TALES OF SAN FRANCISCO, Arctic Monkeys)
Avatar
Benoit-Pierre DEMAINE
On 13/01/17 08:41, FRITE wrote:
Le 09/01/2017 à 18:48, Benoit-Pierre DEMAINE a écrit :
La question de départ porte sur les barrettes de RAM mais votre remarque
sur les processeurs m'interroge.

La loi de moore vient d'une époque ou l'essentiel de la puissance d'une
machine dépendait de la cadence CPU ... qui dépendant de la densité de
transistors; et donc, presque directement de la taille d'un transistor.
Hors, le monde a changé; et, si la loi de moore n'est plus valide dans son
expression technique initiale, elle peut le rester en grande partie si on
l'adapte aux nouveaux enjeux.
De plus, les processeurs ont de plus en plus de circuits spécialisés; on
ajoute des transistors, pour leur faire faire des taches spécifiques; donc
le pourcentage de transistors utilisés par un CPU à un moment donné ...

Pour un CPU oui mais pour les RAM????
la mémoire vive dynamique doit être réactualisée périodiquement pour
éviter la perte d'information;

C'est là que je vais dévier sur un nouvel usage intensif des transistors.
Car, il y a une technologie très récente, qui n'existait pas à l'époque de
Moore, qui a BEAUCOUP évoluée depuis 20 ans, et dont l'évolution a façonné
notre monde récent: la FLASH. La flash se situe pas vraiment entre la RAM
et le CPU; mais un peu en marge des deux. Et son évolution a tout changé.
Impossible de construire un téléphone sans FLASH. Ni modem, voiture ...
absolument tous les oridnateurs embarqués dépendent à 100% d'une flash;
dès les voitures de 1985.
Leur densité et leur cout ont évolué de manière fabuleuse depuis 15 ans.
Avec plusieurs bonds. Et ça a été un facteur clé pour la technologie en cours.
Mais, que ce soit une flash ou une RAM, l'utilisateur a l'opportunité
d'exploiter 99.999% des transistors achetés; effectivement, la perte que
j'ai évoquée pour les CPU, est négligeable sur une mémoire. Le circuit de
refresh d'une SDRAM n'est pas gros. Et sa taille est très stable dans le
temps. On ne paye pas pour des transistors inutiles.
diminue année par année. Avec les années, ton ordinateur coute moins
chère, contient plus de transistors, mais le nombre de transistors
utilisés est stable; ce qui augmente, c'est le nombre de transistors
inutilisés. Donc encore heureux que les prix ne montent pas; ce serait
dommage que tu paye plus chère, pour augmenter la quantité de transistors
que tu n'utilise pas :D

Pour des raison thermique sommes nous capables de faire fonctionner ses
processeurs en utilisant tous les transistors en même temps?

Il est strictement impossible d'utiliser tous les transistors
simultanément. En x86, un core fait une seule opération à la fois; pour
simplifier, tu va soit faire une multiplication, soit une soustraction
(pour citer des sous circuits réellement concurrents: la division utilise
le module de multiplication; et le module multiplication utilise
l'addition). Ensuite, depuis les 686, tu as des modules pour des fonctions
de trigo, comme les calculs de tan, ou cos. Qui vont utiliser les modules
d'addition; mais tan et cos sont concurrents entre eux.
Et de nos jours, tu as les algorythmes de crypto AES codés en hard, en
transistors. Ton logiciel s'execute de manière mono-tache sur un core
donné. Il fera soit un calcul de cosinus, soit un calcul AES. La structure
du gestionnaire d'instruction ne peut pas faire les deux simultanément. Tu
pourrais, sur d'autres archis; des trucs pas x86. Des architectures qui
représentent moins de 0.01% du marché mondial.
Donc, la conception thermique du boiter tient compte de ces limites.
Ensuite, Intel et AMD tiennent compte d'autres choses. Ils font des
calculs compliqués sur les codes binaires des principaux editeurs de
logiciels; et regardent quelles sont les instructions les plus utilisées.
Le processeur a des instructions qui vont consommer plus que d'autres;
elles vont générer des pics de chaleur; mais, elles ne sont pas executées
plusieurs milliers de fois de suite; elles sont entre-coupées
d'instructions "moins chaudes". Donc ils font des moyennes statistiques
pour que ça se passe bien.
Et si tu force un peu trop, depuis 2005-2008 tu as des protections
thermiques pour ralentir la fréquence en cas de surchauffe. Et là, c'est
l'utilisateur qui choisit:
- mettre le meilleur CPU du marché dans un boitier hors de prix avec une
dissipation de malade
- avoir un CPU moyen qu'il peut pousser durant quelques secondes, de temps
en temps; si il veut jouer avec les grosses instructions durant plusieurs
minutes dans une machine mal dissipée, le CPU va réduire sa fréquence
avant que ça se passe mal.
AMD l'a mis en place 3-5 ans après Intel; ça m'a couté un K7 à une époque
ou plus aucun Intel ne cramait pour raison thermique.
La consommation électrique d'une unité de calcul de type MOS se fait sur
le front d'horloge. L'énergie absorbée est fixe, par front. Pour un front,
elle dépend de la surface d'un transistor (plus c'est gros, plus il faut
d'électrons pour saturer les plaques capacitives des MOS). Donc pour un
processeur donné, elle est fixe par front d'horloge. Tu pourrais t'amuser
à piloter une unité de calcul front d'horloge par front d'horloge; d'un
point de vue calculatoire, ça fonctionnerait. Mais avec une infinité
d'effets de bord sur le reste de la machine (synchro avec le bus; gestion
du temps civile ...). Donc depuis 2010 la fréquence d'horloge doit être
stable durant une grosse fraction de seconde; et tout changement de
fréquence doit se faire avec la coordination de pas mal de monde; c'est
une chose que le CPU ne décide pas à la légère, et qui se négocie avec les
puces autour de lui.
Même le module de sécurité thermique intervient en collaboration avec tout
le monde. Il a des palliers:
- attention les gars, ça chauffe
- attention, il fait TRES CHAUD, on ralentis (ça rame)
- surchauffe critique, on coupe tout (freeze).
Les RAM n'ont elle pas la même consommation indépendamment de leur
utilisation car elles sont rafraichies en permanences?

Ca dépend des brevets. Donc, variable selon les marques. Je ne suis pas au
fait des nouveautés, mais je sais que, les "RAM"s, ça dépend.
Et pour les SDRAM aussi; même à l'intérieur de ce cas particulier, il y a
des variations.
Certains brevets font des statistiques des zones utilisées, et peuvent
ralentir le rafraichissement quand elles peuvent. Ou procéder à un
rafraichissement d'un type différent.
En particulier, quand tu fais un "suspend to RAM", ou tu va éteindre le
disque dur, le CPU, et la majorité des bus, en conservant tes données en
SDRAM (avec un réveil en moins de 1s, au détail près du redémarrage du
disque dur), je sais que la SDRAM (qui doit continuer le refresh dont tu
parles) va changer de mode de fonctionnement ... pour consommer moins,
sans mettre les données en danger.
Je peux pas te dire qui, ni comment; mais, la réponse à te question est
clairement négative.
Pour les RAM (mémoire vive dynamique) les problèmes thermiques sont ils
une limitation pour l'augmentation leurs capacités ?

Je pense que non.
Une barrette de RAM coute presque aussi chère qu'un CPU. Sur un CPU, tu
monte un dissipateur qui coute une fortune. On est passé d'un 286 passif,
à des machins (dont j'ignore les noms modernes) ou faut monter des blocs
de 800g avec double ventillo ... dont le cout est un gros pourcentage du
CPU. Un gamer qui veut du CPU, sait qu'en plus du CPU, il devra financer
le bloc de dissipation.
Donc, j'imagine que si on construisait des RAMs aux performances
diaboliques, il n'y aurait pas de soucis de dire à l'utilisateur "je te
vends des perf terribles, mais tu devra rajouter 50% de tarif en
dissipation non fournie".
Je l'ai vu dans des serveurs Sun. Chaque barette de RAM avait un énorme
radiateur en alu collé; et les battettes étaient placées sur la carte mère
de sorte d'être alignées avec un ventillo du chassis. La machine est donc
globalement conçue pour dissiper la RAM (même si le ventillo n'est pas
vissé sur la barrette, une panne de ventillo tue la RAM en quelques minutes).
Je l'ai vu dans des serveurs Dell. Des machines x86. Avec des barettes de
RAM sans dissipateur; mais avec des déflecteurs en plastique pour
certifier une circulation d'air sur les RAMs.
A une époque, c'était un soucis chez Apple.
Dans certains PC portables, les RAMs ont un heat-pad vers les toles de
chassis.
Et je ne parlais que des SDRAM de CPU.
La RAM des GPU, elles, ça fait très longtemps qu'elle est très dissipée.
Dans une carte graphique, la RAM dissipe presque autant que le GPU.
Donc, tant qu'on continue de vendre des barrettes de mémoire centrale,
passives, sans radiateur ni ventillo, c'est qu'on est très loin de leurs
limites.
Ca fait partie des upgrades connues. J'ai eu une calculatrice (HP48GX) qui
était overclocable; et quand on voulait vraiment pousser le CPU (un Saturn
en 4b sur un bus 8b; une usine à gaz) à fond, il fallait absolument mettre
des dissipateurs sur le processeur graphique, et les RAMs.
Dans les très gros serveurs (les machines ou tu as 1024 CPU et plusieurs
TB de RAM dans une armoire de 2m de haut), tout ça est dissipé au liquide
caloporteur. Dans mes archives, j'ai une photo d'une baie avec une
centaine de racks de CPU; les racks ont les prises de communication au
fond vers le panier; et une fois le rack enfiché, devant, tu dois brancher
les tuyaux ...
http://www.infosuroit.com/ovh-en-amerique-depuis-beauharnois-30000-serveurs-en-2013/
"serveurs refroidis par liquide"
https://www.ovh.com/fr/a1141.datacenter-ovh-gravelines
Ici la RAM est à l'air.
Mais dans les TRES gros serveurs, elle est dissipée comme un CPU.
Ce sont des transistors comme les autres ...
--
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/

If computing were an exact science, IT engineers would'nt have work _o<
"So all that's left, Is the proof that love's not only blind but deaf."
(FAKE TALES OF SAN FRANCISCO, Arctic Monkeys)
Avatar
pehache
Le 14/01/2017 à 00:37, Benoit-Pierre DEMAINE a écrit :
On 11/01/17 18:27, pehache wrote:
Tu écrivais "depuis 10 ans". Or depuis 10 ans la taille des transistors a
bien diminué : c'est un fait établi, pas une propective.

Quand Intel a révolutionné le chipset pour lancer le P4, ils ont fait des
promesses: 10GHz dans 10 ans, sous entendu, par rédution de taille et
amélioration de la topologie interne du CPU. Ils ont promis que ce serait
le dernier grand changement de chipset, et l'avant dernier changement (ils
avaient annoncé que ce serait le dernier GRAND changement d'interface de
chipset, mais qu'il y en aurait un second plus petit pour pouvoir dépasser
les 10GHz).
Les 10 ans sont passés, et ils n'ont même pas atteint 5GHz. Donc, un bute
très sévèrement. Et le grand frein à l'amélioration des cadences, c'est
qu'on a de plus en plus de mal à réduire la taille des transistors: depuis
2005-2010, on arrive plus à réduire.
Certes, en fouinant, tu arrivera à trouver qu'un gratte quelques nm chaque
année; mais sur les 10 dernières années, on a beaucoup moins progressé sur
la taille des transistors, que sur les décénies précédentes: on bloque.
Le gain en performances se fait sur d'autres aspects.

Franchement, que de blabla pour ne pas reconnaître que tu as écrit un
truc faux. Tu as bien écrit initialement que depuis 10 ans on ne pouvait
plus réduire la taille, pas qu'on avait beaucoup moins progressé.
Toi : "Depuis 10 ans, ayant atteint l'échelle atomique, on ne peut plus
réduire la dimension d'un transistor"
Ast :
10 µm (1971) · 3 µm (1975) · 1,5 µm (1982) · 1 µm (1985) ·
800 nm (1989) · 600 nm (1994) · 350 nm (1995) · 250 nm (1997) ·
180 nm (1999) ·130 nm (2002) · 90 nm (2004) · 65 nm (2006) ·
45 nm (2008) · 32 nm (2010) · 22 nm (2012) · 14 nm (2014) ·
10 nm (2016-2017)
Les compétences existent et existaient, c'est juste une question de prix
à y mettre pour embaucher les bons développeurs. Le problème du dev sur
PS3 était tout simplement économique : hors exclusivités, un éditeur
essaie de rentabiliser ses jeux sur plusieurs consoles et sur PC, donc
d'avoir une base de code générique en limitant autant que possible les
morceaux de code spécifiques à une console particulière. Or avec son
architecture très spécifique, la PS3 mettait à mal ce modèle.

Tu viens de dire que le marché du jeu dépend du fait que toutes les
consoles soient identiques ?

Suffisamment similaires pour que le portage du code d'une console à
l'autre ne soit pas trop compliqué, oui.
Et que ce sont les éditeurs qui incitent les
constructeurs à tout fabriquer la même chose ? et que tout constructeur
qui va tenter un peu d'innovation, et de divergence d'archi se verra boudé
par les éditeurs de jeux ?

C'est bien ce qui s'est passé avec la PS3. Elle n'a pas forcément été
"boudée" mais certains jeux n'exploitaient pas toutes ses possibilités.
Ca expliquerait la disparition de toutes les "architectures alternatives",
et pas que dans le monde du jeu (consoles portables, serveurs).

C'est logique, la standardisation d'un marché permet de grandes
économies d'échelle.
Le seul contre exemple, c'est ARM en mobilité; parce qu'ils ont créé leur
propre segment de marché; dans un secteur vierge de toute concurrence.

Oui.
D'ailleurs c'est rigolo de voir les logiciels du monde mobile
progressivement portés vers les stations stations.

Ca n'a rien à voir.
Avatar
pehache
Le 14/01/2017 à 01:36, Benoit-Pierre DEMAINE a écrit :
C'est là que je vais dévier sur un nouvel usage intensif des transistors.
Car, il y a une technologie très récente, qui n'existait pas à l'époque de
Moore, qui a BEAUCOUP évoluée depuis 20 ans, et dont l'évolution a façonné
notre monde récent: la FLASH. La flash se situe pas vraiment entre la RAM
et le CPU; mais un peu en marge des deux.

Ca veut dire quoi "en marge des deux" ?? La mémoire flash n'est pas de
la RAM et n'a rien à voir avec un CPU, c'est tout.
En x86, un core fait une seule opération à la fois; pour
simplifier, tu va soit faire une multiplication, soit une soustraction
(pour citer des sous circuits réellement concurrents: la division utilise
le module de multiplication; et le module multiplication utilise
l'addition).

Tu as pris un mauvais exemple, car les x86 (comme de nombreux autres
processeurs) savent faire une opération de type
y = a*x+b
en un seul cycle d'horloge.
Une barrette de RAM coute presque aussi chère qu'un CPU.

Pas du tout. Ou alors il faut préciser une barette de quelle capacité
comparée à un CPU de quel puissance. Une barette de 16Go de RAM ECC va
certes coûter plus cher qu'un Celeron, mais en règle générale sur les
configs standards de PC vendus par les fabricants, le prix du CPU qui
est dedans est nettement supérieur au prix de la RAM installée.
Avatar
Pascal Hambourg
Le 11/01/2017 à 18:09, pehache a écrit :
Ca a toujours été le cas, la RAM disponible à un instant satisfaisait
toujours 95% des utilisateurs, seuls 5% de geeks en voulaient plus.

Je ne suis pas d'accord.
Je me rappelle m'être régulièrement retrouvé dans la situation où la
quantité de RAM des PC standard n'était pas suffisante pour faire
tourner confortablement les versions de Windows et les logiciels
courants contemporains et le swap était indispensable et lourdement
sollicité. Ce n'est plus le cas maintenant.
Avatar
FRITE
Le 14/01/2017 à 08:47, pehache a écrit :
Le 14/01/2017 à 00:37, Benoit-Pierre DEMAINE a écrit :
On 11/01/17 18:27, pehache wrote:
Tu écrivais "depuis 10 ans". Or depuis 10 ans la taille des
transistors a
bien diminué : c'est un fait établi, pas une propective.

Quand Intel a révolutionné le chipset pour lancer le P4, ils ont fait des
promesses: 10GHz dans 10 ans, sous entendu, par rédution de taille et
amélioration de la topologie interne du CPU. Ils ont promis que ce serait
le dernier grand changement de chipset, et l'avant dernier changement
(ils
avaient annoncé que ce serait le dernier GRAND changement d'interface de
chipset, mais qu'il y en aurait un second plus petit pour pouvoir
dépasser
les 10GHz).
Les 10 ans sont passés, et ils n'ont même pas atteint 5GHz. Donc, un bute
très sévèrement. Et le grand frein à l'amélioration des cadences, c'est
qu'on a de plus en plus de mal à réduire la taille des transistors:
depuis
2005-2010, on arrive plus à réduire.
Certes, en fouinant, tu arrivera à trouver qu'un gratte quelques nm
chaque
année; mais sur les 10 dernières années, on a beaucoup moins progressé
sur
la taille des transistors, que sur les décénies précédentes: on bloque.
Le gain en performances se fait sur d'autres aspects.

Franchement, que de blabla pour ne pas reconnaître que tu as écrit un
truc faux. Tu as bien écrit initialement que depuis 10 ans on ne pouvait
plus réduire la taille, pas qu'on avait beaucoup moins progressé.
Toi : "Depuis 10 ans, ayant atteint l'échelle atomique, on ne peut plus
réduire la dimension d'un transistor"
Ast :
10 µm (1971) · 3 µm (1975) · 1,5 µm (1982) · 1 µm (1985) ·
800 nm (1989) · 600 nm (1994) · 350 nm (1995) · 250 nm (1997) ·
180 nm (1999) ·130 nm (2002) · 90 nm (2004) · 65 nm (2006) ·
45 nm (2008) · 32 nm (2010) · 22 nm (2012) · 14 nm (2014) ·
10 nm (2016-2017)

Tu as raison la gravure progresse encore mais cette finesse de gravure
ne se traduit plus par une augmentation équivalente de la vitesse des
processeurs.
https://fr.wikipedia.org/wiki/Microprocesseur
En 2007 3 Ghz en 2015 4 Ghz
Avatar
Jo Engo
Le Sat, 14 Jan 2017 01:36:29 +0100, Benoit-Pierre DEMAINE a écrit :
Hors,

En, c'est mieux tdp, c'est or (et sans virgule sjnma). Hors, hors
contexte est très laid
<3 Grammar nazi
--
Et puis nous y pouvons apprendre,
Que tel est pris qui croyait prendre.
-+- Jean de La Fontaine (1621-1695),
Le Rat et l'Huître (Fables VIII.9) -+-
Avatar
DV
Jo Engo a écrit ceci :
En, c'est mieux tdp,

Cékoidonc, tdp ?
c'est or (et sans virgule sjnma).

Mon excellent ami Dournon me souffle ceci :
« *OR* conj. Faisant ressortir ce qui va suivre, *or* est généralement
suivi d'une virgule. »
Je solliciterais volontiers la contre-expertise de mon non moins
excellent ami Thomas, si je pouvais remettre la main dessus. ;-)
--
Denis