fgrep root /media/yamo/racine/etc/shadow
root:*:16482:0:99999:7:::
Et il a été modifié hier matin (sûrement à initiative du système ; je
n'ai pas touché aux comptes).
ls -al --full-time /media/yamo/racine/etc/shadow
-rw-r----- 1 root shadow 1806 2018-08-26 09:32:58.739999998 +0200
/media/yamo/racine/etc/shadow
Je vais lire les docs...
J'ai enlevé le * en deuxième position.
Je peux maintenant accéder à la console...
fgrep root /media/yamo/racine/etc/shadow
root:*:16482:0:99999:7:::
Et il a été modifié hier matin (sûrement à initiative du système ; je
n'ai pas touché aux comptes).
ls -al --full-time /media/yamo/racine/etc/shadow
-rw-r----- 1 root shadow 1806 2018-08-26 09:32:58.739999998 +0200
/media/yamo/racine/etc/shadow
Je vais lire les docs...
J'ai enlevé le * en deuxième position.
Je peux maintenant accéder à la console...
fgrep root /media/yamo/racine/etc/shadow
root:*:16482:0:99999:7:::
Et il a été modifié hier matin (sûrement à initiative du système ; je
n'ai pas touché aux comptes).
ls -al --full-time /media/yamo/racine/etc/shadow
-rw-r----- 1 root shadow 1806 2018-08-26 09:32:58.739999998 +0200
/media/yamo/racine/etc/shadow
Je vais lire les docs...
J'ai enlevé le * en deuxième position.
Je peux maintenant accéder à la console...
Comme info complémentaire le fichier /ect/fstab :
proc /proc proc defaults 0 0
/dev/mmcblk0p5 /boot vfat defaults 0 2
/dev/sda1 / ext4 relatime,errors=remount-ro 0 1
#/dev/mmcblk-1p6 / ext4 defaults,noatime 0 1
/dev/mapper/sda2_crypt none swap sw 0 0
#/dev/mapper/sda3_crypt /media/sda3_crypt ext4 defaults,noatime 0 1
#/media/sda3_crypt/spool /var/spool none bind
/dev/mapper/VgData-LvVarSpool /var/spool ext4 rw 0 0
/dev/mapper/VgData-LvDataHome /home ext4 rw 0 0
tmpfs /tmp tmpfs defaults,noatime,nosuid,nodev,noexec,mode77 0 0
###### A tester :
#/dev/mapper/VgData-LvDataBackup /backup ext4 rw 0 0
/dev/mapper/VgData-LvSwap2 none swap sw 0 0
La première ligne avec /proc m'étonne beaucoup ...
Comme info complémentaire le fichier /ect/fstab :
proc /proc proc defaults 0 0
/dev/mmcblk0p5 /boot vfat defaults 0 2
/dev/sda1 / ext4 relatime,errors=remount-ro 0 1
#/dev/mmcblk-1p6 / ext4 defaults,noatime 0 1
/dev/mapper/sda2_crypt none swap sw 0 0
#/dev/mapper/sda3_crypt /media/sda3_crypt ext4 defaults,noatime 0 1
#/media/sda3_crypt/spool /var/spool none bind
/dev/mapper/VgData-LvVarSpool /var/spool ext4 rw 0 0
/dev/mapper/VgData-LvDataHome /home ext4 rw 0 0
tmpfs /tmp tmpfs defaults,noatime,nosuid,nodev,noexec,mode77 0 0
###### A tester :
#/dev/mapper/VgData-LvDataBackup /backup ext4 rw 0 0
/dev/mapper/VgData-LvSwap2 none swap sw 0 0
La première ligne avec /proc m'étonne beaucoup ...
Comme info complémentaire le fichier /ect/fstab :
proc /proc proc defaults 0 0
/dev/mmcblk0p5 /boot vfat defaults 0 2
/dev/sda1 / ext4 relatime,errors=remount-ro 0 1
#/dev/mmcblk-1p6 / ext4 defaults,noatime 0 1
/dev/mapper/sda2_crypt none swap sw 0 0
#/dev/mapper/sda3_crypt /media/sda3_crypt ext4 defaults,noatime 0 1
#/media/sda3_crypt/spool /var/spool none bind
/dev/mapper/VgData-LvVarSpool /var/spool ext4 rw 0 0
/dev/mapper/VgData-LvDataHome /home ext4 rw 0 0
tmpfs /tmp tmpfs defaults,noatime,nosuid,nodev,noexec,mode77 0 0
###### A tester :
#/dev/mapper/VgData-LvDataBackup /backup ext4 rw 0 0
/dev/mapper/VgData-LvSwap2 none swap sw 0 0
La première ligne avec /proc m'étonne beaucoup ...
Le 2018-08-27, yamo' nous expliquait dans
fr.comp.os.linux.configuration
(<5b83b595$0$20343$) :fgrep root /media/yamo/racine/etc/shadow
root:*:16482:0:99999:7:::
Et il a été modifié hier matin (sûrement à initiative du système ; je
n'ai pas touché aux comptes).
ls -al --full-time /media/yamo/racine/etc/shadow
-rw-r----- 1 root shadow 1806 2018-08-26 09:32:58.739999998 +0200
/media/yamo/racine/etc/shadow
Je vais lire les docs...
J'ai enlevé le * en deuxième position.
Je peux maintenant accéder à la console...
Logique puisque dorénavant le compte root n'a plus de mot de passe mais
conserve son autorisation d'accès.
Il faudra donc bien penser à remettre tout ça dans l'ordre ;-)
Le 2018-08-27, yamo' nous expliquait dans
fr.comp.os.linux.configuration
(<5b83b595$0$20343$426a74cc@news.free.fr>) :
fgrep root /media/yamo/racine/etc/shadow
root:*:16482:0:99999:7:::
Et il a été modifié hier matin (sûrement à initiative du système ; je
n'ai pas touché aux comptes).
ls -al --full-time /media/yamo/racine/etc/shadow
-rw-r----- 1 root shadow 1806 2018-08-26 09:32:58.739999998 +0200
/media/yamo/racine/etc/shadow
Je vais lire les docs...
J'ai enlevé le * en deuxième position.
Je peux maintenant accéder à la console...
Logique puisque dorénavant le compte root n'a plus de mot de passe mais
conserve son autorisation d'accès.
Il faudra donc bien penser à remettre tout ça dans l'ordre ;-)
Le 2018-08-27, yamo' nous expliquait dans
fr.comp.os.linux.configuration
(<5b83b595$0$20343$) :fgrep root /media/yamo/racine/etc/shadow
root:*:16482:0:99999:7:::
Et il a été modifié hier matin (sûrement à initiative du système ; je
n'ai pas touché aux comptes).
ls -al --full-time /media/yamo/racine/etc/shadow
-rw-r----- 1 root shadow 1806 2018-08-26 09:32:58.739999998 +0200
/media/yamo/racine/etc/shadow
Je vais lire les docs...
J'ai enlevé le * en deuxième position.
Je peux maintenant accéder à la console...
Logique puisque dorénavant le compte root n'a plus de mot de passe mais
conserve son autorisation d'accès.
Il faudra donc bien penser à remettre tout ça dans l'ordre ;-)
Doug713705 a écrit le 27/08/2018 à 10:33 :Le 2018-08-27, yamo' nous expliquait dans
fr.comp.os.linux.configuration
(<5b83b595$0$20343$) :fgrep root /media/yamo/racine/etc/shadow
root:*:16482:0:99999:7:::
Et il a été modifié hier matin (sûrement à initiative du système ; je
n'ai pas touché aux comptes).
ls -al --full-time /media/yamo/racine/etc/shadow
-rw-r----- 1 root shadow 1806 2018-08-26 09:32:58.739999998 +0200
/media/yamo/racine/etc/shadow
Je vais lire les docs...
J'ai enlevé le * en deuxième position.
Je peux maintenant accéder à la console...
Logique puisque dorénavant le compte root n'a plus de mot de passe mais
conserve son autorisation d'accès.
Il faudra donc bien penser à remettre tout ça dans l'ordre ;-)
Oui, après c'est uniquement accessible en console non?
Quand je fais un ls /dev/mapper je n'ai que control forcément ça n'aide
pas à monter le système...
J'ai tenté d'afficher les Volumes Groupes avec vgs
J'ai pleins de fois :
WARNING: Device /ram0 not initialized un udev database even after
1000000 microseconds
de ram0 à ram15 avec aussi les devices connus de la carte sd
Et à la fin étrangement il me donne la bonne utilisation de VgData...
lvs me donne les bonnes réponses!
Va falloir que j'écrive à la main les règles udev pour remettre à la
bonne place les /ramX <-> /dev/mappper/machinchose?
Comme je peux monter le système de fichier sur un autre ordi y a
peut-être moyen de demander à udev d'écrire un fichier de conf pour son
confrère udev du raspberry?
Doug713705 a écrit le 27/08/2018 à 10:33 :
Le 2018-08-27, yamo' nous expliquait dans
fr.comp.os.linux.configuration
(<5b83b595$0$20343$426a74cc@news.free.fr>) :
fgrep root /media/yamo/racine/etc/shadow
root:*:16482:0:99999:7:::
Et il a été modifié hier matin (sûrement à initiative du système ; je
n'ai pas touché aux comptes).
ls -al --full-time /media/yamo/racine/etc/shadow
-rw-r----- 1 root shadow 1806 2018-08-26 09:32:58.739999998 +0200
/media/yamo/racine/etc/shadow
Je vais lire les docs...
J'ai enlevé le * en deuxième position.
Je peux maintenant accéder à la console...
Logique puisque dorénavant le compte root n'a plus de mot de passe mais
conserve son autorisation d'accès.
Il faudra donc bien penser à remettre tout ça dans l'ordre ;-)
Oui, après c'est uniquement accessible en console non?
Quand je fais un ls /dev/mapper je n'ai que control forcément ça n'aide
pas à monter le système...
J'ai tenté d'afficher les Volumes Groupes avec vgs
J'ai pleins de fois :
WARNING: Device /ram0 not initialized un udev database even after
1000000 microseconds
de ram0 à ram15 avec aussi les devices connus de la carte sd
Et à la fin étrangement il me donne la bonne utilisation de VgData...
lvs me donne les bonnes réponses!
Va falloir que j'écrive à la main les règles udev pour remettre à la
bonne place les /ramX <-> /dev/mappper/machinchose?
Comme je peux monter le système de fichier sur un autre ordi y a
peut-être moyen de demander à udev d'écrire un fichier de conf pour son
confrère udev du raspberry?
Doug713705 a écrit le 27/08/2018 à 10:33 :Le 2018-08-27, yamo' nous expliquait dans
fr.comp.os.linux.configuration
(<5b83b595$0$20343$) :fgrep root /media/yamo/racine/etc/shadow
root:*:16482:0:99999:7:::
Et il a été modifié hier matin (sûrement à initiative du système ; je
n'ai pas touché aux comptes).
ls -al --full-time /media/yamo/racine/etc/shadow
-rw-r----- 1 root shadow 1806 2018-08-26 09:32:58.739999998 +0200
/media/yamo/racine/etc/shadow
Je vais lire les docs...
J'ai enlevé le * en deuxième position.
Je peux maintenant accéder à la console...
Logique puisque dorénavant le compte root n'a plus de mot de passe mais
conserve son autorisation d'accès.
Il faudra donc bien penser à remettre tout ça dans l'ordre ;-)
Oui, après c'est uniquement accessible en console non?
Quand je fais un ls /dev/mapper je n'ai que control forcément ça n'aide
pas à monter le système...
J'ai tenté d'afficher les Volumes Groupes avec vgs
J'ai pleins de fois :
WARNING: Device /ram0 not initialized un udev database even after
1000000 microseconds
de ram0 à ram15 avec aussi les devices connus de la carte sd
Et à la fin étrangement il me donne la bonne utilisation de VgData...
lvs me donne les bonnes réponses!
Va falloir que j'écrive à la main les règles udev pour remettre à la
bonne place les /ramX <-> /dev/mappper/machinchose?
Comme je peux monter le système de fichier sur un autre ordi y a
peut-être moyen de demander à udev d'écrire un fichier de conf pour son
confrère udev du raspberry?
Le 2018-08-27, yamo' nous expliquait dans
fr.comp.os.linux.configuration
(<5b83b9e0$0$15493$) :Doug713705 a écrit le 27/08/2018 à 10:33 :Le 2018-08-27, yamo' nous expliquait dans
fr.comp.os.linux.configuration
(<5b83b595$0$20343$) :fgrep root /media/yamo/racine/etc/shadow
root:*:16482:0:99999:7:::
Et il a été modifié hier matin (sûrement à initiative du système ; je
n'ai pas touché aux comptes).
ls -al --full-time /media/yamo/racine/etc/shadow
-rw-r----- 1 root shadow 1806 2018-08-26 09:32:58.739999998 +0200
/media/yamo/racine/etc/shadow
Je vais lire les docs...
J'ai enlevé le * en deuxième position.
Je peux maintenant accéder à la console...
Logique puisque dorénavant le compte root n'a plus de mot de passe mais
conserve son autorisation d'accès.
Il faudra donc bien penser à remettre tout ça dans l'ordre ;-)
Oui, après c'est uniquement accessible en console non?
Quand je fais un ls /dev/mapper je n'ai que control forcément ça n'aide
pas à monter le système...
J'ai tenté d'afficher les Volumes Groupes avec vgs
J'ai pleins de fois :
WARNING: Device /ram0 not initialized un udev database even after
1000000 microseconds
de ram0 à ram15 avec aussi les devices connus de la carte sd
Et à la fin étrangement il me donne la bonne utilisation de VgData...
lvs me donne les bonnes réponses!
Va falloir que j'écrive à la main les règles udev pour remettre à la
bonne place les /ramX <-> /dev/mappper/machinchose?
Ça semble peu probable.Comme je peux monter le système de fichier sur un autre ordi y a
peut-être moyen de demander à udev d'écrire un fichier de conf pour son
confrère udev du raspberry?
Ça, par contre, ressemble à la pire solution jamais envisagée :)
Ce que tu peux faire:
- Rescanner le PV, VG et LV de manière à faire revenir les dev.
L'option --mknodes te permettra de recréer les dev nodes manquants (c'est
souvent ça qui pose problème lorsque 'on joue avec LVM) mais la commande
ci-dessous devrait se charger de tout:
# vgchange -ay
Je dis ça de mémoire et sans connaître ta machine.
Ceci dit, cette commande devrait être inoffensive, elle ne fait que
raffraîchir les VG.
Le 2018-08-27, yamo' nous expliquait dans
fr.comp.os.linux.configuration
(<5b83b9e0$0$15493$426a74cc@news.free.fr>) :
Doug713705 a écrit le 27/08/2018 à 10:33 :
Le 2018-08-27, yamo' nous expliquait dans
fr.comp.os.linux.configuration
(<5b83b595$0$20343$426a74cc@news.free.fr>) :
fgrep root /media/yamo/racine/etc/shadow
root:*:16482:0:99999:7:::
Et il a été modifié hier matin (sûrement à initiative du système ; je
n'ai pas touché aux comptes).
ls -al --full-time /media/yamo/racine/etc/shadow
-rw-r----- 1 root shadow 1806 2018-08-26 09:32:58.739999998 +0200
/media/yamo/racine/etc/shadow
Je vais lire les docs...
J'ai enlevé le * en deuxième position.
Je peux maintenant accéder à la console...
Logique puisque dorénavant le compte root n'a plus de mot de passe mais
conserve son autorisation d'accès.
Il faudra donc bien penser à remettre tout ça dans l'ordre ;-)
Oui, après c'est uniquement accessible en console non?
Quand je fais un ls /dev/mapper je n'ai que control forcément ça n'aide
pas à monter le système...
J'ai tenté d'afficher les Volumes Groupes avec vgs
J'ai pleins de fois :
WARNING: Device /ram0 not initialized un udev database even after
1000000 microseconds
de ram0 à ram15 avec aussi les devices connus de la carte sd
Et à la fin étrangement il me donne la bonne utilisation de VgData...
lvs me donne les bonnes réponses!
Va falloir que j'écrive à la main les règles udev pour remettre à la
bonne place les /ramX <-> /dev/mappper/machinchose?
Ça semble peu probable.
Comme je peux monter le système de fichier sur un autre ordi y a
peut-être moyen de demander à udev d'écrire un fichier de conf pour son
confrère udev du raspberry?
Ça, par contre, ressemble à la pire solution jamais envisagée :)
Ce que tu peux faire:
- Rescanner le PV, VG et LV de manière à faire revenir les dev.
L'option --mknodes te permettra de recréer les dev nodes manquants (c'est
souvent ça qui pose problème lorsque 'on joue avec LVM) mais la commande
ci-dessous devrait se charger de tout:
# vgchange -ay
Je dis ça de mémoire et sans connaître ta machine.
Ceci dit, cette commande devrait être inoffensive, elle ne fait que
raffraîchir les VG.
Le 2018-08-27, yamo' nous expliquait dans
fr.comp.os.linux.configuration
(<5b83b9e0$0$15493$) :Doug713705 a écrit le 27/08/2018 à 10:33 :Le 2018-08-27, yamo' nous expliquait dans
fr.comp.os.linux.configuration
(<5b83b595$0$20343$) :fgrep root /media/yamo/racine/etc/shadow
root:*:16482:0:99999:7:::
Et il a été modifié hier matin (sûrement à initiative du système ; je
n'ai pas touché aux comptes).
ls -al --full-time /media/yamo/racine/etc/shadow
-rw-r----- 1 root shadow 1806 2018-08-26 09:32:58.739999998 +0200
/media/yamo/racine/etc/shadow
Je vais lire les docs...
J'ai enlevé le * en deuxième position.
Je peux maintenant accéder à la console...
Logique puisque dorénavant le compte root n'a plus de mot de passe mais
conserve son autorisation d'accès.
Il faudra donc bien penser à remettre tout ça dans l'ordre ;-)
Oui, après c'est uniquement accessible en console non?
Quand je fais un ls /dev/mapper je n'ai que control forcément ça n'aide
pas à monter le système...
J'ai tenté d'afficher les Volumes Groupes avec vgs
J'ai pleins de fois :
WARNING: Device /ram0 not initialized un udev database even after
1000000 microseconds
de ram0 à ram15 avec aussi les devices connus de la carte sd
Et à la fin étrangement il me donne la bonne utilisation de VgData...
lvs me donne les bonnes réponses!
Va falloir que j'écrive à la main les règles udev pour remettre à la
bonne place les /ramX <-> /dev/mappper/machinchose?
Ça semble peu probable.Comme je peux monter le système de fichier sur un autre ordi y a
peut-être moyen de demander à udev d'écrire un fichier de conf pour son
confrère udev du raspberry?
Ça, par contre, ressemble à la pire solution jamais envisagée :)
Ce que tu peux faire:
- Rescanner le PV, VG et LV de manière à faire revenir les dev.
L'option --mknodes te permettra de recréer les dev nodes manquants (c'est
souvent ça qui pose problème lorsque 'on joue avec LVM) mais la commande
ci-dessous devrait se charger de tout:
# vgchange -ay
Je dis ça de mémoire et sans connaître ta machine.
Ceci dit, cette commande devrait être inoffensive, elle ne fait que
raffraîchir les VG.
# vgchange -ay
Je dis ça de mémoire et sans connaître ta machine.
Ceci dit, cette commande devrait être inoffensive, elle ne fait que
raffraîchir les VG.
Ça a fonctionné (le mount -a a fonctionné)
Mais quand j'active le daemon ssh je perds la main...
Le mode normal est accessible en telinit 3 (pas sûr du 3)?
# vgchange -ay
Je dis ça de mémoire et sans connaître ta machine.
Ceci dit, cette commande devrait être inoffensive, elle ne fait que
raffraîchir les VG.
Ça a fonctionné (le mount -a a fonctionné)
Mais quand j'active le daemon ssh je perds la main...
Le mode normal est accessible en telinit 3 (pas sûr du 3)?
# vgchange -ay
Je dis ça de mémoire et sans connaître ta machine.
Ceci dit, cette commande devrait être inoffensive, elle ne fait que
raffraîchir les VG.
Ça a fonctionné (le mount -a a fonctionné)
Mais quand j'active le daemon ssh je perds la main...
Le mode normal est accessible en telinit 3 (pas sûr du 3)?
Le 2018-08-27, yamo' nous expliquait dans
fr.comp.os.linux.configuration
(<5b83c1bb$0$5500$) :# vgchange -ay
Je dis ça de mémoire et sans connaître ta machine.
Ceci dit, cette commande devrait être inoffensive, elle ne fait que
raffraîchir les VG.
Ça a fonctionné (le mount -a a fonctionné)
Mais quand j'active le daemon ssh je perds la main...
Ce n'est probablement pas lié mais un autre problème, vraissemblableement
lié au problème réseau notifié par systemd (Failed to start Raise network
interfaces).
Sans interface réseau, tu auras du mal à faire écouter un démon sur un
port ;-)
Maintenant que les disques sont réapparus, tu peux tenter de relancer
les services qui ont échoué au boot:
# systemctl networking restart
Pour vérifier la liste des interfaces réseaux configurées:
# ip aLe mode normal est accessible en telinit 3 (pas sûr du 3)?
Le run level 3 correspond au mode multiuser.
En gros c'est le mode "normal" avant le démarrage d'X.
Lorsque tu es sur un shell de secours le système est probablement en
run level 1 (maintenance, mono utilisateur).
Pour connaître le runlevel dans lequel tu te trouves:
# runlevel
Le 2018-08-27, yamo' nous expliquait dans
fr.comp.os.linux.configuration
(<5b83c1bb$0$5500$426a34cc@news.free.fr>) :
# vgchange -ay
Je dis ça de mémoire et sans connaître ta machine.
Ceci dit, cette commande devrait être inoffensive, elle ne fait que
raffraîchir les VG.
Ça a fonctionné (le mount -a a fonctionné)
Mais quand j'active le daemon ssh je perds la main...
Ce n'est probablement pas lié mais un autre problème, vraissemblableement
lié au problème réseau notifié par systemd (Failed to start Raise network
interfaces).
Sans interface réseau, tu auras du mal à faire écouter un démon sur un
port ;-)
Maintenant que les disques sont réapparus, tu peux tenter de relancer
les services qui ont échoué au boot:
# systemctl networking restart
Pour vérifier la liste des interfaces réseaux configurées:
# ip a
Le mode normal est accessible en telinit 3 (pas sûr du 3)?
Le run level 3 correspond au mode multiuser.
En gros c'est le mode "normal" avant le démarrage d'X.
Lorsque tu es sur un shell de secours le système est probablement en
run level 1 (maintenance, mono utilisateur).
Pour connaître le runlevel dans lequel tu te trouves:
# runlevel
Le 2018-08-27, yamo' nous expliquait dans
fr.comp.os.linux.configuration
(<5b83c1bb$0$5500$) :# vgchange -ay
Je dis ça de mémoire et sans connaître ta machine.
Ceci dit, cette commande devrait être inoffensive, elle ne fait que
raffraîchir les VG.
Ça a fonctionné (le mount -a a fonctionné)
Mais quand j'active le daemon ssh je perds la main...
Ce n'est probablement pas lié mais un autre problème, vraissemblableement
lié au problème réseau notifié par systemd (Failed to start Raise network
interfaces).
Sans interface réseau, tu auras du mal à faire écouter un démon sur un
port ;-)
Maintenant que les disques sont réapparus, tu peux tenter de relancer
les services qui ont échoué au boot:
# systemctl networking restart
Pour vérifier la liste des interfaces réseaux configurées:
# ip aLe mode normal est accessible en telinit 3 (pas sûr du 3)?
Le run level 3 correspond au mode multiuser.
En gros c'est le mode "normal" avant le démarrage d'X.
Lorsque tu es sur un shell de secours le système est probablement en
run level 1 (maintenance, mono utilisateur).
Pour connaître le runlevel dans lequel tu te trouves:
# runlevel
J'ai du réseaux j'ai démarré inn2 mais il ne me réponds pas...
J'ai du réseaux j'ai démarré inn2 mais il ne me réponds pas...
J'ai du réseaux j'ai démarré inn2 mais il ne me réponds pas...
Maintenant que les disques sont réapparus, tu peux tenter de relancer
les services qui ont échoué au boot:
# systemctl networking restart
J'ai du réseaux j'ai démarré inn2 mais il ne me réponds pas... Tu le
vois peut-être dans tes logs (je n'en ai pas à cause d'un gros soucis
rsyslog).Pour vérifier la liste des interfaces réseaux configurées:
# ip aLe mode normal est accessible en telinit 3 (pas sûr du 3)?
Le run level 3 correspond au mode multiuser.
En gros c'est le mode "normal" avant le démarrage d'X.Lorsque tu es sur un shell de secours le système est probablement en
run level 1 (maintenance, mono utilisateur).
Oui, je pense aussi.Pour connaître le runlevel dans lequel tu te trouves:
# runlevel
J'aime bien la réponse "unknown" !!
Pas moyen de mettre à jour l'heure même en utilisant cette technique :
<https://askubuntu.com/questions/254826/how-to-force-a-clock-update-using-ntp>
Maintenant que les disques sont réapparus, tu peux tenter de relancer
les services qui ont échoué au boot:
# systemctl networking restart
J'ai du réseaux j'ai démarré inn2 mais il ne me réponds pas... Tu le
vois peut-être dans tes logs (je n'en ai pas à cause d'un gros soucis
rsyslog).
Pour vérifier la liste des interfaces réseaux configurées:
# ip a
Le mode normal est accessible en telinit 3 (pas sûr du 3)?
Le run level 3 correspond au mode multiuser.
En gros c'est le mode "normal" avant le démarrage d'X.
Lorsque tu es sur un shell de secours le système est probablement en
run level 1 (maintenance, mono utilisateur).
Oui, je pense aussi.
Pour connaître le runlevel dans lequel tu te trouves:
# runlevel
J'aime bien la réponse "unknown" !!
Pas moyen de mettre à jour l'heure même en utilisant cette technique :
<https://askubuntu.com/questions/254826/how-to-force-a-clock-update-using-ntp>
Maintenant que les disques sont réapparus, tu peux tenter de relancer
les services qui ont échoué au boot:
# systemctl networking restart
J'ai du réseaux j'ai démarré inn2 mais il ne me réponds pas... Tu le
vois peut-être dans tes logs (je n'en ai pas à cause d'un gros soucis
rsyslog).Pour vérifier la liste des interfaces réseaux configurées:
# ip aLe mode normal est accessible en telinit 3 (pas sûr du 3)?
Le run level 3 correspond au mode multiuser.
En gros c'est le mode "normal" avant le démarrage d'X.Lorsque tu es sur un shell de secours le système est probablement en
run level 1 (maintenance, mono utilisateur).
Oui, je pense aussi.Pour connaître le runlevel dans lequel tu te trouves:
# runlevel
J'aime bien la réponse "unknown" !!
Pas moyen de mettre à jour l'heure même en utilisant cette technique :
<https://askubuntu.com/questions/254826/how-to-force-a-clock-update-using-ntp>
yamo' a écrit le 27/08/2018 à 11:41 :J'ai du réseaux j'ai démarré inn2 mais il ne me réponds pas...
Yes il vient de me répondre :
Erreur avec les groupes (NNTP) : loadav [innwatch:load] 1657 gt 1500
yamo' a écrit le 27/08/2018 à 11:41 :
J'ai du réseaux j'ai démarré inn2 mais il ne me réponds pas...
Yes il vient de me répondre :
Erreur avec les groupes (NNTP) : loadav [innwatch:load] 1657 gt 1500
yamo' a écrit le 27/08/2018 à 11:41 :J'ai du réseaux j'ai démarré inn2 mais il ne me réponds pas...
Yes il vient de me répondre :
Erreur avec les groupes (NNTP) : loadav [innwatch:load] 1657 gt 1500