¿Por qué mi RAID / dev / md1 aparece como / dev / md126? ¿Se está ignorando mdadm.conf?

23

Creé un RAID con:

sudo mdadm --create --verbose /dev/md1 --level=mirror --raid-devices=2 /dev/sdb1 /dev/sdc1
sudo mdadm --create --verbose /dev/md2 --level=mirror --raid-devices=2 /dev/sdb2 /dev/sdc2

sudo mdadm --detail --scan regresa:

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

Que agregué a /etc/mdadm/mdadm.conf , ver a continuación:

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

# This file was auto-generated on Mon, 29 Oct 2012 16:06:12 -0500
# by mkconf $Id$
ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat regresa:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md2 : active raid1 sdb2[0] sdc2[1]
      208629632 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md regresa:

brw-rw----   1 root disk      9,   1 Oct 30 11:06 md1
brw-rw----   1 root disk      9,   2 Oct 30 11:06 md2

Así que creo que todo está bien y reinicio.

Después del reinicio, / dev / md1 ahora es / dev / md126 y / dev / md2 ahora es / dev / md127 ?????

sudo mdadm --detail --scan regresa:

ARRAY /dev/md/ion:1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md/ion:2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat regresa:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md126 : active raid1 sdc2[1] sdb2[0]
      208629632 blocks super 1.2 [2/2] [UU]

md127 : active (auto-read-only) raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md regresa:

drwxr-xr-x   2 root root          80 Oct 30 11:18 md
brw-rw----   1 root disk      9, 126 Oct 30 11:18 md126
brw-rw----   1 root disk      9, 127 Oct 30 11:18 md127

No todo está perdido, yo:

sudo mdadm --stop /dev/md126
sudo mdadm --stop /dev/md127
sudo mdadm --assemble --verbose /dev/md1 /dev/sdb1 /dev/sdc1
sudo mdadm --assemble --verbose /dev/md2 /dev/sdb2 /dev/sdc2

y verifique todo:

sudo mdadm --detail --scan regresa:

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat regresa:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md2 : active raid1 sdb2[0] sdc2[1]
      208629632 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md regresa:

brw-rw----   1 root disk      9,   1 Oct 30 11:26 md1
brw-rw----   1 root disk      9,   2 Oct 30 11:26 md2

Entonces, una vez más, creo que todo está bien y reinicio.

Nuevamente, después del reinicio, / dev / md1 es / dev / md126 y / dev / md2 es / dev / md127 ?????

sudo mdadm --detail --scan regresa:

ARRAY /dev/md/ion:1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md/ion:2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat regresa:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md126 : active raid1 sdc2[1] sdb2[0]
      208629632 blocks super 1.2 [2/2] [UU]

md127 : active (auto-read-only) raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md regresa:

drwxr-xr-x   2 root root          80 Oct 30 11:42 md
brw-rw----   1 root disk      9, 126 Oct 30 11:42 md126
brw-rw----   1 root disk      9, 127 Oct 30 11:42 md127

¿Qué me estoy perdiendo aquí?

    
pregunta mmorris 30.10.2012 - 16:56

4 respuestas

25

Encontré la respuesta aquí, RAID comenzando en md127 en lugar de md0 . En resumen, corté mis definiciones /etc/mdadm/mdadm.conf de:

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

a:

ARRAY /dev/md1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

y ejecutado:

sudo update-initramfs -u

Estoy lejos de un experto en esto, pero mi entendimiento es este ...

El kernel ensambló las matrices antes del tiempo normal para armar las matrices. Cuando el kernel ensambla las matrices, no usa mdadm.conf. Dado que las particiones ya habían sido ensambladas por el kernel, el conjunto de matriz normal que usa mdadm.conf fue omitido.

Llamar sudo update-initramfs -u le dice al núcleo que eche un vistazo al sistema nuevamente para descubrir cómo comenzar.

Estoy seguro de que alguien con mejor conocimiento me corregirá / elaborará sobre esto.

Use la siguiente línea para actualizar el initrd para cada kernel respectivo que exista en su sistema:

sudo update-initramfs -k all -u
    
respondido por el mmorris 30.10.2012 - 19:05
4
sudo update-initramfs -u

era todo lo que necesitaba para arreglar eso. No edité nada en /etc/mdadm/mdadm.conf.

    
respondido por el ajaaskel 07.02.2015 - 17:16
0

Tuve el mismo problema.

Esta solución solucionó mi problema: enlace

    
respondido por el Marc 01.08.2014 - 21:22
0

Pude replicar el problema de la siguiente manera:

Cuando "Software Updater" me preguntó si quería actualizar paquetes (incluyendo Ubuntu base "y kernel, dije: OK. El kernel recién instalado usó la configuración actual del núcleo / sistema. Luego creé la matriz. Solo el kernel que se está ejecutando se actualizó con la nueva configuración de RAID. Una vez que reinicié, ¡el nuevo kernel no sabía nada sobre el ataque y le dio un nombre md127!

    
respondido por el Angelos Vassiliou 23.11.2015 - 13:44

Lea otras preguntas en las etiquetas