MDADM-Problem: Stopping MD array md1 ... failed (busy)

Hast Du Probleme mit Hardware, die durch die anderen Foren nicht abgedeckt werden? Schau auch in den "Tipps und Tricks"-Bereich.
Antworten
Mictlan
Beiträge: 596
Registriert: 03.09.2007 11:55:28

MDADM-Problem: Stopping MD array md1 ... failed (busy)

Beitrag von Mictlan » 15.09.2007 11:24:22

Hi!

ich hab ein paar probleme beim runterfahrn von debian etch....

ich hab 3 Software Raids... ein Raid 5 (md2) und zwei Raid 1(md0=root, md1=swap) .... das Raid 5 fährt ordnungsgemäß hinunter, nur die Raid 1 machen mir sorgen....

Code: Alles auswählen

#halt
...
stopping md monitoring service mdadm --monitor
...
killing all remaining processes ... done
Deconfiguring network interfaces ... done
Cleaning up ifupdown...
Deactivating swap ... done
unmounting local filesystems ... done
md: md2 stopped
md unbind (sda)
md: export_rdev(sda)
.... 
md unbind(sdd)
md: export_rdev(sdd)
md: md1 still in use
md: md0 still in use
md: md1 still in use
md: md0 still in use
md: md1 still in use
md: md0 still in use
stupping MD array md2 done (stoppedc)
Stopping MD array md1 ... failed (busy)
Stopping MD array md0 ... failed (busy)
will nuw halt.
md: stopping all md devices.
md: md1 still in use
md: md0 still in use
syncronizing scsi cache for disk sdd
syncronizing scsi cache for disk sdc
syncronizing scsi cache for disk sdd
syncronizing scsi cache for disk sda
shutdown: hdc
shutdown hda
system halted

rechner schaltet sich nciht aus
in dem zustand kann man nichts mehr machen außer ausschalten. Tastatur zeigt keine Reaktion mehr (auch kein numlock oder strg+alt+entf)
in den logfiles ist nichts zu finden (ist ja alles nicht mehr gemountet) und auch sonst finde ich bisher nichts (gegoogelt hab ich scho - bisher vergebens)
unter SuSE gabs unter strg+alt+f11 einen schirm auf dem die ganzen Meldungen selbst auch nach dem unmount noch ausgegeben wurden... wie kann man den aktivieren? vllt hilfts ja weiter

bin für jeden tipp dankbar......

Code: Alles auswählen

# /etc/fstab: static file system information.
#
# <file system> <mount point>   <type>  <options>       <dump>  <pass>
proc            /proc           proc    defaults        0       0
/dev/md1        /               ext3    usrquota,grpquota,user_xattr,errors=remount-ro 0       1
/dev/md2        /raid5          xfs     usrquota,grpquota 0       2
/dev/md0        none            swap    sw              0       0
/dev/hdd        /media/cdrom0   udf,iso9660 user,noauto     0       0

Code: Alles auswählen

yuma:/boot/grub# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md2 : active raid5 sda1[0] sdd1[3] sdc1[2] sdb1[1]
      1465151808 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

md1 : active raid1 hda2[0] hdc2[1]
      53713216 blocks [2/2] [UU]

md0 : active raid1 hda1[0] hdc1[1]
      1951744 blocks [2/2] [UU]

unused devices: <none>

Code: Alles auswählen

 Auszug aus /boot/grub/menu.lst
title           Debian GNU/Linux, kernel 2.6.18 (custom 1.1-antvir)
root            (hd0,1)
kernel          /boot/vmlinuz-2.6.18 root=/dev/md1 ro vga=791
initrd          /boot/initrd.img-2.6.18
savedefault

Mictlan
Beiträge: 596
Registriert: 03.09.2007 11:55:28

Beitrag von Mictlan » 18.09.2007 14:04:55

hat keiner eine idee?

the_icebear
Beiträge: 2
Registriert: 12.11.2007 13:28:56

Beitrag von the_icebear » 12.11.2007 13:45:28

hallo
ich hab auch das probleme mit dem halt script bei debian etch in kombination mit softwarraid
ich hab 4 arrays (root raid1, boot raid1, storage raid5, storage2 raid5) und debian schaltet obwohl die
arrays beim shutdown noch busy bzw in use sind einfach ab - die fatale folge:
Beim wieder einschalten waren teilweise die arrays degraded und ich musste mit mdadm manuell ein recover anstoßen

auffallend ist hierbei, dass auch bei mir die sata disks fehlerfrei abgeschaltet wurden aber die pata disks nicht,
liegt hier evtl der ansatzpunkt zu diesem fehler ?

Mictlan
Beiträge: 596
Registriert: 03.09.2007 11:55:28

Beitrag von Mictlan » 12.11.2007 14:06:28

also bei mir is das raid 5 ebenfalls sata und die beiden raid 1 sind pata

da sich aber bei mir der rechner nicht von allein ausschaltet hab ich das problem dass die raids degraded sind nicht.

sag mal kann man eventuell das halt script bearbeiten? wenn ja müsst man ja nur bevor die platten abgeschalten werden folgendes machen:

sleep 1
sync
sync
# 2 mal aufrufen, dass sicher alles aufs raid und dann vom raid write cache auf die platten geschrieben ist
sleep 1

the_icebear
Beiträge: 2
Registriert: 12.11.2007 13:28:56

Beitrag von the_icebear » 12.11.2007 15:02:25

ich hab auch schon ueberlegt dass halt script zu modifizieren, in frueheren versionen von softraid wurd des ja auch
empfohlen. bei mir laeuft grad noch ein recover prozess danach werd ich mal ueberpruefen wie sich die lage verhaelt wenn ich davor die arrays manuell unmounte und stoppe und dann erst halt initiere.
nicht dass am schluss doch ein hardwaredefekt vorliegt (wobei er im betrieb nie probleme gemeldet hat, immer erst nach nem halt)

Mictlan
Beiträge: 596
Registriert: 03.09.2007 11:55:28

Beitrag von Mictlan » 12.11.2007 15:05:38

ich werd heut abend mal meine idee ausprobiern und meine erfahrungen hier posten.....

meti
Beiträge: 559
Registriert: 19.12.2004 14:00:47
Lizenz eigener Beiträge: MIT Lizenz

Beitrag von meti » 12.11.2007 17:39:29

Das ist vollkommen normal und da brauchst Dir keinerlei Sorgen machen.

Ein Array kann nicht aufgelöst werden solange noch Dateisysteme darauf gemountet sind. Es hat keine negativen Auswirkungen, ist aber ein Schönheitsfehler.

Also das Array mit dem / wird dir immer diese Meldung bringen, Beim Swap könntest Du die Shutdown Sequenz modifizieren, so daß der Swap deutlich früher deaktiviert wird. Dann hättest Du 2 sauber gestoppte Arrays.

Mictlan
Beiträge: 596
Registriert: 03.09.2007 11:55:28

Beitrag von Mictlan » 13.11.2007 09:53:44

gut aber grad beim swap is ma egal wenn das defekt wäre :-)

hab mir gestern noch genauer angeschaut und werd nachdem ich nie die probleme hab dass die raids defekt werden das einfach so lassen wie es is.....

@icebear in /etc/default/halt kannst umstelln dass er statt einem poweroff nur ein halt macht... so sollte sich dein raid problem lösen, allerdings musst du deinen rechner noch manuell ausschalten. wie gesagt bei mir schaltet er sich nicht von allein aus und ich hatte noch nie ein defektes raid.

wie gesagt mich störts nicht da das bei mir ein 24/7 rechner is der höchstens einmal im monat rebootet oder ausgeschalten wird.....

anker
Beiträge: 29
Registriert: 24.01.2009 18:26:54

Re: MDADM-Problem: Stopping MD array md1 ... failed (busy)

Beitrag von anker » 26.01.2009 10:55:31

Nachdem ich dieses Problem auch bei meinem Server festgestellt hab, muss ich doch Fragen, wieso das selbst bei Lenny (testing) noch nicht behoben wurde?
Gut angeblich ist die Funktion nicht beeinträchtigt, trotzdem finde ich gehört so etwas gefixt...

Kann da jemand was dazu sagen?

meti
Beiträge: 559
Registriert: 19.12.2004 14:00:47
Lizenz eigener Beiträge: MIT Lizenz

Re: MDADM-Problem: Stopping MD array md1 ... failed (busy)

Beitrag von meti » 26.01.2009 19:26:18

Das "Problem" welches keins ist kann in diesem Fall nicht "gefixed" werden. Daran ändert sich auch bei Lenny nichts und auch danach ... geht ja auch nicht.

Diese Meldung wird es immer geben solange / auf dem md-Device läuft. Nur wenn / in einer RAM-Disk gemounted ist oder / nicht auf einem md-Device aufgesetzt wurde kann das Array komplett und ordnungsgemäß aufgelöst werden.

anker
Beiträge: 29
Registriert: 24.01.2009 18:26:54

Re: MDADM-Problem: Stopping MD array md1 ... failed (busy)

Beitrag von anker » 26.01.2009 21:30:20

Ja aber wenn das so ist, dann entfernt man eben die failed Meldung?! Bzw. zeigt sie einfach gar nicht an und alle wären glücklich :P

Auf meinem zweiten Array ist übrigens nicht / gemountet und ich bekomme die Meldung trotzdem...aber das macht ja nichts...

Wie bereits jemand oben geschrieben hat: Einfach den Schönheitsfehler beseitigen :D

Aber gut, das hab ich nicht zu entscheiden und wahrscheinlich auch zuwenig Durchblick.

Antworten