LinuxでRAIDレベル6(二重分散パリティを使用したストライピング)をセットアップする-パート5


RAID 6 はRAID5のアップグレードバージョンであり、2つの分散パリティがあり、2つのドライブに障害が発生した後でもフォールトトレランスを提供します。 2つの同時ディスク障害が発生した場合でも、ミッションクリティカルなシステムは引き続き動作します。 RAID 5 に似ていますが、パリティ用にもう1つのディスクを使用するため、より堅牢です。

以前の記事では、RAID 5の分散パリティについて説明しましたが、この記事では、二重分散パリティを備えた RAID 6 について説明します。他のRAIDよりも優れたパフォーマンスを期待しないでください。その場合は、専用のRAIDコントローラーもインストールする必要があります。ここ RAID 6 では、2つのディスクを失っても、スペアドライブを交換してパリティから構築することでデータを取り戻すことができます。

RAID 6 をセットアップするには、セット内に最低4台以上のディスクが必要です。 RAID 6 には、一部のセットでも複数のディスクがあり、ディスクの束がある場合があります。読み取り中はすべてのドライブから読み取るため、読み取りは高速になりますが、書き込みは必要になるため書き込みが遅くなります。複数のディスクにストライプします。

さて、私たちの多くは、他のRAIDのように機能しないのに、なぜ RAID 6 を使用する必要があるのかという結論に達しました。うーん…この質問を提起する人は、高いフォールトトレランスが必要な場合はRAID 6を選択することを知っておく必要があります。データベースの可用性が高いすべての高次環境では、データベースが最も重要であり、どんな犠牲を払っても安全である必要があります。また、ビデオストリーミング環境にも役立ちます。

  1. Performance are good.
  2. RAID 6 is expensive, as it requires two independent drives are used for parity functions.
  3. Will loose a two disks capacity for using parity information (double parity).
  4. No data loss, even after two disk fails. We can rebuilt from parity after replacing the failed disk.
  5. Reading will be better than RAID 5, because it reads from multiple disk, But writing performance will be very poor without dedicated RAID Controller.

RAID 6を作成するには、最低4つのディスクが必要です。さらにディスクを追加する場合は可能ですが、専用のRAIDコントローラーが必要です。ソフトウェアRAIDでは、RAID 6でパフォーマンスが向上することはありません。そのため、物理RAIDコントローラーが必要です。

RAIDセットアップに不慣れな方は、以下のRAID記事を読むことをお勧めします。

  1. Basic Concepts of RAID in Linux – Part 1
  2. Creating Software RAID 0 (Stripe) in Linux – Part 2
  3. Setting up RAID 1 (Mirroring) in Linux – Part 3
Operating System :	CentOS 6.5 Final
IP Address	 :	192.168.0.228
Hostname	 :	rd6.tecmintlocal.com
Disk 1 [20GB]	 :	/dev/sdb
Disk 2 [20GB]	 :	/dev/sdc
Disk 3 [20GB]	 :	/dev/sdd
Disk 4 [20GB]	 : 	/dev/sde

この記事は、9チュートリアルRAIDシリーズのパート5です。ここでは、/ dev/sdbという名前の4つの20GBディスクを使用して、LinuxシステムまたはサーバーでソフトウェアRAID6または二重分散パリティを使用したストライピングを作成およびセットアップする方法を説明します。/dev/sdc、/ dev/sdd、および/ dev/sde。

ステップ1:mdadmツールをインストールしてドライブを調べる

1.最後の2つのRAID記事(パート2とパート3)をフォローしている場合は、「mdadm」ツールのインストール方法をすでに示しています。この記事を初めて使用する場合は、「mdadm」がLinuxシステムでRAIDを作成および管理するためのツールであることを説明します。Linuxディストリビューションに従って、次のコマンドを使用してツールをインストールしましょう。

# yum install mdadm		[on RedHat systems]
# apt-get install mdadm 	[on Debain systems]

2.ツールをインストールしたら、次の「fdisk」コマンドを使用して、RAIDの作成に使用する接続済みの4つのドライブを確認します。

# fdisk -l | grep sd

3. RAIDドライブを作成する前に、ディスク上にRAIDがすでに作成されているかどうかを常にディスクドライブで調べてください。

# mdadm -E /dev/sd[b-e]
# mdadm --examine /dev/sdb /dev/sdc /dev/sdd /dev/sde

注:上の画像は、4つのディスクドライブでスーパーブロックが検出されていないか、RAIDが定義されていないことを示しています。さらに進んでRAID6の作成を開始する可能性があります。

ステップ2:RAID6のドライブパーティション

4.次に、次のfdiskコマンドを使用して、「/ dev/sdb」、「/ dev/sdc」、「/ dev/sdd」、および「/ dev/sde」にRAID用のパーティションを作成します。ここでは、sdbドライブにパーティションを作成する方法と、残りのドライブで実行する同じ手順を示します。

# fdisk /dev/sdb

パーティションの作成については、以下の手順に従ってください。

  1. Press ‘n‘ for creating new partition.
  2. Then choose ‘P‘ for Primary partition.
  3. Next choose the partition number as 1.
  4. Define the default value by just pressing two times Enter key.
  5. Next press ‘P‘ to print the defined partition.
  6. Press ‘L‘ to list all available types.
  7. Type ‘t‘ to choose the partitions.
  8. Choose ‘fd‘ for Linux raid auto and press Enter to apply.
  9. Then again use ‘P‘ to print the changes what we have made.
  10. Use ‘w‘ to write the changes.
# fdisk /dev/sdc
# fdisk /dev/sdd
# fdisk /dev/sde

5.パーティションを作成した後は、ドライブのスーパーブロックを調べることをお勧めします。スーパーブロックが存在しない場合は、新しいRAIDセットアップを作成することができます。

# mdadm -E /dev/sd[b-e]1


or

# mdadm --examine /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1

ステップ3:mdデバイス(RAID)を作成する

6.次に、RAIDデバイス「md0」(つまり、/ dev/md0)を作成し、新しく作成されたすべてのパーティションにRAIDレベルを適用し、次のコマンドを使用してRAIDを確認します。

# mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
# cat /proc/mdstat

7.以下のスクリーンショットに示すように、watchコマンドを使用してRAIDの現在のプロセスを確認することもできます。

# watch -n1 cat /proc/mdstat

8.次のコマンドを使用して、レイドデバイスを確認します。

# mdadm -E /dev/sd[b-e]1

注::上記のコマンドは4つのディスクの情報を表示しますが、これは非常に長いため、ここに出力やスクリーンショットを投稿することはできません。

9.次に、RAIDアレイを検証して、再同期が開始されていることを確認します。

# mdadm --detail /dev/md0

ステップ4:RAIDデバイスでファイルシステムを作成する

10。「/ dev/md0」にext4を使用してファイルシステムを作成し、/mnt/raid6 の下にマウントします。ここではext4を使用しましたが、選択に応じて任意のタイプのファイルシステムを使用できます。

# mkfs.ext4 /dev/md0

11.作成したファイルシステムを/mnt/raid6 にマウントし、マウントポイントでファイルを確認すると、lost + foundディレクトリが表示されます。

# mkdir /mnt/raid6
# mount /dev/md0 /mnt/raid6/
# ls -l /mnt/raid6/

12.マウントポイントの下にいくつかのファイルを作成し、ファイルのいずれかにテキストを追加して内容を確認します。

# touch /mnt/raid6/raid6_test.txt
# ls -l /mnt/raid6/
# echo "tecmint raid setups" > /mnt/raid6/raid6_test.txt
# cat /mnt/raid6/raid6_test.txt

13. /etc/fstab にエントリを追加して、システムの起動時にデバイスを自動マウントし、以下のエントリを追加します。マウントポイントは環境によって異なる場合があります。

# vim /etc/fstab

/dev/md0                /mnt/raid6              ext4    defaults        0 0

14.次に、「mount -a」コマンドを実行して、fstabエントリにエラーがあるかどうかを確認します。

# mount -av

ステップ5:RAID6構成を保存する

15.デフォルトでは、RAIDには構成ファイルがないことに注意してください。以下のコマンドを使用して手動で保存し、デバイス「/ dev/md0」のステータスを確認する必要があります。

# mdadm --detail --scan --verbose >> /etc/mdadm.conf
# mdadm --detail /dev/md0

ステップ6:スペアドライブを追加する

16.これで、4つのディスクがあり、2つのパリティ情報が利用可能です。場合によっては、RAID 6には二重パリティがあるため、ディスクのいずれかに障害が発生した場合にデータを取得できます。

2番目のディスクに障害が発生した場合、3番目のディスクを失う前に新しいディスクを追加できます。 RAIDセットの作成中にスペアドライブを追加することは可能ですが、RAIDセットの作成中にスペアドライブを定義していません。ただし、ドライブに障害が発生した後、またはRAIDセットの作成中に、スペアドライブを追加できます。これで、RAIDセットがすでに作成されました。次に、デモ用のスペアドライブを追加します。

デモンストレーションの目的で、新しいHDDディスク(つまり/ dev/sdf)をホットプラグしました。接続されているディスクを確認しましょう。

# ls -l /dev/ | grep sd

17.ここで、RAID用に新しく接続されたディスクがすでに構成されているか、同じmdadmコマンドを使用していないことを再度確認します。

# mdadm --examine /dev/sdf

注:いつものように、以前に4つのディスクのパーティションを作成したように、同様にfdiskコマンドを使用して新しいプラグインされたディスクに新しいパーティションを作成する必要があります。

# fdisk /dev/sdf

18.再度、/ dev/sdfに新しいパーティションを作成した後、パーティションのRAIDを確認し、スペアドライブを/ dev/md0 RAIDデバイスに含めて、追加されたデバイスを確認します。

# mdadm --examine /dev/sdf
# mdadm --examine /dev/sdf1
# mdadm --add /dev/md0 /dev/sdf1
# mdadm --detail /dev/md0

手順7:RAID6のフォールトトレランスを確認する

19.次に、アレイでディスクのいずれかに障害が発生した場合に、スペアドライブが自動的に機能するかどうかを確認しましょう。テストのために、ドライブの1つが故障していると個人的にマークしました。

ここでは、/dev/sdd1 を故障したドライブとしてマークします。

# mdadm --manage --fail /dev/md0 /dev/sdd1

20. RAIDセットの詳細を取得して、スペアが同期を開始したかどうかを確認します。

# mdadm --detail /dev/md0

やあ!ここでは、スペアがアクティブ化され、再構築プロセスが開始されたことがわかります。下部に、障害のあるドライブ/dev/sdd1 が障害としてリストされているのがわかります。次のコマンドを使用して、ビルドプロセスを監視できます。

# cat /proc/mdstat

結論:

ここでは、4つのディスクを使用してRAID6をセットアップする方法を見てきました。このRAIDレベルは、冗長性の高い高価なセットアップの1つです。ネストされたRAID10などをセットアップする方法については、次の記事で説明します。それまでは、TECMINTとの接続を維持してください。

全著作権所有。 © Linux-Console.net • 2019-2022