segmentation fault orz

日頃の技術的興味をつらつらと…

vmware へのCentOS6.4の導入

今回はvmwareCentOS 6.4を入れてみます。

 

バージョンは以下。

 

- VMホスト: Windows 7

- 仮想化ソフト: VMWare Player 5.0.2

- ゲストOS: CentOS 6.4

 

以前に書籍の「CentOS 6 で作るネットワークサーバ構築ガイド」に同梱されていたCDを使ってインストールして色々いじっていたが、カーネルのコンパイルを試みたがディスク容量が少なくて頓挫したので、リベンジ。

 

 * vmware-vdiskmanagerを使ってみる

下記サイトを参考に、ディスクの増設ツールをゲットして構築開始。VMware Serverは2011年1月末でサポート終了とのことなので、VMware workstationを入れてみる。

 

VMWareでハードディスク増設

http://server-setting.info/centos/vmware_disk.html

 

事前にVMware Playerはアンインストールし、vmware-vdiskmanager.exeを取り出したら、再度VMware Playerを入れる。ライブラリもないと怒られる。

 

以下でディスクを拡張する。何やらwarningが出るが気にしない。

 

----

> vmware-vdiskmanager.exe -x 100Gb VMバーチャルディスク名.vmdk

 

  Grow: 100% done.
Disk expansion completed successfully.

WARNING: If the virtual disk is partitioned, you must use a third-party
         utility in the virtual machine to expand the size of the
         partitions. For more information, see:
         http://www.vmware.com/support/kb/enduser/std_adp.php?p_faqid=1647

 

 

そして起動後に"df -h"...あれ?ルート領域の4GB以上の領域が見えない。。。/home以下は見えているのに。

 

Filesystem            Size  Used Avail Use% Mounted on
/dev/sda2
                      3.9G  2.5G  1.3G  67% /

/dev/sda1              49M   44M  2.7M  95% /boot

/dev/sda5              14G  231M   13G   2% /home
tmpfs                 498M   80K  498M   1% /dev/shm

どうやら、「単一ファイルに保存」すると見えなくなるらしい。lvdisplayではちゃんと100GB見えているのに。どこに4GB制限があるのかググったがあまり有用な解は得られなかった。

仕方ないので、「複数ファイルに保存」にして再構築。 vmware-vdiskmanager結局いらなかった…??

 

 * 再構築(LVM作成ほか)

「ハードウェア」→「追加」から新規のSCSI接続のディスク(100GB)ファイルを作成し、LVMとして構築する。「複数ファイルに保存」を選択すると、Windowsのエクスプローラからは<ディスクファイル名>-s0xx (xxは01から51)と見えた。

後でリサイズできると便利なので、ひとまずLVMで50GB程度の領域を作ってその上にファイルシステムを乗せることにする。

以下は、構築前のマウント状況。ルート領域はちゃんと20GB程度見えている。。。

 

Filesystem            Size  Used Avail Use% Mounted on
/dev/sda2              18G  2.4G   15G  15% /
tmpfs                 495M   84K  495M   1% /dev/shm
/dev/sda1             291M   33M  243M  12% /boot

100GBの新規ディスクは/dev/sdbとして認識されていた。

# ls -l /dev/sdb

brw-rw----. 1 root disk      8,  16 Jul 27 09:56 sdb

以下でファイルシステムを作っていく。

# fdisk /dev/sdb

Command (m for help): n
Command action
   e   extended
   p   primary partition (1-4)
p
Partition number (1-4): 1
First cylinder (1-13054, default 1):
Using default value 1
Last cylinder, +cylinders or +size{K,M,G} (1-13054, default 13054):
Using default value 13054

Command (m for help): p 

Disk /dev/sdb: 107.4 GB, 107374182400 bytes
255 heads, 63 sectors/track, 13054 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0xd5fcc0b7

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1       13054   104856223+  83  Linux

# ls -l /dev  | grep sdb
brw-rw----. 1 root disk      8,  16 Jul 27 10:02 sdb
brw-rw----. 1 root disk      8,  17 Jul 27 10:02 sdb1

 

概ねOKか。次に物理ボリュームを作成。

# pvcreate /dev/sdb1
  Physical volume "/dev/sdb1" successfully created

 

次に、一つの物理ボリュームからなるボリュームグループを作成。

 

# vgcreate VolGroup00 /dev/sdb1
  Volume group "VolGroup00" successfully created

最後にLVMを作成。サイズは50GBとした。

 

# lvcreate -L 50G -n LogVol00 VolGroup00
  Logical volume "LogVol00" created

次に、ファイルシステムを作成。

 

# mkfs -t ext4 /dev/VolGroup00/LogVol00
mke2fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
3276800 inodes, 13107200 blocks
655360 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
400 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
    32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
    4096000, 7962624, 11239424

Writing inode tables: done                           
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done

This filesystem will be automatically checked every 24 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.

 

次にマウントしてみる。

 

#mount -t ext4 /dev/VolGroup00/LogVol00 /mnt/tmp/
# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/sda2              18G  2.5G   15G  15% /
tmpfs                 495M  228K  495M   1% /dev/shm
/dev/sda1             291M   33M  243M  12% /boot
/dev/mapper/VolGroup00-LogVol00
                       50G  180M   47G   1% /mnt/tmp

 

ちゃんと見えていて安心。次に以外の必要なファイルをすべてコピーする。

 

# cp -ar /{bin,boot,etc,home,lib,lib64,media,opt,root,sbin,tmp,usr,var} /mnt/tmp

 

/etc/fstabの設定

 

# cat /etc/fstab

#UUID=69c71470-4a68-4025-966a-b8f3d4a3b9eb /                       ext4    defaults        1 1
/dev/mapper/VolGroup00-LogVol00 /                       ext4    defaults        1 1
#UUID=1ae03bfe-24f1-44c0-8965-7bf826dc18a5 /boot                   ext4    defaults        1 2
UUID=7d385f93-aeb8-4773-86c9-51cb4aacfcde swap                    swap    defaults        0 0
tmpfs                   /dev/shm                tmpfs   defaults        0 0
devpts                  /dev/pts                devpts  gid=5,mode=620  0 0
sysfs                   /sys                    sysfs   defaults        0 0
proc                    /proc                   proc    defaults        0 0

 

既存の自動マウント設定を消去して新しいLVM設定を投入して再起動。ちと怖いが無事起動した。

 

[参考]

 

CentOS 6 で作るネットワークサーバ構築ガイド

http://www.amazon.co.jp/%E6%9C%AC/dp/4798032484

 

@IT : VMwareの仮想ディスクを拡大するには

http://www.atmarkit.co.jp/flinux/rensai/linuxtips/740bigvmdisk.html

 

VMWareでハードディスク増設

http://server-setting.info/centos/vmware_disk.html