免責事項

当ブログに掲載されている情報は個人的に調べたものであり、その内容の正確性や安全性を保証するものではありません。
記事で紹介している情報で被ったいかなる損害に関しても、当サイトでは一切の責任を負いかねます。

2015年4月11日土曜日

FT VM on Nested ESXi 6.0

vSphere 6 の Fault Tolerance から、SMP に対応しました。
最大 4 vCPU の仮想マシンで vSphere FT を構成することが可能です。

簡単に動作確認する方法として、Nested ESXi 6.0 上で vSphere FT を構築する方法をご紹介します。

ちなみに今回は、
Xeon 5600番台(Westmere)のサーバ(ESXi 5.5)上に Nested ESXi 6.0 を構築しました。


構築するにあたってのポイントは 2 つです。
・ Nested ESXi 6.0 の仮想マシンで Hardware virtualization を有効にする
・ Nested ESXi 6.0 の仮想マシンに VMXNET3 の NIC を追加する(FT logging 用)


手順の概要は以下の通りです。
操作は vSphere Web Client を利用します。

------------------------------------------------------
1. 仮想マシンを ESXi 5.1 以降の互換性で作成する。(Nested ESXi 6.0用)
2. 作成した仮想マシンで Hardware virtualization を有効にする。
3. VMXNET3 の仮想 NIC を追加する。
4. Guest OS Virsion を VMware ESXi 5.x に変更する。
5. 作成した仮想マシンに ESXi 6.0 をインストールする。
6. Nested ESXi 上で FT Network を設定する。
7. Nested ESXi 上の仮想マシンで Fault Tolerance をオンにする。
------------------------------------------------------

1. 仮想マシンを ESXi 5.1 以降の互換性で作成する。(Nested ESXi 6.0用)
  この時、Guest OS は Other(64-bit)のままにしておきます。
  これは VMXNET3 の NIC を追加する為です。VMware ESXi 5.x を指定してしまうと
  VMXNET3 が追加できません。
    
全ての設定が終わるまで Other(64-bit) のまま変更しない












2. 作成した仮想マシンで Hardware virtualization を有効にする。
Hardware virtualization をチェックする













3. VMXNET3 の仮想 NIC を追加する。
  経験上、Nested ESXi 6.0 と VMXNET3 の相性が悪く、通信が途切れることが
  多々ありますので、FT Logging 用だけにしておいたほうが良いです。
VMXNET3 の vNIC を追加する
実は Nested ESXi  ではサポートされていない






























Nested ESXi  上ではこのように表示されます














4. Guest OS Virsion を VMware ESXi 5.x に変更する。
VMXNET3 の vNIC を追加している為、
アラートが表示されるが気にしない












5. 作成した仮想マシンに ESXi 6.0 をインストールする。
 (絵は省略)


6. Nested ESXi 上で FT Network を設定する。
FT 用の vmkernel を VMXNET3 の NICに接続する













7. Nested ESXi 上の仮想マシンで Fault Tolerance を オンにする。
FT をオンにする



2015年4月7日火曜日

Install Error of vCenter Server 6.0

vCenter Server 6.0 をインストールしたときに発生したエラーについてご紹介します。


vCenter Server 6.0 のインストールは、PSC(Platfom Services Controller) と vCenter Server の 2 つに分けられています。
PSC と vCenter Server を同居して構築したり、別サーバで構築することが可能です。

今回は PSC と vCenter Server を別サーバで構築し、下図のような環境を作りました。
2つのサイトを構築

図の左サイトを構築し、vCenter SSO のパスワードポリシーを 0(無期限)に変更した後、
右サイトで、vCenter Server をインストールしている時にエラーが発生しました。

vCenter SSO のパスワードの最長有効期間を 0(無期限)に設定

これがエラーメッセージ①です。(vminst.log)
------------------------------------------------------------------------------
ProcdessMsiMsg: ACTIONDATA reporting "VMware vSphere Auto Deploy Waiter を開始しています..."
(省略)
ParseStatusFile: curr error msg: "内部エラーが発生しました。

see C:\ProgramData\VMware\vCenterServer\logs\firstboot\autodeploy-firstboot.py_3316_stderr.log"
------------------------------------------------------------------------------

エラーメッセージ②です。(autodeploy-firstboot.py_3316_stderr.log)
------------------------------------------------------------------------------
RC = 9999
Stduot =
Stderr = error: Failed to find AD user details: 50(dir-cli failed. Error 50: Possible error:
LDAP error: Insufficient access
Win Error: この要求はサポートされていません。

)
------------------------------------------------------------------------------

ひとまずエラーメッセージを調べると、以下の KB に同じエラーメッセージが載っていました。


合致する内容ではありませんが、vCenter SSO のパスワードポリシーで、”最長有効期間”を
0(無期限)に設定している場合に発生するエラーのようです。

今回の環境では、PSC 間でデータが複製されるので、右サイトの PSC も同じパスワードポリシーになってエラーが発生しました。
KB のようにパスワードポリシーを 0(無期限) 以外に設定することで、無事右サイトの vCenter Server をインストールすることができました。

2015年4月3日金曜日

How to recover vCenter in vSanDatastore

VSAN(Virtual SAN)は、サーバの内蔵ディスク( SSD や HDD )を共有ストレージとして利用できる機能です。
共有ストレージと言えば、 vSphere HA や vSphere DRS など利用するうえで、なくてはならないものですよね。

VSAN で形成される共有ストレージのことを VSAN データストアと呼びます。
VSAN クラスタ配下に 1 つの VSAN データストアを形成し、各サーバの内蔵ディスクに仮想マシンのファイル群を自動で分散配置します。
その際、仮想マシンファイル群はミラーリング( RAID 1 相当)されます。仮想ディスクについては、さらにストライピング( RAID 0+1 相当)することも可能です。これら RAID 相当の管理により、コンポーネントとしての可用性を担保している訳です。
補足ですが、ESXi をインストールした内蔵ディスクは VSAN データストアとして利用できないので注意して下さい。

VSAN クラスタは vSphere HA や vSphere DRS を構成するのと同じくらい簡単にできます。
HA クラスタや DRS クラスタを有効にするのと同様に、チェックボックスにチェックを入れることで、VSAN クラスタを構成することができます。


VSAN クラスタを有効化する









勘の良い方は HA/DRS クラスタと同様に、VSAN クラスタを構成するには vCenter Server が必要なのでは?と思われたのではないでしょうか。
正解です。
VSAN クラスタを構成するには、vCenter Server が必須です。(厳密に言うと、簡単に構成するには。)

さて、うだうだ VSAN について書きましたが、ここからが本題です。
VSAN クラスタは簡単に構成できることは説明しましたが、同じように簡単に無効にすることもできます。注意する点としては、VSAN クラスタを無効化すると、VSAN データストアに配置している仮想マシンにアクセスすることができなくなります。( VSAN データストアが消える為)

もし、vCenter Server を仮想マシンとして構成し、VSAN データストア上に配置している環境でVSAN クラスタを無効化してしまうと、vCenter Server にアクセスできなくなり、VSAN クラスタを再構成することができなくなってしまいます。考えただけでも恐ろしいですね。


VSAN クラスタを無効化するときの警告
VSAN クラスタを無効化すると、
仮想マシンはアクセス不可になる










でも VSAN クラスタを復旧する手段があります。
今回はその手順をご紹介します。
※ VSAN 1.0 で実施したものです。まだ VSAN 6.0 では試せていません。


実施する手順は以下の通りです。

1. ESXi ホストにダイレクトコンソールや ssh でログインする

2. VSAN クラスタの UUID(Sub-Cluster UUID) を確認する

  cat /var/log/vsanvpd.log | grep “:Cluster uuid" | head -n 1

3. VSAN クラスタ情報を取得する

  esxcli vsan cluster get

4. VSAN クラスタから ESXi ホストを外す
  (ただし、手順3で VSAN クラスタ情報が取得できなければこの手順は行わない)

  esxcli vsan cluster leave

5. VSAN クラスタへ ESXi ホストを追加する

  esxcli vsan cluster join –u UUID

6. VSAN クラスタ情報が表示されることを確認する

  esxcli vsan cluster get

7. 手順1~6 までを VSAN クラスタ配下の全ての ESXi ホストで実行する

8. vCenter Server が登録されている ESXi ホストへ vSphere Client でログインし、
  vCenter Server の仮想マシンを起動する


9. vSphere Web Client で vCenter Server にログインし、VSAN クラスタを有効化する


コマンド部分はこんな感じで実行します。
---------------------------------------------------------------------------------

~ # ls /var/log/vsan*.log

/var/log/vsanvpd.log

~ #

~ # cat /var/log/vsanvpd.log | grep ":Cluster uuid" | head -n 1

2014-MM-DDT03:57:27Z vsanSoapServer: ExtractClusterUuid:199:Cluster uuid: 521e8255-4e80-a785-26f7-dd407352e7f2
~ #
~ # esxcli vsan cluster get
VSAN Clustering is not enabled on this host
~ #
~ # esxcli vsan cluster join -u 521e8255-4e80-a785-26f7-dd407352e7f2
~ #
~ # esxcli vsan cluster get
Cluster Information
   Enabled: true
   Current Local Time: 2014-MM-DDT07:15:34Z
   Local Node UUID: 53a7d492-9256-3534-f431-005056913994
   Local Node State: BACKUP
   Local Node Health State: HEALTHY
   Sub-Cluster Master UUID: 53a7d68b-8859-f918-0657-005056915059
   Sub-Cluster Backup UUID: 53a7d492-9256-3534-f431-005056913994
   Sub-Cluster UUID: 521e8255-4e80-a785-26f7-dd407352e7f2
   Sub-Cluster Membership Entry Revision: 2
   Sub-Cluster Member UUIDs: 53a7d68b-8859-f918-0657-005056915059, 53a7d492-9256-3534-f431-005056913994
   Sub-Cluster Membership UUID: 07abab53-c607-cf78-3cc6-005056915059
~ #
---------------------------------------------------------------------------------