10.EWS関連技術 10-1. ファイルサ−バについて (1) Sun Microsystems の製品 * Ultra Enterprise シリ−ズについて --- SEさんから根堀り歯堀り聞きました --- 1996年6月頃から Ultra シリ−ズとして、Ultra 1,2,3000,4000 それに Ultra Ent- erprise 1,2,150,3000,4000,5000,6000 と発売されてきた。簡単に前者を Ultra、後者を Enterprise と呼ぶことにする。 Ultra はディスプレイを付けるデスクトップ・タイプで あり、 Enterprise の方はディスプレイはオプション扱いになったサ−バ・タイプである。 実際 Ultra 1,2 と Enterprise 1,2 の違いは、グラフィックス機能があるかないか、 そ れにOSの違いぐらいしかない。Enterprise 150 は 1,2 と 3000 の中間的な製品である。 UPSから内臓 RAID 最大約50ギガまでサポ−トする。 Enterprise サ−バのOSは、Solaris サ−バ・ライセンスといって Solstice DiskSuite, Solstice Backup, Solstice Adminsuite が基本に入っている。3000 以上にはさらにサ− バの状態を監視する Solstice SyMon が付加される。 ディスクや CPU の絵が表示されて どこがおかしくなったか分かるらしい。どうもちゃんとしたサ−バは、 3000 以上という ことである。3000 以上のボ−ドなどパ−ツは同じで、 グレ−ドアップがしやすい。電源 部など二重化でき障害に強くできる。ただし二重化しなければ、下位の機種と対障害性は 同じと考えてよい。 97年に入り CPU クロック 300 MHz 搭載したモデルや、UltraSPARC-II を使った Ultra 30 が発売された。10月には Windows NT サ−バにも対抗するということで Enterprise 450 を投入してきている。この 450 は 2 CPU なら Enterprise 2 と同等な価格で性能は 上、現在 Sun お勧めの製品になっている。CPU は4個まで搭載でき、Solstice SyMon も 付いている。 RAID は外付けの SPARCstorage Array 200 シリ−ズが今のところ対応して いる。内臓ディスクは最大84ギガで、RAID はノ−マルなディスクでの対応になる。 Ultra シリ−ズのOSは Solaris 2.x 系で、これまで Solaris 2.5.1 だった。 Solaris 2.x はだいぶ前から出ていたが、あまり評判はよくなかった。 96年2月に 2.5 が出て ようやく落ち着いたという感じである。97年10月には 2.6 が発表され、 一応最後の Solaris のバ−ジョンということらしい(実際は違ったが)。NFS version 3 はもちろん、 WebNFS、IMAP4/MIME メ−ル、DHCP、HotJava、自動マウントデ−モンの autofs、 可変長 サブネットマスクの VLSM、2000年問題に対応、 ホストの内部時計の同期プロトコル の NTP サポ−トなど盛りだくさんになっている。 余談だが、Enterprise 1,2 にディスプレイが付くのかだいぶ疑問に思っていた。 150 以 上のはオプションで付きますと記載があるのが、 Enterprise 1,2 については何にも書か れていない。しかし最新の Sun のカタログにはちゃんと付くと書かれていた。 なぜこん なことにこだわるかと言えば、どうやってディスプレイのないサ−バにアクセスして、い ろいろ設定するのか。疑問なわけである。最初の設定は、つまりパスワ−ドやIPアドレ スなどの設定は、Cisco のル−タ同様 RS232C で端末接続してということになる。その後 はリモ−トのホストでXウィンドウによるGUI操作か、telnet アクセスする。 * RAID 制御ソフト Sun EWSの汎用的な RAID 装置の制御ソフトとして、 Solstice DiskSuite 4.1 がある。 4.0 からGUIによる設定ができるようになった。それ以前はコマンドラインによる設定 だった。Sun の SPARCstorage Unipack, Multipack, Array それにサ−ドパ−ティ製ディ スクにも適用できる。RAID 0,1,5,0+1 をサポ−トする。 このソフトはデスクトップ型の Ultra シリ−ズには付かない。別途購入する必要がある。25万円ぐらいである。 ただし Sun としては SPARCstorage Unipack はただの増設ディスク、 Multipack はホッ トスワップに対応して、RAID 1 のミラ−リング程度で、 SPARCstorage Array は RAID 5 でも使える高級タイプという位置付けになっている様である。 SPARCstorage Array には、 Volume Manager という専用の RAID 制御ソフトが付属するので、 これで制御すればいい。 Volume Manager も Solstice DiskSuite もできることはほとんど同じと考えていい。 「UNIX MAGAZINE」の 96/07〜11 月号の "ワ−クステ−ションの音" には DiskSuite 4.0 を使って、SPARCstation 5 + Solaris 2.5 + Multipack 構成で、RAID 5 と UFS Logging が快調という記事が載っている。DiskSuite の設定はコマンドでやっているが、結構やや こしそうである。UFS Logging はファイルの整合性を保つ処理で、 fsck をやらなくなる、 ファイル操作が速くなるということらしい。ここでは UFS Logging のために、 2台のデ ィスクでミラ−リングして安全性を高めている。それが 97/06〜07 号で、 この2台のデ ィスクが同時に壊れてしまい、復旧に何日もかかったという話になっている。 RAID も決 して万能ではないということだ。 * SPARCstorage Array Model 100 と 200 シリ−ズがある。100 の方はギガバイト級、 200 はテラバイト級のデ ィスク容量の製品である。ここでは 100 について述べる。Model 101 が95年、 112 が 96年、114 が97年に発売されている。同じ筐体でディスク容量が増え、それぞれが後 継機種となっている。どれも内部には3つのトレイがあり、1つのトレイに10個のディ スクが付くようになっている。合計で最大30個のディスクが付く。Model 112 は2.1 GB SCA Fast/Wide SCSI-2 ディスクドライブを、 114 では 4.2 GB ディスクドライブを使う。 サ−バ本体とは Fibre Channel により 25 MB/sec の速度、全二重通信で接続する。 1 2 3 4 5 6 7 8 9 0 Model 114 の最大は 126 GB ------------------------- Model 112 の最大は 63 GB | --------------------- | | | | | | | | | | | | | | トレイ1 | |-------------------| | Enterprise 2 | | | | | | | | | | | | | トレイ2 -------------- | |-------------------| | | | | | | | | | | | | | | | | トレイ3 | |======| --------------------- | -------------- ↑ ------------------------- Fibre Channel RAID 装置だといっても、ハ−ドディスクである。 Volume Manager という専用の RAID 制御ソフトが付属し、RAID 0,1,5,0+1 をサポ−トす る。Volume Manager はリモ−トのホストで、 GUIとコマンドにより使うことができる。 1個の SPARCstorage Array 中のディスクを、 例えば3つを RAID 1、3つを RAID 5 で 稼働させるといったことが可能である。更に2つのサ−バホストで1個の Array を、 内 部のディスクを分けて管理することもできる。RAID 0+1 と 5 共存の最小構成は、0+1 で ディスク2個が2セット、5 で3個とホットスワップ用に1個の計8個のディスクになる。 5 の3個というのは RAID 5 は n+1 個で、n は最小 2 という制限による。Sun での実質 的な容量は、この場合 ( 3 x 1個のディスク容量 x 最低70〜90% ) となる。 実質容量についてもう少し説明する。SPARCstorage Array の Model 114, 25.2 GB の製 品を RAID 5 で使うとどうなるか。4.2 GB のディスクが6個ある。 この内1個はホット スワップ、残り5個の70%だから 14.7 GB となる。RAID 1 だと半分で 12.6 GB。つま りディスクの数が少ないと RAID 5 の n+1 個のうまみはないということになる。 * Ultra Enterprise の性能 カタログなどを参照にして3種類のスペックを記した。 SPECrate とか LADDIS とか言う のはベンチマ−クの結果だが、何を意味しているのか筆者はよく分からない。分かるのは 値が約倍か、ぐらいである。実際これらのベンチマ−クの内容を書いたものを見たことが ない。これで理解せ−というのは無理。値はほんの参考にしかならない。 | 3000 2(2200 Model) 150 --------------------|---------------------------------------------- CPU UltraSPARC-I | 167MHz 200MHz 167MHz CPU 搭載数 | 6 個まで 2 1 デ−タベ−ス | 6,900 tpm 3,107 tpm 1,332 tpm I/Oスル−プット | 2.6 GB/sec 133 MB/sec 133 MB/sec SPECrate_int92 | 33,919(6 CPU) 14,963 5,982 SPECrate_fp92 | 47,244(6 CPU) 18,677 8,323 NFS ops/sec, LADDIS | 8,103 4,303 2,102 サイズ(約) | 65x43x60 13x45x46 58x27x69 出荷開始時期 | 96/08 96/06 96/03 ※OSは Solaris サ−バ・ライセンスである。 ※Fast/Wide SCSI-2、10Base-T/100Base-TX 自動切り替え装備。 ※オプションでディスプレイが付く。Enterprise 2 には 17 と 20 inch がある。 * Sun 製品の参考記事 「Solaris 2.x SMCC NFS サ−バ− チュ−ニングマニュアル」'96/06, 日本サンマイクロ > システムズ(株)。非常に詳しく書かれている。Sun EWSの日本語ドキュメント。 「Solaris のシステム管理(第2巻)」'95/10, 日本サンソフト。 > iostat, vmstat, sar に付いて最も詳しく書かれている。 「SPARC & Solaris パフォ−マンスチュ−ニング」'95/07, アスキ−出版局, 3,398 円。 > SS20 などのチュ−ニングが載っている。Ultra シリ−ズの話しはない。 「UNIX MAGAZINE」'96/12, P.100〜, "DAEMONS & DRAGON 82 の Solaris のパフォ−マン > スチュ−ニング"。 「UNIX MAGAZINE」'97/01, P.96〜, "DAEMONS & DRAGON 83 の SystemV のアカウンティン > グとsar"。 「UNIX MAGAZINE」'97/02, P.83〜, "DAEMONS & DRAGON 84 のスワップ領域の設定"。 「月刊 SunWorld」'96/08, "特別号:新世代エンタ−プライズ・ソリュ−ション" > Sun の月刊誌。これも本屋でチェックしておこう。あまり置いてないが。 http://www.sun.co.jp/tech/ > よく読むとためになる。SunExpert 技術資料、Just the Facts など。 (2) 他メ−カ製ファイルサ−バ * NFS 専用ファイルサ−バ 汎用のファイルサ−バに NFS をセットして稼働させるには、 それなりにチュ−ニングし なければならない。これは素人では困難である。このためバカチョン的に、最初からチュ −ニングされたのが NFS 専用ファイルサ−バである。簡単でよい。 ただしこのコンピュ −タでは、デ−タベ−ス等のソフトウェアをインスト−ルして動かすことはできない。あ くまでもネットワ−ク接続されたディレクトリ的な使い方である。デ−タベ−ス・ソフト によっては、稼働ホストにデ−タもないとダメというのもあるらしい。相性は事前にチェ ックしておくこと。 ・Netra NFS Server、商品名 Netra nfs 150 専用ソフトウェアの SmartServe により RAID 5 をサポ−トする。小規模部門向け専 用ファイルサ−バ、10〜75人用とカタログにはある。NFS v2,3、SNMP、DNS サ− バ/クライアント、NIS クライアントをサポ−トする。UPS内臓。ディスプレイは つかない。HTML でリモ−ト設定できる。 ・NetApp F220 NFS 専用ファイルサ−バ、Network Appliance Inc. 社製 NFS v2,3、CIFS、HTTP アクセスをOSレベルでサポ−トする。 ハ−ドレイドにより RAID 4 をサポ−トする。RAID 4 は1個のディスクをパリティ専用で使うため、ボト ルネックになり、あまり使われていない。このサ−バは特殊なディスクアクセス方法 により、この問題をクリアしている。telnet でシステム設定する。 搭載ディスク 4.3 GB formatted、最大容量 55.9 GB。 ネットワ−ク 10/100BASE-TX 1個標準装備。 NFS レスポンスタイム 3.4 msec ( 95SPECnfs_A93 Ops/Sec, 1FDDI ) SPEC SFS1 baseline Result として 703SPECnfs_A93@8.5 msec ・AUSPEX ファイルサ−バ、米 Auspex System 社製 専用の NFS ファイルサ−バである。十年ぐらい前からあるらしい。 国内では富士ゼ ロックスや日商エレクトロニクスが販売している。 98年までは NS7000 NetServer があった。モデルは 150/250。4〜150 GB。値段は約 150 が 660万円、 250 が 1360 万円。1,805 SPECnfs_A93@17.3 ms。ネットワ−クは ATM/100BaseT/10BaseTx2-12 対 応。99年3月には後継機種として 4front NS2000 が出ている。 NFS v3 にも CIFS にも対応している。ハ−ドレイド、WWWアクセスでも設定可。形はまるで舞台ので かい音響装置である。NAS(Network Attached Storage) の走りと言うべき製品である。 このファイルサ−バはOSに Sun を用い、I/O 部分は独自の CPU があり、NFS アク セスを高速に処理するよう設計されている。 NetServer のOSは SunOS 4.1.4 を用 い 4front では Solaris 2.6 に変わっている。どうも評判を聞くに NetServer の扱 いはそうたやすいものではなかったようである。 OSが Solaris 2.6 に変わってど うなったかである。2003年6月追記:話によるとアメリカ本社は日本で言うとこ ろの会社更生法を申請したとか。昨今、ストレ−ジ製品が伸びている時期にいわゆる 倒産とは。やはり、ちょっと分かりにくい製品だったように思う。 * 1999年版 Origin 200 1年以上経ってだいぶ内容が変わっている。先ずディスクの選択が 9.1 と 18.2 GB にな り、RAID 装置との接続が SCSI でなく Fibre Channel になったこと。Fibre Channel は 現在では最も高速なインタ−フェ−スだが、かなり高価である。このため値段的にはシス テムとしては安くなっていない。先に検討したの同じく FailSafe 構成で、どのようにな ったか示すことにする。RAID のディスクは 18.2 GB を使うことにし、実質的なディスク 容量は 72 GB とする。以下の内容で、お値段は2千万円はくだらないが、 かつてのワ− クステ−ション3台分だと思えば安い!。 本体1: Origin 200 − 1台 1 CPU、225 MHz、256 MB メモリ、9.1 GB システムディスク。 DAT DDS3 Drive, 12MB(圧縮24MB)。CD-ROM Drive。タ−ミナル&キ−ボ−ド。 FailSafe NFS ソフト。FailSafe 用 100Base-T 追加ボ−ド。 RAID 装置接続二重化用インタ−フェ−ス。 本体2: Origin 200 − 1台 1 CPU、225 MHz、256 MB メモリ、9.1 GB システムディスク。 DLT Drive, 70 GB、転送速度10 MB/sec。 FailSafe NFS ソフト。FailSafe 用 100Base-T 追加ボ−ド。 RAID 装置接続二重化用インタ−フェ−ス。 RAID 装置 : CHALLENGE RAID − 1台 18.2 GB ディスクを6個。1台は予備、1台は RAID 5 パリティ用。実質容量は 18.2x4 = 72.8 GB。FailSafe ソフトウェア調整費用。 本体接続二重化用インタ−フェ−ス。 無停電電源装置 : GSEE 製UPS − 1台 ソフトウェア設定費用ともで約60万円。停電した際に、コンピュ−タを自動的 にシャットダウンさせるようにする。ただのUPSではない。 本体1 RAID 5 装置 本体2 ------ -------- ------------ -------- *-------* はイ−サネット |端末|===| | | | | | | | | *-----* 18.2GBx6 *------* | NFS のファイルサ−バとし | | |CD-ROM| | 有効容量 | |CD-ROM| てのみの構成にした。 ------ | DAT | | 72.8 GB | | DLT | |------| |----------| |------| UPSも接続しています。 |Contro|-----|Controller|------|Contro| | ller|-----| |------| ller| IRIX 6.5、2000年対応。 ----*--- ------------ ----*--- | | -------------*------------------------------*---------- 上記構成は Origin 200 での、一番信頼性の高い構成である。 RAID ディスクとの接続の 二重化、電源の二重化、本体の二重化を計っている。前回の仕様では RAID ディスク接続 の二重化まではやっていなかった。このスペックなら、空調のない劣悪な環境でも使える。 多分ファイルサ−バとしては、今購入できるあらゆるファイルサ−バの中でも最強だろう。 Fibre Channel は本体と RAID 装置間だけでなく、個々の RAID ディスクもこの接続であ る。これは速い。本体内のディスク・アクセスより、 RAID 5 アクセスの方が速かったと いう実験結果がある。ところで Origin とよくバッティングする AUSPEX、 使うのに簡単 でよいと前書いたが、そうでもないらしい。小生としてはクエッスチョンである。 安全性を少し説明しておく。先ずは RAID 5 である。6個のディスクの内、1個は予備で 1個はディスク故障対策用である。予備を除いた5個のディスクどれかが故障すると、残 りディスクでカバ−するようになる。RAID 構成の一番安全なレベルである。 次に本体が いかれた場合である。これは FailSafe クラスタ構成用のソフトウェアが対応する。この ソフトは面白いことができる。本体1が通常稼働、本体2はスタンバイ。そして本体1が 故障した際に本体2が代わって働くようにする。または、本体1と2が通常稼働し、どち らか一方が故障してもだいじょうぶなように使うことができるのである。片肺飛行である。 ファイルサ−バとしては NFS で使うわけだが、 NFS のサ−バソフトは FailSafe に対応 したものを使う。本体1と2用に2本必要である。FailSafe が対象とする NFS ファイル は、RAID ディスクに格納されたものである。 本体内のディスクにあるものは対象外であ る。本体はどちらもネットワ−クに接続している。一見2つのIPアドレスが振られるか に見えるが、1つだけである。そうでなければ FailSafe の意味がない。そうそう忘れて いた。本体1、2を通常稼働させる FailSafe の場合、コンピュ−タは2台あるわけでパ フォ−マンスは倍?になる。このため本体が 1 CPU でも結構期待できるというわけだ。 あと追加する場合のことを。本体でミラ−・ディスクを運用するとか。外付け RAID がす でに入っているので、あまり意味はないが。ただしシステム・ディスクのミラ−をもつと いうのはいいかも知れない。ミラ−のソフトはまだオプション扱いになっているので注意 されたい。Windows パソコンのファイルサ−バとしても使いたいと考えるならば、SGI 作 成の Samba がある。6万円程度である。他 TAS というのもあるが Samba 共に FailSafe には対応してない。Netscape のWWWサ−バは、Origin 200 のOSにバンドルされてい るが、これは FailSafe 対応になっていると聞いている。最後にラック。専用ラックがあ るが、これは約百万円と高い。ただの入れ物なのに、何でこんなにするの?。 * 無停止型サ−バはどうか `2h/10/m 昔からある ftServer。https://www.stratus.co.jp/ アメリカ Stratus社。国内では日本 ストラタステクノロジ−(株)が扱う。ミッション・クリティカルなシステムに最高の連続 可用性を提供するオ−ルイン・ワン・ソリュ−ション。ハ−ドウェア部は完全に二重化し てある、OSは1つ。ftServer は Fault Tolerant Server、耐障害サ−バという。 停止 されては困るというサ−バを作る場合に用いられてきた。かつては数千万円という価格で EMCと同じく高嶺の花だった。EMCは今日でも高価格であるが ftServer は低価格の 製品もでてきた。Entry model の 2800 や 2810 ならネットでは140万円ぐらいから買 えそうである。無停止型ファイルサ−バを構成するには Stratus ftScalable ストレ−ジ アレイ製品を ftServer と組み合わせる。 ホ−ムペ−ジ見ると everRun と言うソフトウ ェアもある、2台のパソコンを冗長化し1台のサ−バに見せるクラスタ用ソフトウェア。 (3) RAID 装置の説明 * RAID の概要 RAID( Redundant Arrays of Inexpensive Disks )、 ディスク・アレイとも呼ばれている。 これは1988年にカルフォルニアのバ−クレ−大学の先生が出した論文が元に開発が始 められた。元々は安いディスクを組み合わせて、高速なディスクI/Oと信頼性を向上さ せることにあった。そのレベルによって1から5があり、現在では7まである。製品とし ては RAID 0, 1, 5 をサポ−トしたものが多い。またRAID 0+1 といったレベル 0,1 を同 時にサポ−トした製品もよくある。 RAID 2,3,4 の製品は、その方式の難しさからあまり ない。RAID 2,3 は聞いたことない、RAID 4 は高信頼性NAS の AUSPEX や NetApp がある。 -------------------------------------------------------------------------------- 原理的には、1個のファイルを複数のディスクに分散させて書き込むことが基本になって いる。3個のディスクに分散するならば、単純計算では3倍のディスクI/O速度になる。 この複数ディスクは全部で1台のディスクとみなされるので、結果ファイルのサイズを大 きくすることができる。同時にディスク全体のボリュ−ムも大きくなる。 -------------------------------------------------------------------------------- ただし、これだけでは RAID の定義 Redundant 部分がない。 ディスクが1個ぐらい壊れ ても、だいじょうぶだというのが RAID システムである。 RAID 5 では分散してファイル を書き込む時に、復旧用のデ−タも分散して書き込む。これはパリティと呼ばれる。この パリティにより、ディスクが1台壊れてもデ−タが復旧できるようになる。どうもパリテ ィと言ういい方、あまり適切ではないように思う。復旧用デ−タと素直になぜ言えないの か。RAID の仕組みを分からなくしている元凶だと言っておこう。 予備のディスクを入れておき、1台のディスクが壊れた場合、ただちにその予備ディスク にパリティ・デ−タでもって、ファイルのデ−タを復旧させる機能がたいがいの RAID シ ステムにはある。ホットスペアとかオ−トスワップと呼ばれている。更にその壊れたディ スクをコンピュ−タを停止させることなく、抜き出して交換する機能もある。こちらはホ ットスワップとかホットプラグと呼ばれている。ともかく少々故障してもシステムを停止 させずに稼働できるようになっている。また電源もディスクに次いで壊れやすいので、冗 長度をもたせるため電源装置を2個つけた製品もある。以下、一般的な特徴を列挙する。 デ−タのバックアップ(ミラ−リング) 高速なディスクI/O 大容量ハ−ドディスク(数十ギガ・バイト) ディスク故障時のノンストップ運転 RAID 5 の実際の運用はどうなるか。 例えば5個のディスク+1個のホットスペア用ディ スクの場合をみてみる。5個のディスクの1個が壊れると、ホットスペアが替わりになり、 このディスクにパリティ情報を元に修復にかかる。この間、どうも5〜10分ぐらい、デ ィスク・アクセスが遅くなるということだ。保守先にディスクが壊れたというと、1〜2 日の間に、新品を送ってくる。そこで壊れたディスクを取り出し、新しいのを入れる。す ると、最初のディスクの状態に戻すための処理が始まる。5〜10分ぐらいディスク・ア クセスが遅くなる。さらに5個のディスクで、もう1個壊れたらどうなるか。Silicon の Origin 200 の CHALLENGE RAID では、4台のディスクでも働くと聞いた。 もう少し追加説明しておこう。最初 RAID がどんなものか理解できなかった。簡単にいえ ば、高機能なハ−ドディスクと思ってよい。ただのハ−ドディスクならコンピュ−タに接 続して、フォ−マットして使うことができる。 RAID の場合、個々のディスクは通常のも のと同じだが、全体として幾つものディスクが機能するようになっている。このため専用 の制御ソフトウェアがコンピュ−タに必要である。普通のEWSではそういうことになる。 Sun の Solaris 2.x のオプション・ソフトの Solstice DiskSuiteがその例になる。一方 ソフト的に RAID の処理をするのでなく、ハ−ドで高速に処理する製品もある。専用 NFS サ−バで RAID 対応とかいう製品である。あらかじめサ−バにハ−ド的にソフトが内臓さ れているのである。専用 NFS サ−バ=RAID ではないので注意したい。 * RAID のレベル 0 複数のディスクに分散して書き込むだけ。パリティ・デ−タはもっていないため、冗 長度はない。このため厳密には RAID とは呼べない。1台のディスクが壊れたら全部 パ−になる。分散して書き込むのは Striping 技術といわれる。ヌ−ド劇場のストリ ップじゃないよ、ストライピングと呼びます。 1 2セットのディスクに同時に同じデ−タを書き込む。最低2台のディスクから構成で きる。ミラ−リング技術と呼ばれる。1セットの内のディスクが壊れたら、すぐにも う1セットがかわりをする。パリティ・デ−タはない。 3 デ−タの読み書きを全てのディクに同時におこなう。ディスクを同期しなければなら ないので一般的に高価になる。パリティ・デ−タあり。 4 パリティ・デ−タを専用のディスクに保存する。この専用ディスクにアクセスが集中 し、全体のディスクI/Oのボトルネックになる。 5 セクタ−単位でデ−タを、全部のディスクに分散して書き込む。この時にパリティ・ デ−タも全部のディスクに均等に書き込む。必要容量ディスク数+1個のディスクで 構成される。この内1個だけ壊れた場合に、残りディスクのパリティで再生する。 * 参考 ・RAID 装置にはハ−ド RAID とソフト RAID がある。 当然ハ−ド RAID の方がパフォ− マンスはよい。サ−ドパ−ティ製の安い RAID は、たいがいソフト RAID である。 ・RAID 5 では、通常のディスク・アクセスより遅くなると一般的に言われている。 しか し、何メガとかいう大きなファイルのアクセスでの話でないかと筆者は疑っている。 ・RAID 5 のディスクの最小構成は3台である。この内、実質使えるのは2台分である。 2 Gbyte ディスクを5台構成にすれば、4台分の 8 Gbyte が実質容量となる。 ・SEEK Systems 社の Adaptive RAID はレベル 0,1,3,5 を自動で選択する。"次世代超高 速 I/O RAID システム"、"デ−タベ−スを5〜10倍に高速処理"、"努力なしの最高の パフォ−マンス" という唄い文句である。気になったので載せておく。 (4) サ−バスル−プットの改善 ================================================================================ 一般的な意見としては、ネットワ−クよりもディスク入出力(I/O)がボトルネックに なる場合が多い。サ−バ性能の測定は、ネットワ−クの測定とはまた別ものである。ディ スクI/O性能が不足していないか、メモリ・スワップが頻繁に起こっていないかなどチ ェックし、改善を施すことになる。一番頼りになるのは測定値ではなく、サ−バにアクセ スした時の感じである。何となく引っぱられる、反応が鈍い、おかしいといった感じであ る。この時の値と、快適な時の値を較べることにより、どこをいじったらいいか分かるこ とになる。ただしそう簡単ではない。パラメ−タは幾らでもある。本格的にやるにはそれ こそ CPU の仕組みから知る必要があるかも知れない。以下 Solaris 2.5.1 を主に述べる。 ================================================================================ * チュ−ニングの方法 a. ディスクI/Oの改善 ・デ−タを複数ディスクへ分散して書き込む。RAID のディスクを使うことである。 この 場合 RAID 0 か 0+1 の運用が一般的と思われる。 専用のサ−バホストを使う様な場合 はこの限りではないが。 ・ディスクに書き込む前に、メモリに入れる。ディスクI/Oがメモリの入出力よりも遅 いので、緩衝地帯を設けるという考えである。 ・ディスクを再度イニシャライズする。これはディスクをずっと使っていると、ファイル がディスクのいろいろな所に書き込まれて、ディスクI/Oが遅くなる。確かディスク のフラグメンテ−ションという現象である。このため一度ディスクを初期化して、連続 してファイルがディスクに書き込まれるようにするのである。 b. メモリ不足の改善 ・サ−バデ−モンの稼働にマルチスレッド機能を使う。マルチスレッドは、プロセス内プ ロセスであり、メモリは共有できる。単にプロセスを増やすとプロセス1個ずつのメモ リが必要になる。マルチスレッドを論理 CPU と言った人がいる。 なる程、言いえて妙 である。ちなみにプロセスは、プログラムの実行単位である。 ・単純にはメモリを増やす。vmstat や sar コマンドでメモリのスワップが頻発している か調べる。スワップはメモリに入り切らなかったプロセスやデ−タが、ディスクに退避 する現象である。メモリとディスクを行ったり来たりすることになり、本来ならメモリ I/O速度がディスクI/O速度になってしまう。 ・デ−モンのプライオリティを上げる。UNIXでは全てのプロセスは、実行の優先度と いうのがある。ps コマンド表示の PRI が優先度として見れる。コマンドの nice で値 を設定する。% man nice とやると run a command at low priority と出て来る。 c. ネットワ−クI/Oの改善 ・サ−バホストのイ−サネット接続を 100 Mbps にする。 今後 100Base-T 対応のスイッ チング・ハブを導入していった場合、サ−バのクライアントが 10 Mbps でも、 サ−バ 側にはどっとパケットが押し寄せる。サ−バデ−モンの処理が十分でも、ネットワ−ク の口がボトルネックになる場合がでてくる。 ・サ−バホストのイ−サネットの口を増やす。Sun の Ultra Enterprise 2 でも最大4つ のセグメントを持つことができる。一般的には1つのホストからサブネットを複数出す 構成である。中には同一サブネットとして扱うことができるホスト製品もある。 d. デ−タベ−ス・ソフトの改善 ・ベンダ−のマニュアルを見るか、問い合わせること。 たいがいの RDBMS には特有の性 能測定コマンドやパラメ−タ設定コマンドが用意されている。 e. NFS アクセスの改善 ・NFS の同時アクセスのクライアントを1セグメント、5から最大でも10にする。接続 ホスト数としては最大25ぐらいまでにする。一般的な話である。 ・先ず NFS サ−バがボトルネックになっているか nfsstat -m コマンドで調べる。 ・NFS デ−モンのスレッドを増やす。nfsd -a 64 等とする。 Solaris 2.5.1 の場合デフ ォルト値は16になっている。 ・Solaris 2.x なら Prestoserve オプションを追加することができる。 NFS のディスク 書き込みのメモリによる緩衝地帯を設けることにより、75%まで書き込み速度を上げ ることが可能とカタログには書かれている。約20〜40万円。 ・CacheFS をクライアントで設定する。NFS サ−バのファイルで変更が少なく、頻繁にク ライアントが読み込む場合に有効である。 * サ−バ性能の測定コマンド iostat : ディスクI/Oの稼働状況の情報を表示する。# iostat -x 30 などとして調べ る。ビジ−状態を示す %b が30%以上で、サ−ビス時間が svc_t が 50ms 以 上のディスクを調べよと参考書に書かれている。過負荷のディスクを調べる。 vmstat : メモリ不足をみつけるコマンドで、仮想記憶の稼働状況を表示する。#vmstat 5 などとやって、ペ−ジスキャンの割合 sr を調べる。 値が 200 page/sec 以上 だと問題と参考書に書かれている。つまりスワップ頻度が多いのはいけない。 sar : iostat と vmstat を足したようなコマンド。SystemV 系UNIX標準コマンド。 でも Solaris 2.5.1 にはデフォルトで入っていないみたい。 INDY にはあった けど。% sar 6 10 というように、時間(秒)の間隔と計測の回数を指定する。 swap : スワップ領域の表示、利用の可否。swap -s, swap -l でみる。 INDY IRIX 5.3 も同じコマンド。SunOS 4.1.x では同等なコマンドは # pstat -s である。 次は FireWall-1 を稼働させている SPARCstation 5、Solaris 2.5.1、 64 Mbyte メイン メモリのマシンで iostat と vmstatやって見た例である。 # iostat -x 30 << 30秒間隔で表示させている。 extended disk statistics disk r/s w/s Kr/s Kw/s wait actv svc_t %w %b fd0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0 0 sd3 0.0 0.1 0.0 0.7 0.0 0.0 34.3 0 0 extended disk statistics disk r/s w/s Kr/s Kw/s wait actv svc_t %w %b fd0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0 0 sd3 0.0 1.3 0.1 9.5 0.0 0.2 164.0 0 1 # swap -s << 151128K が今時点で利用可能なスワップ容量。刻々変化する。 total: 65168k bytes allocated + 11600k reserved = 76768k used, 151128k available # vmstat 5 << 5秒間隔で表示させている。 procs memory page disk faults cpu r b w swap free re mf pi po fr de sr f0 s3 -- -- in sy cs us sy id 0 0 0 708 2380 0 0 0 0 0 0 0 0 0 0 0 6 18 19 0 0 100 0 0 0 137836 7028 0 2 0 0 0 0 0 0 0 0 0 7 40 28 0 0 100 0 0 0 137900 7080 0 0 0 0 0 0 0 0 0 0 0 88 101 46 0 1 99 0 0 0 137900 7080 0 0 0 0 0 0 0 0 2 0 0 137 352 97 6 4 90 $ /systest/ssr_util/vmstat 5 << おまけ、Apollo にもありました。 procs memory page disk net faults cpu r b w avm fre re pi po fr de sr dr dw nr nt da ex cs us sy id ------ -------- --------------------- ----- ----- ---------- -------- 1 0 0 3132 0 0 0 0 0 0 0 0 0 0 0 0 1 0 6 0 94 1 0 0 3132 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0100 1 0 0 3132 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 99 * サ−バ性能の測定 : INDY IRIX 5.3 での例 Silicon Graphics のEWSには swap, sar といったコマンドの他に gr_osview, osview, top といった独自コマンドが用意されている。 gr_osview は CPU やスワップの利用状況 をリアルタイムでグラフィカル表示する。top は動作中のプロセスを上位からリアルタイ ム表示する。top で Netscape Navigator の起動時を見ると CPU 使用率が90%、 その 後は多くても30%ぐらいだった。これはマシンのスペックによるが、こんなことが分か るよということで。perf というパフォ−マンス計測ユ−ティリティもあるらしい。 これ は eoe2.sw.netman サブシステムに入っているようだ。なぜか iostat, vmstat コマンド は INDY には見当たらない。Xウィンドウの xload コマンドはどうか。 横にしきい値の ラインが出ているものの、縦横にメモリもない。しかし負荷が今ちょっと大きいとか、傾 向ぐらいは分かるだろう。 % sar 6 10 << root でないと実行しない。他のは一般ユ−ザでも可。 IRIX indy1 5.3 02091401 IP22 11/24/98 18:44:40 %usr %sys %intr %wio %idle %sbrk %wfs %wswp %wphy %wgsw %wfif 18:44:46 0 0 0 0 100 0 0 0 0 0 0 18:44:52 2 0 0 0 97 0 100 0 0 0 0 18:44:58 0 0 0 0 99 0 0 0 0 0 0 % swap -l lswap path dev pri swaplo blocks free maxswap vswap 2 /usr1/swap/swap1 128,55 3 0 204800 204800 204800 0 3 /.swap.virtual 128,16 2 0 0 0 0 80000 1 /dev/swap 128,17 0 0 81528 74304 81528 0 % swap -s total: 3.53m allocated + 38.96m add'l reserved = 42.48m bytes used, 197.54m bytes available % top << どんどん出て来る値が変わっていく。 IRIX indy1 5.3 02091401 IP22 Load[0.42,0.33,0.18] 18:43:37 56 procs user pid pgrp %cpu proc pri size rss time command katou 2567 2567 0.43 0 60 412 173 0:00 top root 518 518 0.22 * 26 5279 3957 95:12 Xsgi katou 28526 28523 0.14 * 26 896 575 0:02 iwsh root 501 0 0.05 * 26 408 129 6:32 mediad root 3 0 0.02 * +39 0 0 1:30 bdflush katou 28497 28479 0.01 * 26 1519 806 0:01 xwnmo2 % osview << これもどんどん値が変わっていく。 Osview 2.1 : One Second Average indy1 11/24/98 18:44:06 #2 int=5s Load Average fs data 6.7M *Swap vidioctl 0 1 Min 0.309 delwri 0 *System VM vidintr 0 5 Min 0.313 free 9.5M Memory Faults drop_add 0 15 Min 0.174 userdata 41.0M vfault 0 TCP CPU Usage pgallocs 0 protection 0 sndtotal 0 %user 0.40 System Activity demand 0 rcvtotal 0 %sys 0.00 syscall 23 cw 0 sndbyte 0 %intr 0.40 read 3 steal 0 rcvbyte 0 %gfxc 0.00 write 1 onswap 0 UDP %gfxf 0.00 fork 0 oncache 0 ipackets 0 %sxbrk 0.00 exec 0 onfile 0 opackets 0 %idle 99.20 readch 584 freed 0 dropped 0 Wait Ratio writech 577 unmodswap 0 errors 0 %IO 0.0 iget 0 unmodfile 0 IP %Swap 0.0 Block Devices iclean 0 ipackets 0 %Physio 0.0 lread 0 *TLB Actions opackets 0 System Memory bread 0 Graphics forward 0 Phys 64.0M %rcache 0.0 griioctl 0 dropped 0 kernel 6.0M lwrite 0 gintr 72 errors 0 heap 940.0K bwrite 2.4K swapbuf 0 NetIF[ec0] stream 12.0K wcancel 0 switch 0 Ipackets 0 zone 760.0K %wcache 0.0 fifowait 0 Opackets 0 ptbl 832.0K phread 0 fifonwait 0 Ierrors 0 fs ctl 792.0K phwrite 0 Video Oerrors 0 * ネットワ−ク/サ−バの負荷 WWWサ−バの反応が遅くなった。ネットワ−クが混んでいるのか。あるいはWWWサ− バヘのアクセスが多いのか。その前にDNSによるホスト名解決しているかどうか、それ をチェックしたい。そんなに人気サイトでもない、普通の企業のホ−ムペ−ジでそう遅く なる訳がない。named のパッチを当てたりしていたら、外向けのWWWサ−バの画面が出 て来るのがいやに時間がかかるようになった。この時は、named でホスト名解決がうまく できていなかった。それで待たされていた。DNS絡みで時間がかかるケ−スはしばしば 起こるものである。しかし本当にWWWへのアクセスが多くて遅い場合、ボトルネックを 特定して改善させるのは難しいことである。先ずは、次のような記事でもなめるようにし て読んでみたい。小生も、ここまでのテクニックはありません。 「Software Design」 2003/02, "Webシステムチュ−ニングパ−フェクトガイド"。 > 1章Webシステムのボトルネックを探せ、P.112〜121、vmstat, uptime, netstat。 「Software Design」 1999/09, P.99〜 "ネットワ−クを再構築しよう"。 > ネットワ−クのボトルネック。trafshow, MRTG, ntop の記事あり。 * Solaris 9 での高負荷の例 `28/08 Mail-Store のマシンでのこと。 ある時マシンの状態を見たら sendmail デ−モンが一杯 できていた。おかしい、普通では sendmail はだいたい3つぐらいしか見えない。それで メモリやCPUの状況を vmstat で見たら、以下のような値が出た。その後 sendmail の 数は落ち着いたが vmstat での様子は変わらなかった。かなりひどい状況である。一番左 の値 r は通常は 0 か 1 である、それが 3 から 6 ぐらいになっている。 因に一番上の 値 r b w が 0 0 0 の行は無視してよい。CPUの使用率は us はユ−ザ、syはシステム が使っている分である。us の値が 96 前後で、CPUの IDLE は0。何かが目一杯CPU を使っていることになる。それで sdtprocess コマンドを叩いた、mrf というプロセスが それこそ93%とかなっていて、他のは微々たるものだった。 mrf は InterScan の起動 で作られるデ−モンで、Google でも検索したらトレンドマイクロのサイトに mrf の不具 合のことが出ていた。先ずは InterScan を再起動してくれとのことだった。 # vmstat 5 4 kthr memory page disk faults cpu r b w swap free re mf pi po fr de sr m0 m1 m5 m6 in sy cs us sy id 0 0 0 752808 240872 332 400 49 6 5 0 0 0 0 0 8 160 162 340 34 11 56 4 0 0 733696 97992 33 198 0 0 0 0 0 0 0 0 4 344 268411 305 97 3 0 4 0 0 733128 97480 63 368 0 0 0 0 0 0 0 0 9 580 258857 383 96 4 0 4 0 0 733080 98296 43 353 3 0 0 0 0 4 0 0 23 672 257585 369 95 5 0 # uptime この値の見方はいかに? 午後 3時36分 稼働 309 日間, 5:31, 2 users, 平均負荷率: 5.38, 5.31, 5.30 # /usr/dt/bin/sdtprocess これでGUI画面がでてきて、どのプロセスがCPU をくっているか見ることができる。 # /etc/rc2.d/S99ISIMSS restart これで InterScanの再起動をやる。1分ぐらいで処理 | は終わる。単純に S99ISIMSS stop と startをやって TMI mrf stop ok 続く いるだけ。以下のようにすぐに軽くなった。 # vmstat 5 4 kthr memory page disk faults cpu r b w swap free re mf pi po fr de sr m0 m1 m5 m6 in sy cs us sy id 0 0 0 752808 240872 332 400 49 6 5 0 0 0 0 0 8 160 167 340 34 11 56 0 0 0 889384 262584 37 211 0 6 6 0 0 0 0 0 8 463 675 365 1 2 98 0 0 0 889184 262808 75 520 0 0 0 0 0 0 0 0 18 555 1244 467 2 4 94 0 0 0 889256 262864 35 226 0 0 0 0 0 4 0 0 13 553 548 360 0 2 97 # uptime だいたいこんな値が正常 午前10時31分 稼働 315 日間, 26 分, 2 users, 平均負荷率: 0.15, 0.12, 0.13 * Solaris 9 でのスワップファイルの扱い `28/12 # swap -l InterScan7のインスト−ル swap ファイル デバイス swaplo ブロック 空き容量 で大きなスワップ領域が必 /dev/md/dsk/d1 85,1 16 4202672 4202672 要になった。 4GBスワップを追加してみる 4GBx1024MB=4096MB。k:KByte b:Byte m:MByte。 # mkfile 4096m /usr1/swapfile << 2分位かかった。/usr1 には十分領域があること。 # swap -a /usr1/swapfile << これは一瞬で終わる。これで追加が有効になる。 # ls -l /usr1/swapfile -rw------T 1 root other 4294967296 11月 18日 15:24 swapfile # swap -l swap -l は512Byte Block swap ファイル デバイス swaplo ブロック 空き容量 swap -s は1024Byte Block /dev/md/dsk/d1 85,1 16 4202672 4202672 /usr1/swapfile - 16 8388592 8388592 << 追加されていることが分かる。 # swap -s 合計: 365128kバイト割り当て済み+1487408k予約済み=1852536k使用済み,1065432k使用可 /etc/vfstab マシンをリブ−トしても追加スワップが有効になるよう記述しておく。 -------------------------------------------------------------------------------- |#device device mount FS fsck mount mount |#to mount to fsck point type pass at boot options | | |swap - /tmp tmpfs - yes - |/usr1/swapfile - - swap - no - << これ記述しておく。 (5) NAS から SAN まで `21/03 * 広がる選択肢 少なくとも2000年になる前まで位は、ファイルサ−バといえば Sun の Enterpriseシ リ−ズというのが定番だったと思う。SGI の Origin というファイルサ−バも、すぐれた 選択だったと思う。それが NAS とか SAN とかいうのがいつの間にか出てきた。Linux を プリインスト−ルした DOS/V マシンも一杯出てきて、 サ−ドパ−ティ製の RAID 装置を 付けるのも当り前のようになってきた。その間、1〜2年の間にハ−ドディスクやメモリ の価格もぐっと下がった。今や一口にファイルサ−バといっても、選択肢は幾つもある状 態になっている。先ずは NAS から片付けて行こう。 プリンタには何年か前からネットワ −ク直結型の製品が出ている。これと似たような発想でできたのが、ネットワ−ク直結型 ハ−ドディスクである。製品としては、MaxAttache というバカちょんがある。 NFS, SMB サ−バ機能をサポ−トし、簡単設定ファイルサ−バという使い方をする。 1. 従来型ファイルサ−バ Sun や SGI の製品。クリティカルな使用ではまだまだ必要である。 2. SAN( Storage Area Network ) かなり高価なシステムになる。よい子では考慮する必要はないと思われる。 3. NAS( Network Attached Storage ) ばかちょんハ−ドディスク。ちょっとした部門用の共有ディスク程度。 4. Linux DOS/V + RAID 装置 Sun など従来のファイルサ−バに比べれば信頼性の点で今一つかな。 * SAN( Storage Area Network ) とは コンピュ−タ内臓または外付けのデバイスを接続する SCSI インタ−フェ−スは、いわゆ るネットワ−ク的な性質をもっていることは知られていたことである。これを光ファイバ である Fibre Channel をインタ−フェ−スにして、 積極的にネットワ−クとして利用し ていこうという発想が FC-AL( Fibre Channel Arbitrated Loop, 調停ル−プ )でありSAN というものである。 FC-AL は対応する FC-AL カ−ドをコンピュ−タや周辺装置に装着す れば、イ−サネットの同軸ケ−ブルのようにじゅじゅつなぎで接続していける。ケ−ブル はル−プ状につなぎ、接続デバイス数は126、その距離は最大10キロともいわれてい る。あるいは通常のハブやスイッチに相当する FC ハブ、 FC スイッチを使って接続する こともできる。FC スイッチでは論理的には、 126をはるかに超える数の接続ができる。 そして Fibre Channel のデ−タ転送速度は 100 MB/sec にもなり、 実質のスル−プット も SCSI に比べ格段に高いといわれている。 こうした Fibre Channel インタ−フェ−スの機能のもとに、SANというデバイス装置専用 のネットワ−クというべき仕組みが近年提案されはじめた。SAN はファイルサ−バとして ハ−ドディスクや DLT などのバックアップ装置など、 コンピュ−タ本体以外の周辺装置 を接続する共有ネットワ−クといえる。ここではファイルサ−バの意味はCPUと思って いいだろう。 何らかのデ−タは Fibre Channel 接続されたハ−ドディスクに入っている。 複数のファイルサ−バがあって、複数のハ−ドディスクやバックアップ装置を共有する形 態が SAN である。そしてそのための専用ソフトが必要になる。 このソフト代は結構高い らしい。SAN 専用ソフトを使えば、ファイルサ−バを介さずに通らずに、ハ−ドディスク から直接 DLT などにデ−タを転送できるという。 SAN を使うメリットとしてよく記事が 載っている。インタ−ネット上に SAN の構成例の説明はたくさん見つけることができる。 この SAN 製品、 ストレ−ジ製品ともいうようだが EMC2 という会社の名前がよくあがる。 EMC2 の名前を知ったのは、Sun の Enterprise を検討していた当時のことである。 日本 法人ができたばかりで、ちょっと知り合った人が移り、買ってくれ−と電話してきたこと があった。メインフレ−ム用のストレ−ジとして1億円ぐらいだという。話を詳しく聞く こともなく、SAN なるものも知らないまま過ぎた。 そしてこの1年ぐらいで SAN 市場が ぐっと伸びてきた。テレビでも最近2度ほど SANの特集番組をみた。EMC、VERITAS、日立 の名前が挙がっていた。インタ−ネットの大規模サイト向けにばんばん売れているようで ある。つい最近のデルやコンパックのカタログを見たら、SAN 製品が並んでいた。やや安 くなってきたのか。 しかし基本的に SAN は、ファイルサ−バや RAID や DLTなどが一杯 あるネットワ−ク向けであることは変わりない。注、EMC2 の 2 は小文字である。 □ □ □ □ クライアント ※基本的な SANの構成である。クラスタ | | | | 構成やフェイルオ−バの構成もできる。 ---------------------- Ethernet| | ■ ■ << Windows NT やEWSによるサ−バ。ここではデ−タの Fibre Channel \ / 蓄積はしない。外部の RAID 装置などに蓄積する。 ---------------- | SAN Fabric | << SAN 用ネットワ−ク接続装置のこと。 ただのハブとス ---------------- イッチがある。Fabric は織物という意味などがある。 Fibre Channel / | \ ● ◎ ○ << RAID や DLT などストレ−ジと呼ばれるもの。126台ま で接続可能。実際のところはよくて数十台らしいが。 * ファイルサ−バいろいろ Origin 200 のミラ−はどうなったかな > 800万円ぐらい。R12K 360MHz, 4MB Cache, 512MB, 18.2GBx5 RAID 分, 18.2GBx1 シ ステム分。DAT, CD-ROM ドライブなど。設置、保守1年含む。やっぱりCAD用ファイ ルサ−バなら小生はこの Origin を選びたい。デ−タは企業にとってクリティカルだ。 Sun Enterprise 250 ぐらいはどうかな > 約90万円。300MHz x 1CPU, 256MB, 18.2GBx1, ディスプレイ。73.2Dx26.2Wx46.0H 奥 行きがある、でかい。9.1GB または 18.2GB ディスクを最大6個搭載。メモリ最大 2GB。 この他 Sun は Enterprise 220 とかストレ−ジ対応製品とか出してきている。 Sun Cobalt Qube3J Professional Edition > 約46万円。450MHz, 20.4GBx2 RAID 1 ソフトウェア制御によるミラ−リング。128 MB PC-100 SDRAM, UltraWide SCSIインタ−フェ−ス1個。プリ・インスト−ルソフト各種。 簡単に何も考えずに、ちょっとばらまいてみよかという感じ。 ニュ−テック RAID-NM シリ−ズ > DOS/V Linux はじめ Solaris, IRIX, Windows NT など対応の外付けハ−ドウェア RAID。 36 GB, 18.2 GBx2 でミラ−構成、18.2 GBx1 はホットスペア。 あるいは RAID 5 構成 での運用。約48万円。SCSI ハ−ドディスクを使用。他にもいろいろあり。 * Linux で十分でないかという話も Linux DOS/V があれよあれよという間にサ−バ用途として、かなり使われるようになって きた。一時ディストリビュ−ションが乱立気味だったが、今では RedHat が半分ぐらいの シェアを握り、OSとしてもだいぶ安定してきた感がある。 それに伴い Linux をプリイ ンスト−ルした DOS/V マシンが、2000年終わり位からでてきた。 ハ−ドディスクが 格段に安くなり、サ−ドパ−ティ製の RAID 装置もどんどんでてきた。 しかも IDE-RAID ならまたまた安く、別に Sun Enterprise みたいな高価なファイルサ−バを買うまでもな いぞという話もある。一応少しは信頼性を考えて、SCSI の RAIDにするかという話しもあ ったり。SCSI は新しい規格が出てきていて、Ultra2 SCSI は 80 MB/sec、Ultra160/m が 160 MB/sec も出る、Ultra3 ともいう。以前検討した Origin 200 の内部 Fibre Channel が 25 MB/secだったことを思えば、80 MB/sec も出ればおんのじでないか。 Origin 200 で 50 GB 位のミラ−構成で約800万円。それを COMPAQ とニュ−テックの 外付け RAID でそこそこ構成すると150〜200万円といったところか。しかしちゃん としたファイルサ−バを考えるなら、やはり Sun や SGI の製品を選びたい。ちゃんとし たファイルサ−バとは、本章でのCAD用であるとかである。信頼性の点でこれらのメ− カの製品は永い実績がある。 それに同じUNIXといっても Linux よりもはるかにこな れていて、安定していると考えられる。 ニュ−テックの RAID-NM シリ−ズを1つ購入し てみた。買う時に Linux 用でミラ−仕様でというように指定すれば、 そのまま繋げて終 わりだったのだが、 知らずに買ったので自前で Linux 用ミラ−のフォ−マットをするは めになった(若手が実際やった)。しかも設定用のソフトが Windowsでしか動かないという。 まだ Linux ではそこそこ、いろいろやらなければいけないのが現状みたいである。 * NAS 製品を1つ見てみた `22/10 Snap Server という NAS を触る機会があった。懇意にしているSI業者さんが、 とある 納入先でのトラブルで、小生のところでテストさせてということで、持ち込んできたのだ。 IP-VPN 広域LAN越しに Snap に入れたデ−タを NFS アクセスする。それがどうも NFS セッションを開始する時に、パケットが途切れてしまうという。Snap 実装の NFS サ−バ とクライアントの相性が悪いのでないか。そんなんで NFS クライアントを SGI IRIX 6.x、 それに Apollo で試してみた。別に問題なかった。Snap は NFS version 2 のみ対応する。 IRIX 6.x の NFS クライアントは、初め NFS サ−バに version 3 で接続しようとし、サ −バが version 3 に対応してなければ、次に version 2 で接続を試みる。Apollo のNFS は version 2 対応のみである。NFS は十分枯れたプロトコルなので、 トラブルの原因は 他のネットワ−ク機器の経路設定にあることが後で分かった次第だった。 使ったのは Quantum 社の Snap Server 4100。その業者さんが言うには、よく売れている NAS 製品だそうだ。http://www.quantum.co.jp/ ハ−ドディスクのメ−カ。1Uラックサ イズの製品でWWW経由で設定する。まるでばかちょん、telnet もできない。 コバルト の Samba のファイルサ−バのとこだけという感じの製品だった。 スイッチ類もまるでな い。スペックは、4台のディスクで RAID 0,1,5 をサポ−ト。出荷時は RAID 5。 OSは FreeBSD ベ−スにチュ−ニングしているとのこと。320 GB モデル 38.6 万円、480 GB モ デル 54.9 万円。150人位まで使えるとある。 PowerQuest 社の DataKeeper というソ フトがついてくる。これで Windows パソコンのファイルを自動的に、 Snap Server へバ ックアップすることができる。まあ、一つ買って様子を見てみるかという感じである。 * 他の NAS 製品を調べてみた `22/11〜 MaxAttach NAS4100 http://www.maxtor.co.jp/ > 1Uサイズ。160 GB モデル 33.6 万円、320 GB が 55.2 万円。あるところのキャンペ −ン価格である。OSは Windows 2000 Server ベ−スの Windows Powered NAS という。 IDE ディスク4台でソフトウェア RAID 0,1,5 をサポ−ト。出荷時は RAID 5。NAS4300 が2001年12月に出ている、480 と 640 GB のモデルがある。 MaxAttach は Snap Server と同じく、 ほとんど何も設定することがないばかちょんファイルサ−バである。 Snap Server より出たのは早かったのでないか。ホ−ムペ−ジには、ハ−ドディスクの ことしかないみたい。ニュ−スリリ−スに MaxAttach の記事がある。Maxtor もハ−ド ディスクのメ−カである。かの Apollo コンピュ−タのディスクもそうだった。 DELL PowerVault 715N と 775N OSは Windows Powered NAS > 715 タイプ。1Uサイズ、30人まで、160 GB(IDE 40GBx4)、24.4 万円。320 GB モデ ル 32.4 万円、480 GB は 42.4 万円。ソフトウェア RAID 0,1,5。 775N タイプは30 人以上、2Uサイズ、システム用ディスク2個 RAID 1、必須みたい。 デ−タディスク はハ−ドウェア RAID 0,1,5 で、出荷時 RAID 5。デ−タディスクは3個まで付く。 外 付けの PowerVault 220S を付ければ最大 8.3 TB になる。 奥行きがかなりあるもよう、 483x85.7x699。デルの見積りは非常に細かい。ラックの金具や電源ケ−ブルまで数十書 かれていたが、価格は一括で1つと保守料が載っていただけだった。価格は見積りを取 ってみないことには、幾らになるか分からない。775N は軽く百万円位になる?。 SelfStor アプライアンス > 日商エレクトロニクス扱い。MaxAttach はなくなった。その代わりとして見つけてきた もよう。2004年1月の説明資料より。UNIXベ−スの専用OS、OSはフラッシ ュメモリに入っている。クライアントのパソコンのデ−タを自動でバックアップするソ フト SelfStor DataReplicatorが付属、ライセンスはフリ−。各種 RAID 対応。専用画 面でアクセス制限の設定ができる。ブラウザから共有ファイル単位でのユ−ザ、グル− プのレベルでの読み書き権限の設定。ACLによるファイル、フォルダのレベルでのア クセス管理ができる。SanpShoto 機能。Active Directory 対応、Windows NT ドメイン 対応、UNIX NIS 対応。2004/11調べ、480 GBモデルが約77万円。 Windows Powered NAS は、Windows 2000 Server をベ−スに作られているとのこと。つま り Windows のOSとしてウィルスに感染したり、 セキュリティホ−ルがあるということ である。そのパッチが Windows 2000 用として用意されているが、どうもうまく適用でき ない場合もあるらしい。しかも、自分でパッチ当て作業をしなければならない訳で、こう なると、もう NAS とは言えんぞ。小生としては、Windows ベ−スの NAS はハテナです。 * 参考資料 「UNIX MAGAZINE」2000.1, P.16〜35, "ストレ−ジ管理の手法"。手元にあれば読んでみる > こと。2000.4, P.133〜137, "長距離SANの構築 by Glenn Sullivan"。 「ニュ−テック総合カタログ No.11 2000年 夏&秋号」 > "特集コラム:SANによるフレキシブルなストレ−ジ管理"。No.12 が出ている。 「SAN−実践的 Fibre Channel ストレ−ジエリアネットワ−クの実装」 > ピアソンエデュケ−ション 2000/12/25、1,800 円+税。ちらっと本屋で見た。 他コンパックのカタログ "プロダクトセレクション 2001.3"。デルのカタログには、スト レ−ジとファイバ−チャネル・スイッチの PowerVault 製品と、NTサ−バの PowerEdge 製品の紹介がある。製品構成例も載っているので参考になる。この章書いてから見つけた ので「ASCII network PRO」2000/10,"現場で動くSAN", P.82〜91。 最後に見てはいな いけど「OPEN DESIGN No.38」"特集:SANの基礎知識", 2000/06/01, 1,840 円(税込)。