お知らせ

  • パソコン関連

G Suiteを使う価値

noimage

G Suiteを使う価値

GoogleのオフィススイートG SuiteはMS Officeなどのオフィススイート製品の一つです。 1ユーザーあたり月額600円で利用可能で、Webブラウザ上で動くアプリケーションです。 ExcelやWord、Powerpointファイルのインポート、エクスポートが可能で、Google Driveに取り込めばGoogle SpreadやGoogle Documentに変換して利用することができます。 これらG Suiteアプリの最も良いところと筆者が思うのは自動保存の行き届いたところです。 細かい変更を行うたびに保存され、サーバー側で保持されるのでアプリケーションのクラッシュによりデータを失うことはありません。 常に最新版を保存し続けているのでブラウザが強制終了してしまったとしてもデータは失いません。強制終了までに通信が途切れているとこの限りではありませんが、保存状態は常にわかりやすいところに表示されているので安心できます。 保存するタイミングは選べませんが、どの時点まで戻るということは可能です。30分前の状態に戻す、あるいは昨日の状態に戻して再度編集するということも可能です。 現在からの変更箇所も色付きでわかりやすく表示されるので、どの部分を編集したのかもたどることができるようになっています。 またデータを失わないことと同じぐらいに良いこととして複数人での共有が便利です。共有設定を行えば、閲覧や編集について複数人でデータを共有し同時に編集を加えることができます。 同時編集は使って見なければわからない良さがあります。他の利用者が編集や追加していくところをリアルタイムで確認することができるのは様々な活用法があります。一人が終わったら次の人がと作業を後回しにせず同時に一つのドキュメントやスプレッドシートで共同作業できると作業が目に見え効率も高めることもできます。 MS Officeファイルとの互換性については基本的な機能については同じものです。ExcelやWordファイルからインポートする形ですぐにG Suiteで利用できます。また必要であればExcel、Wordファイルの形でエクスポートも可能です。 互換性の問題でいうとVBAは一切利用できず変換もできません。マクロなどの自動処理にはjavascriptが必要でそれらの移行は大なり小なりの作業になります。 マクロの互換性については検討する必要がありますが、その必要のないドキュメントやスプレッドシートについてはG Suiteが現在一番使いやすく安全な方法ではないかと考えています。

  • パソコン関連

Dropbox for Business をお勧めする理由

noimage

Dropbox for Business をお勧めする理由

Dropboxはオンラインストレージと呼ばれるサービスの一つです。 オンラインストレージサービスはたくさんありますが、Dropboxはその初期からの企業で実績も多く、ユーザーは5億人とも言われています。それだけ信頼感と利便性があり、ユーザーの事例もたくさんあります。 クラウド上にアップロードしたデータを各パソコンと同期することができ、複数台で同期することによりチーム内での共同作業も可能で、なによりもこれが便利なところと考えています。 スマートフォンクライアントを使うと出先からでも共有ファイルの確認などが行えます。これはオフィスファイルやPDF、画像、動画など様々な種類のコンテンツを表示できます。 Dropboxは競合サービスと比べてPC上の同期クライアントの優秀さが秀でているように感じます。 他のオンラインストレージでも同期クライアントはありますが、サイズの大きなファイルやフォルダを同期した際に不安定になったり時間がかかってしまうことが多いです。 その他ファイルの履歴の管理や、削除からの復元などのリカバリー機能、そしてパソコンの中のデータファイルをDropboxと同期しておけばパソコン自体の故障でデータ自体を失うことはありません。 Dropboxでファイルを共有しておけば、パソコンが故障しても他のPCでファイルをダウンロードして作業の続きを行うことができます。意識せずにできる自動のバックアップです。 パソコンやスマートフォンのクライアントはDropboxのサーバーに接続しますが、これらは厳重に暗号化されており盗聴などは不可能です。 デメリットがあるとすれば、オンプレミスのファイルサーバーに比べてインターネットを経由する分転送時間がかかることでしょうか。 同期クライアントを利用していればバックグラウンドで同期が行われるのでその時間を気にする必要はほとんどありません。 企業向けDropbox for Businessであれば1ユーザーあたり1TBの容量が利用できます。 10人のチームであれば10TBを共有することができ、様々なデータのバックアップなどに利用することができます。

  • パソコン関連

Amazon Prime Photosが日本でもサービス開始

noimage

Amazon Prime Photosが日本でもサービス開始

ネット通販で大きなシェアを占めるAmazonが提供するオンラインストレージAmazon Cloud Driveの中で、Amazonプライム会員向けにAmazon Prime Photosの日本での提供を開始しました。 Prime PhotosはAmazonの通販で最短の配送を受けることができるプライム会員向けのサービスで、デジタルカメラのデータを劣化させることなく無制限にアップロードすることができます。 プライム会員向けのサービスは他にAmazon Prime VideoとAmazon Prime Musicのサービスを日本でも始め、他の音楽、ビデオの配信サービスに比べて割安な料金で利用することができます。 プライム会員向けにAmazonのサービスを最大限提供し、プライム会員を増やす試みと思われます。 同様のサービスとしてGoogle Photosもクラウドに無制限にデジカメ写真をアップロードすることができ、こちらはGoogleアカウントがあれば無料で利用できます。 Google Photosの制約として無償で利用する場合、ある程度大きいサイズの写真(16メガピクセル)については縮小、ファイルの再圧縮が行われることがあります。 GoogleやAmazonは企業向けクラウドを事業化している企業で、各地にデータセンターを多く持っています。 クラウドの利点として、データセンター増設により障害への耐性が強くなり、またハードディスクなどの記録メディアについても規模によって割安になります。 スマートフォンの中で大きな容量を占めるのが、写真、動画、音楽などで、これをクラウドに移行してスマートフォンの容量を空けて、ネットワーク経由でそれらを利用するスタイルが広く受けいられるようになりました。 クラウドを最大限利用すればスマートフォン自体のストレージ容量は少なくて済み、購入時の費用を節約することができます。 クラウドの拡張とスマートフォンの普及の二点があり、クラウドは一般ユーザーの囲い込みを積極的に行うようになってきています。 クラウドにアップロードしてスマートフォンから消してしまったデータを、再びダウンロードして他のクラウドストレージに移すのは非常に手間なことです。 クラウド提供事業者はどれだけ一般向けのクラウドのシェアを獲得できるか、しのぎを削っている状態です。 ユーザーとして使いやすく割安なものの選択肢が増えることは歓迎すべきことだと考えています。

  • パソコン関連

NASと小規模オフィスのバックアップ

noimage

NASと小規模オフィスのバックアップ

パソコンが故障した際にすぐに復旧可能とするためにバックアップは必要です。 小規模オフィスで10台前後のパソコンがある場合、そのバックアップ先をどうするか、ということについては様々な選択肢があり、NAS(ネットワーク型のハードディスク)などで一元管理をなどを検討される場合も多いと思います。 筆者としてはUSB接続のポータブルハードディスクを台数分購入し、Windowsでの標準のバックアップ(Windows Vista以降に標準搭載)を使用する方法がベストではないかと考えます。 そう考える理由としては、NASの運用はそれなりにコストが必要だからです。 NASの運用コスト 専属のシステム管理者がいらっしゃる場合は、このNASの運用コストなどについてご存知のはずですので、そうではない方向けに書いてみます。 一般に販売されている小規模なNASはRAID1かRAID5など、ハードディスク装置が一台故障した場合でもデータを失わない冗長化という機能を持っています。 このRAIDを実現するために、多くのNASはLinuxをベースにした一つのパソコンの形になっています。 LinuxでRAIDを実現するためにはLinuxのファイルシステムを使う必要があります。ファイルシステムはWindowsではNTFSなどが利用されています。 これらに互換性は一切ありません。Windowsのパソコンにこれらのハードディスクを接続しても認識することはまずできません。 NASの本体に組み込まれたシステムなしにこのハードディスクの中のデータにアクセスすることは簡単なことではありません。 またNASのシステム自体を操作してトラブル対処するためには知識の習得が必要になりますので、コスト低減のためには業者との保守の契約を結ぶの現実的です。 ハードディスク故障時はハードディスクを交換し、そこからリビルドというRAIDの再構築が必要となりますが、このリビルドがうまく行かない場合NAS内のデータを失ってしまう危険性もありますので、障害発生前に手順通りにリビルドが完了するのかをあらかじめテストしておくべきです。 上記の理由からRAIDで構成されたNASにもバックアップは必要になりますので、4TBのNASであるとすれば、それをバックアップする別の4TB以上のストレージが必要になります。 USB接続のポータブルハードディスクの場合 USB接続のポータブルハードディスクの場合、1TBのもので一台¥8,000程度で購入できます。 10台をバックアップする場合は¥80,000必要となりますが、NASを導入することを検討する場合、¥80,000の予算ではかなり限定的なものになります。NASの保守も年単位で保守料が発生しますので、使い続けるには相応のコストが必要です。 NAS本体の金額は容量以上にシステムの堅牢性や、電源など各種構成機器で大きな差がつきますので、安くて容量が多ければお得という考えはある程度のリスクを伴います。 低価格NASは正常に動作しているうちは大丈夫でも、故障発生時により高価なNASと大きな差ができると考えるとわかりやすいです。 業務で使用するパソコンであれば、本体内蔵のハードディスク、バックアップ用のハードディスクの二台が同時に故障しなければよいことになりますので、NASで集中的に管理をするよりも運用は簡単です。 またバックアップのハードディスクへの書き込みが不良となれば、汎用品ですので新たなハードディスクの調達は難しくありません。 本体側ハードディスクの故障時もパソコンのメーカー保守で修理された後に、そこからバックアップを復元すればすぐに復旧します。これらはWindowsの標準機能ですので、複雑な専門知識は必要ありません。 ポータブルHDDを利用するとトータルでは安価になりますが、一元管理ではないので、盗難防止や定期的に実行されているかを確認するなどに注意を払う必要があります。 NASにせよ、個別のバックアップにせよ、業務上のデータを失わないためのバックアップは必要不可欠です。 最も重要なことはデータを失わないこと、業務を止めないことですので、失われる時間や費用を考慮して、よりよい方法を選択されることをお勧めします。

  • パソコン関連

PowerEdge T110の導入・セットアップ

noimage

PowerEdge T110の導入・セットアップ

DELLのエントリークラスサーバー機、PowerEdgeT110IIを、社内サーバーとして導入しました。 その経緯と、導入の簡単な説明をしてみたいと思います。 PowerEdgeサーバー導入の経緯 今回のサーバー導入以前は、一般的なデスクトップ型パソコンをファイルサーバー、開発用データベースサーバー、バージョン管理のサーバーとして使用していました。 内蔵のハードディスクドライブはあまり容量がないものでしたので、USBハードディスクを接続してデータ共有領域、もう一台を接続して、それに日次バックアップをとっていました。 単純にこのファイルの二重化のみで十分だと考えていたのは、運用方法として、ローカルに作成したファイルなどをサーバに共有するため、それで三重コピーとなり、ローカルPCのバックアップと合わせれば、ほぼファイルは失われることはないだろうという想定のもとです。 ただ弊社もこの春からメンバーも増え、共同作業が多くなるうちに、ファイル共有サーバーにのみ存在するファイルも多くなり、ファイル共有サーバーの可用性と耐障害性が必要となってきました。 そのため、たとえばRAID1等を利用したWindowsStorageServer2012のような製品も候補に挙がりましたが、データベースやバージョン管理など、汎用的に使うことと、ハードウェア保守をきちんと入れる意味で、PowerEdgeサーバーの購入に至りました。 PowerEdgeT110 IIについて PowerEdgeT110 IIはDELL社の中でも最も安価なサーバー製品ラインナップで、1Wayサーバーです。電源の冗長化、ハードウェアRAIDやハードディスクのホットスワップがありません。 1Wayサーバーはプロセッサ用ソケットが一つしかなく、プロセッサが一つしか搭載できません。 電源冗長化とは、電源を一つしか持たず、一つの電源が故障すれば、システム全体が停止するということです。 ハードウェアRAIDはRAID専用の拡張カードを持っていて、拡張カードの機能によって、RAIDが実現されるものですが、今回はソフトウェアRAIDです。 ハードディスクのホットスワップの有り無しは、電源をつけたまま、障害ハードドライブの交換が行えるかどうかという差となります。 こう書いてしまうと、はたして十分な可用性を持つのか、と思われる方もいらっしゃると思います。 サーバー自体が停止した際は、USB接続の外部ハードディスクにミラーをとっていますので、それを他のパソコンで読み出し専用の共有をします。 ファイルの編集は個々のパソコンで行い、保守が入ってサーバー復旧とともにファイル共有を行う想定でコストの削減を狙っています。 サーバー機自体のコストを抑えた分、RAID5+ホットスペアの構成をとっています。 三台構成のRAID5で、一台故障の際は、予備の1台がRAIDに組み込まれ、RAID5の再構築を行います。 PowerEdgeT110IIの導入 PowerEdgeT110でRAIDを導入するにあたってオプションのPERC S300というRAID用のカードを選択しましたが、これはチップセットが持っているRAID機能を利用したもので、PERC S300は実質上SATAあるいはSASハードディスク用のホストアダプタです。 これに対応するドライバは現在WindowsServer2003~2008R2までとなっており、最新のWindowsServer2012には対応していません。 このPERC S300用のドライバは、Windows導入以前にあらかじめダウンロードしておかないと、RAIDボリュームにWindowsを導入することはできません。 起動時にCtrl+RでRAIDのセットアップ画面に入ることができ、ここでどの物理ディスクをRAIDに利用して、仮想ディスク(物理ディスク上に構成されたRAIDボリューム)にするかという設定になります。物理ディスクをホットスペアとして登録することもここでできます。 ここでRAID内の実質的なパーティション分割を行います。システムボリューム、ユーザー領域という形で、およそ4GBのRAIDボリュームを切り分けます。 この後、Windowsのインストールに移ります。まずそのままでは、インストールすべきハードディスクが見つからない状態になります。 ここで、RAIDコントローラーのドライバをCD-ROMから読み込ませると、RAIDボリュームがハードディスクとして認識されます。 RAIDコントローラーのドライバーを読み込ませた後は、Windowsのインストーラーのディスクに戻しておかないと、このハードディスクにWindowsをインストールできない旨の警告が表示されます。 この後の導入については、従来までのWindowsサーバーのインストールと同様になります。 導入後のサーバー移転 サーバーのインストールが終わると、ネットワーク越しに、旧サーバーのデータをミラーします。 完全に構築が終わる前にあらかじめコピーしておけば、あとは差分のコピーのみになりますので、時間の短縮になります。 ただ、ネットワークやサーバーの負荷が大きくなるので、これは誰もいない時間帯か休業日を選んで行いました。 そして、バックアップドライブへのバックアップタスクを設定します。 バックアップにWindowsに付属しているRobocopyというコマンドラインアプリケーションを使用します。 robocopy [コピー元] [コピー先] /MIR /E /COPYALL /EFSRAW /NP /LOG+:”ログファイル” /ZB /R:10 /W:30 をミラー用。 robocopy [コピー元] [コピー先] /E /COPYALL /EFSRAW /NP /LOG+:”ログファイル” /ZB /R:10 /W:30 を誤消去防止用バックアップとして、それぞれ別のタイミングで、別のHDDにバックアップするようにしています。 robocopyのコマンドの内容については、また別の機会を設けて説明したいと思っています。 これらのタスクを作り定期実行の確認をしてから、データーベースサーバーやバージョン管理サーバーのインストールを行いました。 バージョン管理はSubversion Edgeが定期バックアップ機能を備えているので、これを利用して、バックアップディスクにバックアップしています。 そして全員の業務のない日を選んで、すべてのデータを新サーバに移転し、バージョン管理のデータを移転。 旧サーバーのファイル共有を停止して、バージョン管理も停止します。 あとは一通りの定期バックアップタスクが無事完了することを確認して、全ユーザー向けにファイルサーバーの移転を通知して、移転の作業は終了です。 これでRAID5ボリューム、外部HDD2つにフ ァイルが保存されるので、全てを同時に失うことがなければ、データの消失には至らないはずです。 これらの作業を終えて PowerEdge T110IIというエントリークラスのサーバーでも、性能と、データの保全性高めることができました。 低コストでも、何かあった際、できる限りダウンタイムを低減できるものと考えています。 この事務所の中でサーバの設置場所など、様々な下準備と下調べに時間がかかり、ブログの更新が後回しになる状態が続いていましたが、今後また安心できる環境の中で、ブログ更新などが行えるものと思っています。

  • シスキュー技術部

SparseBundle上の仮想マシンイメージの拡張

noimage

SparseBundle上の仮想マシンイメージの拡張

以前SparseBundleDiskImage上にVMWareFusionの仮想マシンイメージを作成する記事を投稿しました。 MacでSparseBundleImageを利用した仮想マシンバックアップ これでTimeMachineで仮想マシンの世代管理が行われずに、バックアップハードディスクを過剰に使わなくてよくなりました。 これでVMWare FusionでWindowsを常用する問題はかなり小さくなりました。 前回の記事ではスパースバンドルディスクは、60GBを割り当てましたが、Windows8を常用するにあたって、不足する場合が生じます。 ここでスパースバンドルディスクのの容量を増加し、Windows8の仮想HDDを拡張してみます。 スパースバンドルディスクの容量増加 スパースバンドルディスクの増量はディスクユーティリティーで行います。 仮想マシンを停止し、一度ディスクをアンマウントします。 アンマウントしたうえで、スパースバンドルディスクを選択し、イメージのサイズを変更をクリックします。 ここでは110GBに変更しています。 ここで110GBに変更を行ったとしても、すぐさまハードディスク上に110GBの容量が確保されるわけではなく、使用量に応じて動的に増加していきます このままではディスクのサイズは変わっても、パーティションサイズが変更されないので、ディスクイメージをマウントします。 パーティションイメージの右下斜線部分をドラッグし、パーティションサイズをディスクイメージに合わせます。 これでマウントされるディスクの最大容量を変更できます。 この操作によって、パーティション内の内容が失われることはありません。 ここでパーティションをクリックします。 仮想マシンのハードディスク増加 ここで終了している仮想マシンのハードディスクサイズを設定から拡張しようとすると、 「選択された作業を行うためにはファイルシステムに十分な領域がありません」 というエラーが出ます これは仮想マシンの格納されているディスクイメージ内で、仮想マシンイメージの複製を作成して、領域を拡張するためのようです。 そのため、110GBのディスクイメージ内で、60GBの仮想マシンのHDD増加を行う作業はできないということです。 そのため、一度スパースバンドルディスクイメージ内から、仮想マシンファイルをMac上のHDDに移動します。 この作業中、タイムマシンバックアップは一度オフにしておくことをお勧めします。 Mac上のHDDでVMWareFusionの設定から、ハードディスクのディスクサイズを変更します。 ここでMac上のHDDに十分な空き容量があれば、HDDの拡張が行われます。 それなりに時間がかかりますので、時間があるときに行ってください。 増量が終われば、再びスパースバンドルディスクイメージ内に仮想マシンファイルを書き戻します。 Windwos8を起動すると、自動的にパーティションの割当容量が増加していました。 管理ツールからコンピュータの管理、ディスクの管理を行って、領域の拡張を行う必要はありませんでした。 これはおそらくVMWareFusion5の機能だろうと思われますが、非常に便利でした。 スパースバンドルディスクイメージは大きく作っておく スパースバンドルディスクは大きめに設定しておいても、内容量の増加によって動的に拡大していきますので、大きめにとっておいても、デメリットはありません。 使い切ってしまえば、また拡張する必要がありますが、ディスクイメージ内のデータを失わずに、パーティションを拡張できるのは便利です。 複数の仮想マシンを格納するなどのために、大きめのスパースバンドルディスクを作成しておくと、後々便利になるかもしれません。

  • シスキュー技術部

CentOSとownCloudで社内用のDropboxをつくる

noimage

CentOSとownCloudで社内用のDropboxをつくる

オンラインストレージ、Dropboxなどはかなりメジャーな存在となっています。 クライアントをインストールしておくと、指定フォルダーの内容をサーバーにアップロードし、同じアカウントを登録してある他のPCと同期します。 またwebブラウザを介して、ファイルのダウンロードもでき、公開用URLを設定して、他の方との共有も可能です。 このDropboxはファイル送信経路や、ファイルサーバー側での暗号化は行われており、無料から利用できるとはいえ、セキュリティー的な部分で不安なものではありません。 しかしながら、たとえば消去や、取り出し、バックアップなど、具体的なデータの取り扱いについて、完全にコントロール下におけるものではありませんので、社内ポリシーで禁じられている、あるいは一定以上のセキュリティー基準を設けて、重要なファイルを置かないようにする、などさまざま運用方針を持っている方もいらっしゃると思います。 これを自社保有のサーバーで同じような仕組みを提供するもので、ownCloudというオープンソースソフトウェアがあります。 今回はこれを試してみます。 ownCloudのインストール CentOS6.3+apache2+mod_SSL+PHP5.3.3+PostgreSQLがあらかじめ構築されたVPS環境を利用しました。 ownCloudは仕組み的にはWebDAVを利用しますので、経路暗号化のために、自局認証ではなく公的認証局によるSSL証明書を用意しておくことが重要です。 ownCloudのwebサイトから、Install、LinuxPackagesでCentOSを選び、指示された通りにリポジトリを追加し、yumでインストールします。 これで必要な他のパッケージとともにインストールされます。 [bash] cd /etc/yum.repos.d/ wget http://download.opensuse.org/repositories/isv:ownCloud:community/CentOS_CentOS-6/isv:ownCloud:community.repo yum install owncloud [/bash] これで [text] /var/www/html/owncloud/ [/text] 以下にインストールされます。 初回セットアップの前にpostgreSQLにデータベースとユーザーを作っておきます。 [bash] su - postgres createdb -E UTF8 -U ユーザー名 -T template0 owncloud [/bash] https://yourhost/owncloud にアクセスすると、セットアップが始まります。 今回、gdがないというエラーが出ましたので、gdをインストールし、 [bash] yum -y install gd [/bash] apacheをリスタートします。 [bash] service httpd restart [/bash] 再度セットアップをはじめます。 ここで管理ユーザーとパスワード、使用するDBをPostgreSQLを設定します。 Finish Setupを選択します。 ここでoc_ユーザー名にテーブル作成権限がない、というエラーが出ましたので、owncloudデータベースに権限を与えます。 [bash] su – postgres psql GRANT ALL PRIVILEGES ON DATABASE owncloud TO oc_ユーザー名; [/bash] 再度セットアップを行うと、無事インストールが終了しました。 owncloud/config/config.php に [text] 'forcessl' => true, [/text] と加えておくとssl接続に限定されます。   インストール後の利用方法 ひとまず管理者でログインし、動作を確認しましょう。 新規ボタンでファイルをアップロードできます。 DropboxのWebを利用したことがあれば、すぐに操作方法はわかります。 管理者であれば、左下の設定アイコンからメニューを出して、ユーザーを追加できます。 その他にもプラグインや、全体設定などを操作することができます。この辺りはDropboxにはない操作ですので、いろいろ試してみてください。 WebDAVですので、 [text] https://yourhost/owncloud/remote.php/webdav/ [/text] でアクセスできます。 PC・スマートフォンのクライアント PC・Mac・iOS・Android各クライアントで動作を確認しました。 http://owncloud.org/support/install/ PC・Macでは任意のフォルダと同期、iOS、Androidでは、ダウンロードしたファイルを開いたり、写真をアップロードしたりできます。 PC版 Windows8のスタート画面ではこんな感じです。 Mac版 iPad版 Android版 それぞれ、 https://yourhost/owncloud ユーザー名 パスワード を入力して、認証が通れば、すぐに使用可能です。 PC・Mac版は無料、iOSは85円、Androidは99円(記事作成時の価格)でした。 セキュリティーなど httpsでの接続でなければ、経路の暗号化はできませんし、公的認証でなければ成りすましを防ぐ方法はないので、SSLの公的認証は必須と言えるでしょう。 それさえクリアできれば、細かい使い勝手の差はありますが、Dropbox等と同じように利用し始めることができます。 少なくとも自己管理できる範囲で、状況を把握でき、独自運用できるものとしては、かなり簡単な仕組みです。 一通りのLinuxOSの構築ができていれば、1~2時間もあれば、十分使い始められます。 ファイルはownCloudディレクトリ内に暗号化されずに保管されます。 .htaccessによって、外部からのアクセスはできませんが、サーバーの管理権限があれば、自由に閲覧、移動、削除などが可能です。 プラグインによって、保管ディレクトリの暗号化はできますが、その際は制約があるようです。 プラグインによって、様々な機能を追加できるのもownCloudの利点ですが、それによる不都合も出てくる可能性は考慮すべきです。 運用にあたっては、ownCloudの脆弱性、Apacheの脆弱性などについて、情報収集が必要となりそうです。 あとはユーザー名、パスワードのみの認証ですので、十分複雑なパスワードを設定する必要があります。 VPNでさらに通信の暗号化や、iptablesによって公開するグローバルIPアドレスなどを自社の各拠点や取引先に限定する、などを行えば、さらにセキュリティーの向上が望めるのは自己管理のサーバーならではの利点でしょう。

  • パソコン関連

WinSCPを利用した遠隔地バックアップ

noimage

WinSCPを利用した遠隔地バックアップ

この二十年ほどで、いくつかの大きな災害に見舞われ、拠点に被害が及んだ場合、社内の情報資産をすべて消失してしまう、といった出来事も起こっています。 複数拠点をもつ企業様であれば、拠点間のVPNや専用線を用いて、バックアップを行う体制をもつところも多いと思います。 このような複数拠点間VPNなどを持たない場合、どうしても業務遂行上必要な日常バックアップを、定期的に遠隔地に保管しておきたいという需要はあると思われます。 ディザスタリカバリなどという言葉もありますが、なんらかの対策の必要性を求められている方も、増えてきているのではないでしょうか。 ここで重要視されるのは、経路間の安全性確保、保管の安全性などになります。 経路の暗号化を確保したうえで、Windowsで始められる簡単なバックアップを考えてみます。 WinSCPとは WinSCPとはLinuxなどで標準的に取り入れらている、通信プロトコルSSHに対応したファイル転送クライアントです。 SSH接続機能のあるサーバに接続した後の操作は、一般的なFTPクライアントと、大きな違いはありません。 それならFTPを使ってレンタルサーバーなどに保存しても変わらないのではないか、と思われるかもしれませんが、FTPとSSHでは大きな違いがあります。 SSHは認証と経路の安全性を、暗号化により確保しています。 FTPは暗号化されていないユーザー名とパスワードを送信して認証し、ファイルの転送も暗号化されていません。 そのため、経路途中でだれかに盗聴されていても、気が付く方法はありません。 身近に起こる盗聴の例としては、誤った無線LANアクセスポイントに接続してやり取りした内容は、暗号化されていなければ盗聴されている可能性は十分あります。 SSHを利用した場合は、このような場合でも盗聴は不可能です。総当たり攻撃によるパスワードの突破や、経路途中の盗聴を防ぐ方法が用意されています。 他にWindows向けSSH利用のファイル同期アプリケーションとしてcwRsyncがありますが、フリーソフトから商用ソフトになりましたので、フリーソフトであるWinSCPを利用したフォルダの同期を行うこととします。 バックアップ先のサーバーについて ここではあらかじめ、公開鍵認証型のSSHサーバーが用意されていることを前提として、記述いたします。 サーバーの管理権限のない方は、サーバーの管理者と協調して設定してください。 レンタルサーバーでSSHを利用できるものもありますが、ほとんどがパスワード認証形式で、より安全な公開鍵認証方式によるものより、総当たりのパスワード突破攻撃に弱くなります。 同一価格帯でも、レンタルサーバーとVPS(バーチャル・プライベート・サーバー)では利用できるハードディスク容量はVPSの方が、多く割り当てられているものが多いので、設定には専門性が必要となりますが、VPSがお勧めできます。 WinSCPの設定方法 WinSCPのダウンロードサイトからWinSCPをダウンロードして、インストールを行います。 公開鍵と秘密鍵の作成 スタートメニューにWinSCPが登録されますので、鍵関連ツールからPuTTYgenを起動します。 ここで認証用の鍵を作成します。 ここでGenerateをクリックし、鍵の作成を始めます。 鍵のタイプは画面下の方、SSH-2 DSA 1024bitを選択します。 緑色のプログレスバーの下の空白を、マウスポインタでぐりぐりとしていると、ランダムな暗号が生成されます。 上部ボックスに表示されている、アルファベット数字記号の混ざったものが公開鍵です。 このボックス内をコピーして保存し、サーバーに公開鍵として登録します。 Key Passphareseには秘密鍵のパスフレーズを入力し、Save Public Keyと、Save Private Keyをクリックして保存します。 秘密鍵のパスフレーズはできるだけ長いことが求められます。 この秘密鍵と秘密鍵のパスフレーズが漏えいすると、SSHサーバーにアクセスできてしまいますので、管理できることろに保管します。 WinSCPでサーバーとの疎通確認 ふたたびスタートメニューから今度はWinSCPを起動します。 ログイン画面が出るので、ホスト名に接続先、ポート番号にSSHポート番号、ユーザ名にはサーバでのユーザー名、秘密鍵に先ほど作成した秘密鍵を指定します。 ここで保存をクリックすると、接続情報が保存されます。 ログインを押すと、サーバとの接続が始まります。 はじめて接続するサーバであると、サーバ鍵の指紋(フィンガープリント)が送られてきますので、これを鍵のコピーをクリックして、テキストファイルに保存し、はいをクリックします。 ここで登録されたサーバの指紋は保存され、今後同一のサーバーであっても指紋が違う場合は警告が表示されるので、接続経路の詐称に対応でき、サーバーの同一性が確保できるようになります。 ここで鍵作成時に登録した秘密鍵のパスフレーズを入力し、OKを押します。 認証が完了すると、WinSCPの操作画面が開きます。 ここでファイルを一つコピーして、書き込み権限などがあることを確認します。 これでWinSCPの作業は設定は終わります。 Pageantの設定 今回は自動的にバックアップ処理が動作することを目指しますので、バックアップの際に毎回秘密鍵のパスフレーズを入力することを省力するためにPagentを設定します。 鍵関連ツールの中にあるPageantを実行します。 Pageantは秘密鍵とパスフレーズの設定をしておくとWinSCPの認証時に、パスフレーズの入力を省略できるものです。 ここでAddKeyをクリックし、先ほど保存した秘密鍵を選択します。 パスフレーズの入力を求められるので、入力すると登録され、Pageantは常駐します。 この状態でWinSCPで先ほどのサーバーに接続すると、パスフレーズを入力せずに認証ができます。 Pageantを終了するたびに、鍵の登録はクリアされます。 WinSCPによる自動バックアップ WinSCPによるバックアップを自動化するために、次のことを行います。 ・Pageantをログイン時に自動起動 ・WinSCPを自動的に起動しファイルの同期 それぞれバッチファイルを作成し、タスクで起動させます。 Pagent自動起動バッチファイルの作成 メモ帳を開き、 [text] "C:\Program Files\WinSCP\PuTTY\pageant.exe" "C:\Users\Username\winscp\id_dsa.ppk" [/text] 上記のように、pageantの場所と、秘密鍵の場所を指定します。 Pageantの場所はデフォルトではこの場所になります(32bitWindows)。秘密鍵の場所は、保管されている場所を登録してください。 これを名前を付けて保存、ファイルの種類にすべてのファイルを選んで、pageant.batという名前でバッチファイルとして保存します。 バッチファイルを起動させて、タスクトレイに帽子をかぶったパソコンのアイコンで、Pageantが起動することを確認してください。 WinSCPバッチファイルの作成 まずWinSCPに送信するコマンドをファイルにまとめます。 同じようにメモ帳を開き、 [text] # バッチモードに設定し、確認/問い合わせを無効にする option batch on # ファイル上書きの確認などを無効にする option confirm off # サーバーに接続 open <a href="mailto:username@hostname">username@hostname</a> -hostkey="ssh-rsa 2048 xx:xx:xx:xx:xx:xx:xx:xx:xx:xx:xx:xx:xx:xx:xx:xx" #サーバー側とファイルを同期 synchronize remote C:\Users\Username\Documents\backup\ /home/username/backup #接続終了 close #WinSCP終了 exit [/text] 上記を参考に、コマンドを作成し、テキストファイルとして保存てください。 -hostkeyには先ほど保存したサーバー鍵の指紋をコピーしてください。これで 設定方法については、詳しい参照先をご覧ください。 これをWinSCPへ入力するバッチを作成します。 [text] "C:\Program Files\WinSCP\winscp.exe" /console /script=C:\Users\Username\Documents\WinSCP-Batch.txt [/text] WinSCPの場所はデフォルトのままです(32bitWindows)。 /script以下には先ほど作成したコマンドのテキストファイルを指定し、バッチファイルとして保存します。 バッチファイルをクリックし、必要な動作が行われることを確認します。 タスクへ登録 スタート画面からアクセサリーシステムツールータスクスケジューラを起動します。 タスクに名前を付けます。 Pageantであればログイン時、WinSCPのバックアップであれば、毎日など必要な頻度を設定します。 バッチを実行するのでプログラムの開始を選択します。 バッチファイルの場所を設定します。 このような形で登録が完了します。 プロパティ設定で、必要であれば設定を行ってください。 設定後、Pageantと、WinSCPのタスクからの起動を確認できれば、完了です。 設定後のことなど 今回、比較的省コストで身近なもので、一定のセキュリティーを確保したバックアップ手段を試してみました。 経路暗号化には、SSH以外にも、VPNを使う方法もあり、VPNを利用して別拠点にファイルコピーを行うなど、さまざまなパターンがあります。 経路暗号化したインターネット越しのファイル転送はあまりスピードが出ない場合もあり、今回テストしたケースでは、600KB/秒程度のスピードですので、大きいファイルであればかなりの時間がかかってしまうことも考えられます。 ここからアレンジして、たとえば圧縮ファイルを利用することで転送時間を短くするなど、様々な方法が考えられます。 本格的な導入を行うのであれば、商用サービスも様々ありますので、事態が発生する前に、情報収集や準備をしていくことも必要になってきていると考えます。

  • シスキュー技術部

MacでSparseBundleImageを利用した仮想マシンバックアップ

noimage

MacでSparseBundleImageを利用した仮想マシンバックアップ

前回、iMacでWindows8を実際に使ってみるために、VMWareFusion5を使って仮想マシンとしてインストールしました。 今回、仮想マシンを効率よくバックアップするために、少し複雑な手順を踏んでいきます。 特に複雑なことをしなくても、一般的なインストール方法でも十分利用できます。 ただTimeMachineで仮想マシンをバックアップすると、毎回かなり大きな転送量になり、TimeMachine用のドライブの使用効率が悪くなるため、別の手段でバックアップを試みることとします。 この手順の中でターミナルでコマンドを入力する必要があります。 仮想マシンのバックアップについて 仮想マシンファイル.vmwarevmは一つのファイルとして見えますが、内部でディレクトリの構造となっています。パッケージの内容を表示とすると、これを見ることができます。 仮想マシンファイルの内部では、仮想ハードディスク.vmdkがおよそ2GB単位で分割されています。 仮想マシン内に変更が加えられた場合は、このvmdkファイル単位でファイルの変更が行われます。 TimeMachineでバックアップを行う場合、仮想ハードディスク単位で、変更のあったファイルはすべて履歴管理されますので、TimeMachineへ書き込まれる量は数GB単位となります。 単純に仮想マシンを起動して、シャットダウンするだけでも、TimeMachineには数GBからの差分の書き込みが行われます。 そのため、Macで仮想マシンを利用されている方で、TimeMachineから仮想マシンフォルダを除外ファイルとされている方も多いです。 そうなると、TimeMachineからの復元を行う際に、仮想マシンが一切復元されず、仮想マシンに保存されていたデータを含めすべてを失ってしまうことになります。 今回、仮想マシンファイルはTimeMachineのバックアップからは除外し、別の仕組みでバックアップを行うこととします。 スパースバンドルディスクの作成 スパースバンドルディスク(Sparse Bundle Disk Image)とは、Mac OSの上で一つのディスクイメージとして認識されますが、内部では8MBの小さなファイルに分割されたディレクトリ構造のものをいいます。仮想ディスクの一つです。 読み書きなどは、一つのドライブに対して行うのと同一で、処理としても大きな負担になることはありません。 このスパースバンドルディスク内に格納されたファイルが変更された場合、小さなファイル単位で変更のあった部分だけ、更新されます。 これに今回仮想マシンをインストールします。 DiskUtilityで新規イメージを作成し、名前や、フォーマット、サイズなどを設定します。 今回は60GBの容量をあらかじめ指定し、フォーマットにはMac標準のMacOS拡張(ジャーナリング)を選択。イメージフォーマットはスパースバンドル・ディスクイメージを選択すれば、スパースバンドルディスクが作成されます。 60GBの容量を設定すると、即時60GBの容量が確保されるのではなく、必要な分だけ確保されることになります。 またイメージ作成後の容量の増加なども可能です。 このようなファイルが出来上がります。これをダブルクリックすることで、ディスクイメージとしてマウントされます。 このマウントされたディスクに仮想マシンを作成します。 Windows8のインストール 前回の手順と同じですが、VMWareのセットアップの際に下記の画面で設定を変更する必要があります。 設定のカスタマイズで、仮想マシンの保存場所をスパースバンドルディスクイメージ内に設定します。 rsyncによる仮想マシンのバックアップ まずTimeMachineのバックアップ対象からスパースバンドルディスクイメージを除外します。 ターミナルからrsyncコマンドでこれを外付けのハードディスクにバックアップします。 例として、 [bash] rsync -aur --delete --progress "/Users/username/documents/Virtual Machines.localized" /Volumes/HDDNAME/VMWareBackup [/bash] という感じで、ローカルバックアップでは [bash] rsync –aur ––delete -–progress コピー元ディレクトリ コピー先ディレクトリ [/bash] と指定します。 この手順でsparsebundleファイルをバックアップ先のハードディスク内のフォルダに同期するように設定します。 コピーされているファイルが一覧で表示されますが、 Virtual Machines.localized/VirtualMachine.sparsebundle/bands/c27 8388608 100%   10.87MB/s    0:00:00 (xfer#49, to-check=292/3186) このような形で、スパースバンドル内の8MBのファイルがコピーされていることがわかります。 二回目以降の実行からは、変更のあったファイルのみの同期となります。 sent 856838334 bytes  received 2292 bytes  114245416.80 bytes/sec total size is 25043844704  speedup is 29.23 実行結果がこのように表示されますが、トータル25GBの仮想マシンファイルのうち856MBが同期されたことがわかります。 rsyncの自動実行 これをシェルスクリプトにして、ログイン時に自動実行します。 viなどを利用し、先ほどのrsyncコマンドをシェルスクリプトにし、chmodで実行権限を与えます。 [bash] vi vmbackup.sh [/bash] iを押して入力モードにし、 rsync -aur --delete --progress "/Users/username/documents/Virtual Machines.localized" /Volumes/HDDNAME/VMWareBackup のように先ほど成功したrsyncコマンドを貼り付け、[ESC]:wqで保存します。 これに [bash] chmod 755 vmbackup.sh [/bash] として実行権限を与えます。 これをログイン時に自動実行・定期実行するには、plistを作ってlaunchdに登録する必要があります。 Linuxなどではcronを利用しますが、OS Xではlaunchdを利用することが推奨されています。 launchdに登録するにはXMLを書く必要があり、思い通りに動作するXMLを作成するのが手間な場合は、Lingon3をMacAppStoreから購入して使用するのが便利です。 https://itunes.apple.com/jp/app/lingon-3/id450201424?mt=12 Lingon3を利用すれば、簡単な操作でplistファイルを作成し、launchdに登録できます。高価なアプリではありませんので、便利さから考えれば、十分な価値はあります。 Lingon3を起動し、NewJobをクリックし、ファイル名をlocalhost.vmbackupといったplist名を設定します。 Whatに先ほど作成したをシェルスクリプトを指定し、whenにAt login and at loadにチェックを入れます。 Every 1 Hoursなどとしておくと、一時間おきに実行されます。 Save&Loadを押し、plistをlaunchdに登録します。 あとは、スパースバンドルディスクをログイン時にマウントする手順です。 ログイン時にスパースバンドルを自動マウントする スパースバンドルディスクをマウントするためのターミナルでのコマンドは、 [bash] hdiutil attach sparsebundleファイル [/bash] になります。 これをrsync同様にシェルスクリプトにし、実行権限を与えます。 Lingon3で同様にplistを作成し、Login時に実行するように設定します。 これで仮想マシンの作成とバックアップの一通りの設定は終わりです。 まとめ かなり長いエントリとなりましたが、Macなりの機能を活かした方法となりました。 仮想マシンファイルも履歴管理したい場合は、TimeMachineを利用するのが手っ取り早いですが、仮想マシンを使っている間、かなりのサイズのTimeMachineドライブへの書き込みが発生してしまいます。 ユーザーファイルをホストOSの共有フォルダに持たせ、そこをTimeMachine管理とすれば、仮想マシンに何らかの障害が発生しても、再インストールの手間のみと割り切って利用するのも一つの方法です。 単純なバックアップとしては、.vmwarevmファイルを外部ハードディスクなど日に一度でもコピーしておけば、前の日までのバックアップは確保できます。 実用的なWindows仮想マシンは、Officeスイートやアップデートなどで、どうしても数十GBからの容量が必要となりますので、今回Windows8をそれなりに使っていくうえで、これだけ下準備を行ってみました。 まだこれで長期間実用したわけではないので、どのような問題が起こるのか、どう使っていけばよいか、未知数な部分はありますが、今後またBlogなどで報告したいと思います。 (2013/3/29更新) 使用しているうちに容量が足りなくなったため、 SparseBundle上の仮想マシンイメージの拡張 という記事を投稿しました。

  • パソコン関連

iMac(Late2012)とUSB3.0ドライブでバックアップ

noimage

iMac(Late2012)とUSB3.0ドライブでバックアップ

iMac(Late2012)にTimeMachineバックアップを設定してみました。 TimeMachineはMac OS Xの基本機能で、バックアップドライブに、世代バックアップをとり、ファイルを以前の状態に復元することのできる機能です。 今回のアップデートでiMacにもUSB3.0が搭載されましたので、そのスピードが体感できるものか、確認してみました。 USB3.0外付けHDD 今回安価で手に入りやすいBuffalo HD-LBU3(リンクはメーカーサイト)を選択しました。 いつものBuffaloの外付けドライブと同じ外見です。 この青い端子がUSB3.0。Aコネクタ(本体側)はUSB2.0までと同じですが、Bコネクタ(HDD側)は形状が違いますね。 難点といえば、このACアダプタ。 ちょっと横幅がでかいので、電源タップなどにつけるときに、余裕がないと難しいです。 それでは、実際につないでみて、どれぐらいの転送速度が出るのか、試してみます・ USB3.0ドライブのスピード計測 iMacのUSBポートはどのポートもUSB3.0に対応していますので、どのポートに接続しても大丈夫です。 まずTimeMachineでの接続のために出荷状態でFAT32でフォーマットされているものをMacOS拡張(ジャーナリング)でフォーマットします。ツール類が入っていますが、Macでは使用しないので、そのままフォーマットします。 フォーマットした後、どの程度の転送速度が出るのかをベンチマークアプリケーションで計測してみます。 まずはXBenchの結果。 DiskTest 53.70 Sequential 172.28 Uncached Write[4K blocks] 256.98 157.78 MB/sec Uncached Write [256K blocks] 248.13 140.39 MB/sec Uncached Read [4K blocks] 83.04 24.30 MB/sec Uncached Read [256K blocks] 307.30 154.45 MB/sec Random 31.80 Uncached Write [4K blocks] 9.00 0.95 MB/sec Uncached Write [256K blocks] 309.23 99.00 MB/sec Uncached Read [4K blocks] 142.24 1.01 MB/sec Uncached Read [256K blocks] 230.33 42.74 MB/sec 比較すべき、USB2.0ドライブが手元にあれば、比較しやすいのでしょうが、USB外付けドライブとしてはかなり良い数値が出ているように感じます。 ドライブの性能にもよるのでしょうが、おおよそ2~30MB/secが平均的だったUSB2.0から比べれば連続的な読み書きでは数倍のスピードが出ています。 今回購入したHD-LBU3は内部のハードドライブは、Seagate社のST2000DM001という型番であることがわかりました。 内蔵SATA接続の場合とも、大きな差は出ていないようで、USB3.0は十分な帯域を持ち、USB2.0のようなボトルネックにはなりにくいようです。 Blackmagic Disk Speed Testの結果は以下の通り。動画編集などにも十分なスピードが出ていることがわかります。 内蔵Fusionドライブとのベンチマーク結果を比較されたい方はこちらからご覧になってください。 TimeMachieの設定 これをTimeMachineの環境設定から、バックアップディスクに選択します。 初回バックアップは44.05GBをバックアップし、所要時間は11分でした。 TimeMachineの初期バックアップはかなりの時間がかかっていたものですが、これだけ早く終了するのは、かなりの驚きです。 Firewire端子は付属しないiMacですが、TimeMachineバックアップに限ればFirewireは必要ない転送速度と言えるでしょう。 TimeMachineバックアップがあれば、内臓ハードディスクが故障し交換した際、そこから復元することもできます。 USB3.0ドライブもUSB2.0ドライブと大差ない価格で購入できますので、安心のためにもTimeMachineバックアップを設定しておきましょう。