web-dev-qa-db-ja.com

Rackspaceクラウドサーバーのバックアップオプション

最近、いくつかのデータベースサーバーをホストするためにRackspaceにサインアップしました。 2つのMySQLサーバーをセットアップし、バックアップを作成する方法があります(Percona Xtrabackupおよびinnobackupexツールを使用)。重複を使用してこれらのバックアップをS3およびCloudFilesストレージにコピーしようとしていますが、forreverr! S3のバックアップはそれほど高速ではないと思いますが、CloudFilesのバックアップは9GBのバックアップに15時間かかりました。それはひどく遅く、私には受け入れられません。

重複するソースコードを調べましたが、デフォルトではしません RackspaceServicenetを利用してクラウドファイルに転送します。次に、重複がCFバックエンドに使用するlibのcloudfilesソースコードを調べたところ、Servicenetを利用するための環境オプションがあることがわかりました(RACKSPACE_SERVICENET)。それがsomethingに設定されている限り、cloudfileslibはRackspaceServicenetを介してcloudfilesに接続する必要があります。[〜#〜] should [〜#〜]高速になります転送します。そうではありません。

速度の制限がCloudFilesの何らかの制限によるものなのか、それともcloudfiles pythonライブラリが実際にRackSpaceサービスネット経由で接続していないのか]はわかりません。

これらのバックアップをサーバーからサードパーティまたはリモートバックアップサービスに取得する方法について、他に何か提案はありますか?

4
Jim Rubenstein

Rackspace Server Backup(別名JungleDisk Serverバックアップ)を使用します。これは、Duplicityと同様に、ローカルの重複排除と圧縮を行い、HTTP経由で「チャンク」をクラウドプロバイダーにアップロードします。いくつかのパフォーマンスの問題が発生しましたが、根本的な理由は、クラウドファイルとクラウドサーバーのプロビジョニングポイントが異なることでした。クラウドサーバーはDFWデータセンターで作成されていましたが、JungleDiskのすべてのクラウドファイルバケットはORDデータセンターにあります。

現在、ラックスペースでは、DFW機能が容量に近いため、使用するデータセンターを選択できません。したがって、「新しい」アカウントのすべてがORDでプロビジョニングされます。したがって、プロビジョニングポイントを変更するには、サポートチケットを開く必要があります。

また、Rackspaceデータセンター間でServiceNetを使用することはできません(まだ)。

とはいえ、Rackspace Cloud Backupを使用してRackspaceデータセンターを横断する場合でも、バックアップ中に40 Mbps以上が見られるため、重複に関する何らかの構成の問題があるか、バックアップ中にディスクまたはCPUにバインドされていると思われます。外部のクラウドファイルから同じターゲットへのバックアップを実行しようとしましたか?大きなファイルの単純なHTTPPUTはどのように機能しますか(つまり、テストの重複を排除します)?

2
rmalayter

多分完全な答えではなく、もっと提案です。メインDBサーバーを継続的にミラーリング(または数分追跡)するAmazonEC2インスタンスをセットアップできませんでした。次に、そのEC2インスタンスからS3に直接バックアップを実行して、転送速度を高速化し、プライマリDBマシンの負荷を軽減することができます。

9GBの場合は15時間ですが、私の精神的な計算が正しければ(おそらくそうではありません)、2MB /秒未満で問題のように聞こえます。転送速度が遅い理由をRackspaceサポートに問い合わせる価値があるかもしれません。

2
Smudge