web-dev-qa-db-ja.com

NTFS:ファイルシステムの制限により、要求された操作を完了できませんでした

OCZ 240GB PCI-Express SSDで、巨大なファイルを作成し、45GBと45GBの2つのファイルを書き込んだ後、ソフトウェアは「ファイルシステムの制限のために要求された操作を完了できませんでした」という例外をスローします。 。

問題を調査しようとしましたが、断片化の問題かもしれないと言う人もいました。私はこのパーティションからすべてのファイルを削除することでそれを解決しようとしたので、巨大なファイルに追加しても断片化は発生しませんが、問題はまだあります。

このパーティションには40個のファイルがあり、2つは大きい(作成しようとしているファイル)、他のファイルは小さい(メタデータ)、6つのフラグメント化されたファイルがあり、ファイルフラグメントの合計は3768243です-この情報はdefrag/vからのものです

Windows Server 2008 R2を使用しています-アドバイスはありますか?

3
Haytham

私はこれがおそらく関連していると思います:

https://stackoverflow.com/questions/197162/ntfs-performance-and-large-volumes-of-files-and-directories/291292#291292

実際の制限は、フラグメントの数ではなく、フラグメントへのポインタを格納するデータセグメントのレコード数にあります。

これだけ多くのフラグメントがあると、ファイルシステム自体がフラグメントを追加できない可能性があります。テストする簡単な方法は、他の記事がファイルを最適化するためにロックされている コンティグユーティリティ を使用して、再試行することです。ファイルを最適化できない場合、またはファイルを最適化した後でファイルに正しく書き込むことができる場合は、答えが得られます。

考慮すべきもう1つのアプローチは、でファイルをロールオーバーすることです。ファイル(特に増分的に追加するファイル)が大きいほど、NTFSがファイルの連続したスペースを見つけるのに苦労するため、断片化が発生する可能性が高くなります。 (これは、空のディスクで発生することを私が聞いた最初のことですが、おそらく複数の大きなファイルがあるためです)。 〜2Gでローリングすると、おそらくこれが劇的に改善されます。

1
Brandon Langley