web-dev-qa-db-ja.com

InputStreamの長さを持つAmazonS3 putObjectの例

私はJavaを使用してS3にファイルをアップロードしています-これは私がこれまでに得たものです:

AmazonS3 s3 = new AmazonS3Client(new BasicAWSCredentials("XX","YY"));

List<Bucket> buckets = s3.listBuckets();

s3.putObject(new PutObjectRequest(buckets.get(0).getName(), fileName, stream, new ObjectMetadata()));

ファイルはアップロードされていますが、コンテンツの長さを設定していないときに警告が発生します。

com.amazonaws.services.s3.AmazonS3Client putObject: No content length specified for stream > data.  Stream contents will be buffered in memory and could result in out of memory errors.

これは私がアップロードしているファイルで、stream変数はInputStreamであり、そこから次のようなバイト配列を取得できます:IOUtils.toByteArray(stream)

したがって、コンテンツの長さとMD5( here から取得)を次のように設定しようとすると:

// get MD5 base64 hash
MessageDigest messageDigest = MessageDigest.getInstance("MD5");
messageDigest.reset();
messageDigest.update(IOUtils.toByteArray(stream));
byte[] resultByte = messageDigest.digest();
String hashtext = new String(Hex.encodeHex(resultByte));

ObjectMetadata meta = new ObjectMetadata();
meta.setContentLength(IOUtils.toByteArray(stream).length);
meta.setContentMD5(hashtext);

次のエラーがS3から返されます:

指定したContent-MD5は無効でした。

私は何を間違えていますか?

助けていただければ幸いです!

PSGoogle App Engineを使用しています-ファイルをディスクに書き込むことができません、または 一時ファイルを作成する AppEngineはサポートしていないためFileOutputStream。

75
JohnIdol

元の質問には答えられず、この同じ問題に直面しなければならなかったため、MD5問題の解決策は、S3が通常考えているHexエンコードMD5文字列を望まないということです。

代わりに、私はこれをしなければなりませんでした。

// content is a passed in InputStream
byte[] resultByte = DigestUtils.md5(content);
String streamMD5 = new String(Base64.encodeBase64(resultByte));
metaData.setContentMD5(streamMD5);

基本的に、MD5値に必要なのは、Hex文字列ではなく、Base64でエンコードされた未加工のMD5バイト配列です。私がこれに切り替えたとき、それは私にとって素晴らしい仕事を始めました。

65
user2413809

Amazonのコンテンツ長エラーを解決するだけなら、入力ストリームからLongにバイトを読み取って、それをメタデータに追加するだけです。

/*
 * Obtain the Content length of the Input stream for S3 header
 */
try {
    InputStream is = event.getFile().getInputstream();
    contentBytes = IOUtils.toByteArray(is);
} catch (IOException e) {
    System.err.printf("Failed while reading bytes from %s", e.getMessage());
} 

Long contentLength = Long.valueOf(contentBytes.length);

ObjectMetadata metadata = new ObjectMetadata();
metadata.setContentLength(contentLength);

/*
 * Reobtain the tmp uploaded file as input stream
 */
InputStream inputStream = event.getFile().getInputstream();

/*
 * Put the object in S3
 */
try {

    s3client.putObject(new PutObjectRequest(bucketName, keyName, inputStream, metadata));

} catch (AmazonServiceException ase) {
    System.out.println("Error Message:    " + ase.getMessage());
    System.out.println("HTTP Status Code: " + ase.getStatusCode());
    System.out.println("AWS Error Code:   " + ase.getErrorCode());
    System.out.println("Error Type:       " + ase.getErrorType());
    System.out.println("Request ID:       " + ase.getRequestId());
} catch (AmazonClientException ace) {
    System.out.println("Error Message: " + ace.getMessage());
} finally {
    if (inputStream != null) {
        inputStream.close();
    }
}

この正確な方法を使用して入力ストリームを2回読み取る必要があるため、非常に大きなファイルをアップロードする場合は、配列に一度読み取ってからそこから読み取る必要があります。

41
tarka

アップロード用に、S3 SDKには2つのputObjectメソッドがあります。

PutObjectRequest(String bucketName, String key, File file)

そして

PutObjectRequest(String bucketName, String key, InputStream input, ObjectMetadata metadata)

Inputstream + ObjectMetadataメソッドには、入力ストリームのコンテンツ長の最小メタデータが必要です。そうしないと、その情報を取得するためにメモリ内でバッファリングされ、OOMが発生する可能性があります。または、独自のメモリ内バッファリングを行って長さを取得することもできますが、2番目の入力ストリームを取得する必要があります。

OP(彼の環境の制限)からではなく、私のような他の誰かのために。入力ストリームを一時ファイルに書き込み、一時ファイルを配置する方が簡単で安全です(一時ファイルにアクセスできる場合)。メモリ内バッファはなく、2番目の入力ストリームを作成する必要もありません。

AmazonS3 s3Service = new AmazonS3Client(awsCredentials);
File scratchFile = File.createTempFile("prefix", "suffix");
try {
    FileUtils.copyInputStreamToFile(inputStream, scratchFile);    
    PutObjectRequest putObjectRequest = new PutObjectRequest(bucketName, id, scratchFile);
    PutObjectResult putObjectResult = s3Service.putObject(putObjectRequest);

} finally {
    if(scratchFile.exists()) {
        scratchFile.delete();
    }
}
28
Peter Dietz

S3への書き込み中に、S3オブジェクトの長さを指定して、メモリ不足エラーがないことを確認する必要があります。

IOUtils.toByteArray(stream)を使用すると、OOMエラーが発生しやすくなります。これは、ByteArrayOutputStreamによってサポートされているためです。

したがって、最適なオプションは、まず入力ストリームをローカルディスク上の一時ファイルに書き込み、次にそのファイルを使用して一時ファイルの長さを指定してS3に書き込むことです。

7
srikfreak

私は実際には多少同じことをしていますが、AWS S3ストレージで:-

アップロードされたファイルを受信して​​いるサーブレットのコード:-

import Java.io.IOException;
import Java.io.PrintWriter;
import Java.util.List;

import javax.servlet.ServletException;
import javax.servlet.http.HttpServlet;
import javax.servlet.http.HttpServletRequest;
import javax.servlet.http.HttpServletResponse;

import org.Apache.commons.fileupload.FileItem;
import org.Apache.commons.fileupload.disk.DiskFileItemFactory;
import org.Apache.commons.fileupload.servlet.ServletFileUpload;

import com.src.code.s3.S3FileUploader;

public class FileUploadHandler extends HttpServlet {

    protected void doGet(HttpServletRequest request, HttpServletResponse response) throws ServletException, IOException {
        doPost(request, response);
    }

    protected void doPost(HttpServletRequest request, HttpServletResponse response) throws ServletException, IOException {
        PrintWriter out = response.getWriter();

        try{
            List<FileItem> multipartfiledata = new ServletFileUpload(new DiskFileItemFactory()).parseRequest(request);

            //upload to S3
            S3FileUploader s3 = new S3FileUploader();
            String result = s3.fileUploader(multipartfiledata);

            out.print(result);
        } catch(Exception e){
            System.out.println(e.getMessage());
        }
    }
}

このデータをAWSオブジェクトとしてアップロードしているコード:-

import Java.io.ByteArrayInputStream;
import Java.io.IOException;
import Java.util.List;
import Java.util.UUID;

import org.Apache.commons.fileupload.FileItem;

import com.amazonaws.AmazonClientException;
import com.amazonaws.AmazonServiceException;
import com.amazonaws.auth.ClasspathPropertiesFileCredentialsProvider;
import com.amazonaws.services.s3.AmazonS3;
import com.amazonaws.services.s3.AmazonS3Client;
import com.amazonaws.services.s3.model.ObjectMetadata;
import com.amazonaws.services.s3.model.PutObjectRequest;
import com.amazonaws.services.s3.model.S3Object;

public class S3FileUploader {


    private static String bucketName     = "***NAME OF YOUR BUCKET***";
    private static String keyName        = "Object-"+UUID.randomUUID();

    public String fileUploader(List<FileItem> fileData) throws IOException {
        AmazonS3 s3 = new AmazonS3Client(new ClasspathPropertiesFileCredentialsProvider());
        String result = "Upload unsuccessfull because ";
        try {

            S3Object s3Object = new S3Object();

            ObjectMetadata omd = new ObjectMetadata();
            omd.setContentType(fileData.get(0).getContentType());
            omd.setContentLength(fileData.get(0).getSize());
            omd.setHeader("filename", fileData.get(0).getName());

            ByteArrayInputStream bis = new ByteArrayInputStream(fileData.get(0).get());

            s3Object.setObjectContent(bis);
            s3.putObject(new PutObjectRequest(bucketName, keyName, bis, omd));
            s3Object.close();

            result = "Uploaded Successfully.";
        } catch (AmazonServiceException ase) {
           System.out.println("Caught an AmazonServiceException, which means your request made it to Amazon S3, but was "
                + "rejected with an error response for some reason.");

           System.out.println("Error Message:    " + ase.getMessage());
           System.out.println("HTTP Status Code: " + ase.getStatusCode());
           System.out.println("AWS Error Code:   " + ase.getErrorCode());
           System.out.println("Error Type:       " + ase.getErrorType());
           System.out.println("Request ID:       " + ase.getRequestId());

           result = result + ase.getMessage();
        } catch (AmazonClientException ace) {
           System.out.println("Caught an AmazonClientException, which means the client encountered an internal error while "
                + "trying to communicate with S3, such as not being able to access the network.");

           result = result + ace.getMessage();
         }catch (Exception e) {
             result = result + e.getMessage();
       }

        return result;
    }
}

注:-認証情報にawsプロパティファイルを使用しています。

お役に立てれば。

4
streak

バックグラウンドでマルチパートアップロードを使用して、メモリ内のすべてをバッファリングせず、ディスクに書き込みもしないライブラリを作成しました: https://github.com/alexmojaki/s3-stream-upload

3
Alex Hall

ファイルオブジェクトをputobjectメソッドに渡すだけでうまくいきました。ストリームを取得している場合は、S3に渡す前に一時ファイルに書き込んでみてください。

amazonS3.putObject(bucketName, id,fileObject);

Aws SDK v1.11.414を使用しています

https://stackoverflow.com/a/35904801/2373449 の答えは私を助けました

0
Vikram