web-dev-qa-db-ja.com

JavaまたはScalaの寄木細工のファイルとの間でMap <String、Object>を読み書きする方法は?

JavaまたはScalaで寄木細工のファイルとの間でMap<String, Object>を読み書きする方法の簡潔な例をお探しですか?

Javaでシリアライザーとしてcom.fasterxml.jackson.databind.ObjectMapperを使用する(つまり、寄木細工を使用して同等のものを探す))の予想される構造は次のとおりです。

public static Map<String, Object> read(InputStream inputStream) throws IOException {
    ObjectMapper objectMapper = new ObjectMapper();

    return objectMapper.readValue(inputStream, new TypeReference<Map<String, Object>>() {

    });
}

public static void write(OutputStream outputStream, Map<String, Object> map) throws IOException {
    ObjectMapper objectMapper = new ObjectMapper();

    objectMapper.writeValue(outputStream, map);        
}
13
okigan

私は寄木細工が苦手ですが、 ここ から:

Schema schema = new Schema.Parser().parse(Resources.getResource("map.avsc").openStream());

    File tmp = File.createTempFile(getClass().getSimpleName(), ".tmp");
    tmp.deleteOnExit();
    tmp.delete();
    Path file = new Path(tmp.getPath());

    AvroParquetWriter<GenericRecord> writer = 
        new AvroParquetWriter<GenericRecord>(file, schema);

    // Write a record with an empty map.
    ImmutableMap emptyMap = new ImmutableMap.Builder<String, Integer>().build();
    GenericData.Record record = new GenericRecordBuilder(schema)
        .set("mymap", emptyMap).build();
    writer.write(record);
    writer.close();

    AvroParquetReader<GenericRecord> reader = new AvroParquetReader<GenericRecord>(file);
    GenericRecord nextRecord = reader.read();

    assertNotNull(nextRecord);
    assertEquals(emptyMap, nextRecord.get("mymap"));

状況に応じて、ImmutableMap(Googleコレクション)をデフォルトのマップに変更します。

Schema schema = new Schema.Parser().parse( Resources.getResource( "map.avsc" ).openStream() );

        File tmp = File.createTempFile( getClass().getSimpleName(), ".tmp" );
        tmp.deleteOnExit();
        tmp.delete();
        Path file = new Path( tmp.getPath() );

        AvroParquetWriter<GenericRecord> writer = new AvroParquetWriter<GenericRecord>( file, schema );

        // Write a record with an empty map.
        Map<String,Object> emptyMap = new HashMap<String, Object>();

        // not empty any more
        emptyMap.put( "SOMETHING", new SOMETHING() );
        GenericData.Record record = new GenericRecordBuilder( schema ).set( "mymap", emptyMap ).build();
        writer.write( record );
        writer.close();

        AvroParquetReader<GenericRecord> reader = new AvroParquetReader<GenericRecord>( file );
        GenericRecord nextRecord = reader.read();

        assertNotNull( nextRecord );
        assertEquals( emptyMap, nextRecord.get( "mymap" ) );

コードはテストしませんでしたが、試してみてください。

2
Sercan Ozdemir

これに対する解決策がすぐに利用できるとは思えません。マップについて話すとき、マップの値がプリミティブ型、またはプリミティブ型フィールドを持つcomplexTypeであれば、マップからAvroSchemaを作成することは可能です。

あなたの場合、

  • マップ=>があり、マップの値がintであるスキーマを作成する場合。
  • 地図をお持ちの場合、
    • a。 CustomObjectにはint、float、char ...(つまり、任意のプリミティブ型)のフィールドがあり、スキーマの生成は有効であり、parquetに正常に変換するために使用できます。
    • b。 CustomObjectにはプリミティブではないフィールドがあり、生成されたスキーマの形式が正しくなく、結果のParquetWritterが失敗します。

この問題を解決するには、オブジェクトをJsonObjectに変換してから、Apache Sparkライブラリを使用してParquetに変換します。

0
Dishant Kamble