C++ 上でデータをシリアライズする#
C++ 上でデータをシリアライズ・デシリアライズするライブラリの調査記録。
調査したライブラリ#
msgpack-c#
msgpack-c は MessagePack 形式でデータのシリアライズ・デシリアライズを行うライブラリ。 ライセンスは Boost Software License Version 1.0 となっている。
MessagePack はコンパクトでかつ効率的な実装がしやすいように作られた バイナリのデータ形式で、 様々な言語のライブラリが作られている。 MessagePack 公式の GitHub グループにあるものだけでも、 Ruby, Python, PHP, Javascript, C, C++, Java, Haskell, D, Perl, Erlang, Smalltalk, Scala, OCaml, Go, Objective-C といった言語のライブラリが存在する。
Protocol Buffers#
Protocol Buffers は Google が考案したデータのシリアライズ・デシリアライズ形式で、 C++ 向けのライブラリは protobuf にて公開されている。 ライセンスは 3 条項 BSD ライセンスとなっている。
MessagePack と同様にバイナリのデータ形式で、 専用の言語で書かれたメッセージの定義をもとに 各プログラミング言語向けのクラスを自動生成することができる。 公式リポジトリの README によると、 C++, Java, Python, Objective-C, C#, JavaScript, Ruby, Go, PHP, Dart といった言語に対応している。
インタフェースの定義を複数の言語の間で共有したいときに便利なライブラリとなっている。 (参考:今さら Protocol Buffers と、手に馴染む道具の話 - Qiita)
cereal#
cereal はバイナリ形式、XML、JSON などでデータをシリアライズ・デシリアライズできるライブラリ。 ライセンスは BSD 3-Clause となっている。
比較的効率的なバイナリ形式でのシリアライズ・デシリアライズもできるため,今回比較に用いた。 後述のベンチマークは全てバイナリ形式で行っている。
nlohmann/json#
nlohmann/json は JSON のシリアライズ・デシリアライズを行うライブラリの 1 つ。 ライセンスは MIT ライセンスとなっている。
シンプルな API を持ち、 このページに挙げているライブラリの中では最も使いやすい印象。 ただし、効率は重視していないため、速度やメモリ使用量については要注意。
また、JSON は前述の msgpack-c や Protocol Buffers と異なり、 データ形式の時点で効率があまり良くない上に、 仕様上 Unicode でない文字を使用できないため注意。
RapidJSON#
RapidJSON も JSON のシリアライズ・デシリアライズを行うライブラリの 1 つ。 ライセンスは MIT ライセンスとなっている。
nlohmann/json と対照的に、 効率を重視しているライブラリであり、 Native JSON Benchmark では、最速で最もメモリ使用量が少ないのが RapidJSON となっている。 ただし、API の使いやすさでは他のライブラリに負ける。
simdjson#
simdjson は JSON のデシリアライズを行うライブラリの 1 つ。 ライセンスは Apache 2.0 ライセンスとなっている。
SIMD 演算を用いて高速に JSON のデシリアライズを行うライブラリであり、 デシリアライズ処理だけは RapidJSON よりも速いという。 しかし、任意のデータをシリアライズする機能が実装されていないため、 デシリアライズしか行わない場合にしか使用できない。 また、API は RapidJSON 以上に使いにくく、 ライブラリの使用による実装の仕方の制約が極めて強い。
ベンチマーク#
上記のライブラリについてベンチマークを行った。
環境#
OS: Ubuntu 22.04
CPU: Intel(R) Core(TM) i7-9750H CPU @ 2.60GHz (6 コア 12 スレッド)
メモリ: 16 GB
コンパイラ: Clang 16.0.0
対象データ#
文字列(1 文字、1024 文字、1024 × 1024 文字)
int 型のベクトル(1 要素、1024 要素、1024 × 1024 要素)
double 型のベクトル(1 要素、1024 要素、1024 × 1024 要素)
次のような構造体
struct test_struct { std::int32_t param_int; double param_double; std::vector<char> binary; };
ライブラリのバージョン#
msgpack: 6.0.0
Protocol Buffers: 3.21.12
nlohmann/json: 3.11.2
RapidJSON: 2023-07-17
simdjson: 3.2.1
cereal 1.3.2
ソースコード#
結果#
生データ
文字列:
bench_string.xml
int 型のベクトル:
bench_int.xml
double 型のベクトル:
bench_double.xml
構造体:
bench_struct.xml
まとめたデータ
まとめた CSV:
bench.csv
まず、文字列のシリアライズ・デシリアライズの処理時間から確認する。
Show code cell source
import pandas as pd
import plotly.express as px
import plotly.graph_objects as go
bench_results = pd.read_csv('result_20231029_Ubuntu/bench.csv')
# parse は msgpack-c でしか行っていないからグラフに入れない
bench_results = bench_results[bench_results['procedure'] != 'parse']
# 表示用データ
bench_results['error_minus_ns'] = bench_results['mean_ns'] - bench_results['lower_bound_ns']
bench_results['error_plus_ns'] = bench_results['upper_bound_ns'] - bench_results['mean_ns']
bench_results['mean_sec'] = bench_results['mean_ns'] * 1e-9
bench_results['error_minus_sec'] = bench_results['error_minus_ns'] * 1e-9
bench_results['error_plus_sec'] = bench_results['error_plus_ns'] * 1e-9
labels={
'mean_sec': '平均処理時間 [sec.]',
}
fig = px.bar(
bench_results[bench_results['data_type'] == 'string'],
y='mean_sec', log_y=True,
error_y_minus='error_minus_sec', error_y='error_plus_sec',
x='procedure', color='library', barmode="group",
facet_col='data_size',
title='ベンチマーク結果(文字列)',
labels=labels,
)
fig.show(renderer="notebook_connected")
多くの場合で
msgpack-c
Protocol Buffers
cereal
simdjson
RapidJSON
nlohmann/json
の順に速かった。 特に、msgpack-c によるデシリアライズの処理では文字列のコピーをしない方法が存在しており、 その方法を用いているため、 データサイズに関係ない処理時間が実現できている。
int のベクトルの結果は以下の通り。 JSON は int のベクトルのシリアライズ・デシリアライズで 効率の極めて悪い小数の文字列表記を用いるため、 1024 × 1024 のデータサイズの試験を省略した。 また、simdjson はこのデータを正常にデシリアライズできなかったため除外した。
Show code cell source
fig = px.bar(
bench_results[bench_results['data_type'] == 'int'],
y='mean_sec', log_y=True,
error_y_minus='error_minus_sec', error_y='error_plus_sec',
x='procedure', color='library', barmode="group",
facet_col='data_size',
title='ベンチマーク結果(int のベクトル)',
labels=labels,
)
fig.show(renderer="notebook_connected")
今度は
cereal
Protocol Buffers or msgpack-c (シリアライズとデシリアライズで順位が変わる)
RapidJSON
nlohmann/json
の順に速かった。
double のベクトルの結果は以下の通り。 JSON は double のベクトルのシリアライズ・デシリアライズで 効率の極めて悪い小数の文字列表記を用いるため、 1024 × 1024 のデータサイズの試験を省略した。
Show code cell source
fig = px.bar(
bench_results[bench_results['data_type'] == 'double'],
y='mean_sec', log_y=True,
error_y_minus='error_minus_sec', error_y='error_plus_sec',
x='procedure', color='library', barmode="group",
facet_col='data_size',
title='ベンチマーク結果(double のベクトル)',
labels=labels,
)
fig.show(renderer="notebook_connected")
今度は
Protocol Buffers
cereal
msgpack-c
simdjson
RapidJSON
nlohmann/json
の順に速かった。
最後に構造体のデータを用いた場合の結果を示す。
Show code cell source
fig = px.bar(
bench_results[bench_results['data_type'] == 'struct'],
y='mean_sec', log_y=True,
error_y_minus='error_minus_sec', error_y='error_plus_sec',
x='procedure', color='library', barmode="group",
title='ベンチマーク結果(構造体)',
labels=labels,
)
fig.show(renderer="notebook_connected")
msgpack-c と Protocol Buffers、cereal はシリアライズとデシリアライズで順番が入れ替わっているが、 JSON ライブラリで時間がかかるのは共通している。
ベンチマークのまとめ#
バイナリデータを用いる msgpack-c と Protocol Buffers、cereal が JSON のライブラリよりも速かった。
msgpack-c と Protocol Buffers、cereal は状況によって順位が入れ替わり、 差は文字列のデシリアライズ以外 1 桁程度までに収まっている。
JSON のライブラリではシリアライズにおいて RapidJSON、デシリアライズにおいて simdjson が常に速かった。
まとめ#
ここでは、C++ 上でデータのシリアライズ・デシリアライズを行うライブラリをまとめた。 状況によってライブラリを使い分けていこう。
バイナリデータ形式 vs. JSON
バイナリデータの方が効率は良い。 特に小数のデータを多く扱う場合に差が出やすい。
JSON の方が人間にとってデータを読みやすい。
ASCII や Unicode の範囲を超えるデータがいつでも扱えるとは限らないため、 バイナリデータの利用には注意が必要。 ただし、msgpack-c と Protocol Buffers はエンディアンが規定されているため、 エンディアンが異なるシステム間でも問題なく使用できる。
msgpack-c vs. Protocol Buffers vs. cereal
効率の良さは状況によるため、効率だけでは選びづらい。
msgpack-c は動的にパースされたデータの内部を探索することができる。
Protocol Buffers は他言語とのデータ共有に向いている。
cereal は C++ のみのサポートになる。
ユーザ定義のデータ型のシリアライズ・デシリアライズを行うにあたって、
msgpack-c ではパースされたデータ(
msgpack::object
)とユーザ定義のデータ型との間の変換の実装が必要。Protocol Buffers では自動生成されたクラスとユーザ定義のデータ型との間の変換の実装が必要。
cereal ではデータ型ごとのシリアライズ・デシリアライズ用の関数の実装が必要。
となる。 C++ だけでシリアライズ・デシリアライズを行うのであれば、 C++ だけ書けば良い msgpack-c か cereal の方が簡単な印象。
nlohmann/json vs. RapidJSON vs. simdjson
デシリアライズの効率は simdjson が良い。
デシリアライズしかできない simdjson を除くと、RapidJSON が速い。
API は nlohmann/json が使いやすい。 特に、STL との間の相互変換は nlohmann/json では簡単にできても、 RapidJSON, simdjson では自力での実装が必要。
実装時間と実行時間、シリアライズが必要かどうかによってどれを利用すべきかが変わる。