FAQ読み込み
一般的なロードFAQ
エラー "[DATA_QUALITY_ERROR] Encountered unqualified data"
問題の説明: ロード中のデータ品質エラー。
解決方法:
- Stream LoadとInsert Into操作はエラーURLを返しますが、Broker Loadの場合は
Show LoadコマンドでエラーURLを確認できます。 - ブラウザまたはcurlコマンドを使用してエラーURLにアクセスし、具体的なデータ品質エラーの理由を確認します。
- strict_modeとmax_filter_ratioパラメータを使用して、許容可能なエラー率を制御します。
エラー "[E-235] Failed to init rowset builder"
問題の説明: ロード頻度が高すぎてデータが適時にコンパクション処理されず、バージョン制限を超えた場合にエラー-235が発生します。
解決方法:
- データロードのバッチサイズを増加させ、ロード頻度を減らします。
be.confのmax_tablet_version_numパラメータを増加させます。5000を超えないことを推奨します。
エラー "[E-238] Too many segments in rowset"
問題の説明: 単一rowset配下のセグメント数が制限を超えた場合にエラー-238が発生します。
一般的な原因:
- テーブル作成時に設定されたバケット数が小さすぎる。
- データスキューが発生している。よりバランスの取れたバケットキーの使用を検討してください。
エラー "Transaction commit successfully, BUT data will be visible later"
問題の説明: データロードは成功したが、一時的に表示されない。
原因: 通常、システムリソースの負荷によるトランザクションパブリッシュの遅延が原因です。
エラー "Failed to commit kv txn [...] Transaction exceeds byte limit"
問題の説明: shared-nothingモードで、単一のロードで関与するパーティションとタブレットが多すぎて、トランザクションサイズ制限を超えている。
解決方法:
- パーティション別にバッチでデータをロードし、単一ロードで関与するパーティション数を削減します。
- テーブル構造を最適化して、パーティションとタブレットの数を削減します。
CSVファイルの最後の列に余分な"\r"
問題の説明: 通常、Windows改行コードが原因です。
解決方法:
正しい改行区切り文字を指定してください: -H "line_delimiter:\r\n"
引用符付きCSVデータがnullとしてインポートされる
問題の説明: 引用符付きCSVデータがインポート後にnullになる。
解決方法:
trim_double_quotesパラメータを使用して、フィールド周りのダブルクォートを削除します。
Stream Load
ロードが遅い理由
- CPU、IO、メモリ、またはネットワークカードリソースのボトルネック。
- クライアントマシンとBEマシン間のネットワークが遅い。クライアントからBEマシンへのpingレイテンシーで初期診断が可能です。
- webserverスレッド数のボトルネック。単一BEでの並行Stream Load数が多すぎる場合(be.conf webserver_num_workers設定を超える)、スレッド数のボトルネックを引き起こす可能性があります。
- Memtable Flushスレッド数のボトルネック。BEメトリクスdoris_be_flush_thread_pool_queue_sizeを確認して、キューイングが深刻かどうかを確認してください。be.conf flush_thread_num_per_storeパラメータを増加させることで解決できます。
列名の特殊文字の処理
列名に特殊文字が含まれる場合は、columnsパラメータを指定するためにバッククォート付きのシングルクォートを使用してください:
curl --location-trusted -u root:"" \
-H 'columns:`@coltime`,colint,colvar' \
-T a.csv \
-H "column_separator:," \
http://127.0.0.1:8030/api/db/loadtest/_stream_load
Routine Load
主要なバグ修正
| 問題の説明 | 発生条件 | 影響範囲 | 一時的な解決策 | 影響を受けるバージョン | 修正済みバージョン | 修正PR |
|---|---|---|---|---|---|---|
| Kafkaへの接続時に少なくとも1つのジョブがタイムアウトすると、他のジョブのインポートに影響し、グローバルなRoutine Loadインポートが遅くなる。 | Kafkaへの接続時に少なくとも1つのジョブがタイムアウトする。 | Shared-nothingとshared-storage | ジョブを停止または手動で一時停止して問題を解決する。 | <2.1.9 <3.0.5 | 2.1.9 3.0.5 | #47530 |
| FE Masterを再起動した後にユーザーデータが失われる可能性がある。 | ジョブのオフセットがOFFSET_ENDに設定され、FEが再起動される。 | Shared-storage | 消費モードをOFFSET_BEGINNINGに変更する。 | 3.0.2-3.0.4 | 3.0.5 | #46149 |
| インポート中に大量の小さなトランザクションが生成され、compactionが失敗して継続的な-235エラーが発生する。 | Dorisのデータ消費が速すぎる、またはKafkaデータフローが小さなバッチになっている。 | Shared-nothingとshared-storage | Routine Loadジョブを一時停止し、次のコマンドを実行する:ALTER ROUTINE LOAD FOR jobname FROM kafka ("property.enable.partition.eof" = "false"); | <2.1.8 <3.0.4 | 2.1.8 3.0.4 | #45528, #44949, #39975 |
| Kafkaサードパーティライブラリのデストラクタがハングし、データ消費が失敗する。 | Kafkaトピックの削除(他の条件の可能性もある)。 | Shared-nothingとshared-storage | すべてのBEノードを再起動する。 | <2.1.8 <3.0.4 | 2.1.8 3.0.4 | #44913 |
| Routine Loadスケジューリングがハングする。 | FEがMeta Serviceでトランザクションを中止する際にタイムアウトが発生する。 | Shared-storage | FEノードを再起動する。 | <3.0.2 | 3.0.2 | #41267 |
| Routine Load再起動の問題。 | BEノードの再起動。 | Shared-nothingとshared-storage | ジョブを手動で再開する。 | <2.1.7 <3.0.2 | 2.1.7 3.0.2 | #3727 |
デフォルト設定の最適化
| 最適化内容 | 適用バージョン | 対応するPR |
|---|---|---|
| Routine Loadのタイムアウト時間を延長した。 | 2.1.7 3.0.3 | #42042, #40818 |
max_batch_intervalのデフォルト値を調整した。 | 2.1.8 3.0.3 | #42491 |
max_batch_intervalの制限を削除した。 | 2.1.5 3.0.0 | #29071 |
max_batch_rowsとmax_batch_sizeのデフォルト値を調整した。 | 2.1.5 3.0.0 | #36632 |
可観測性の最適化
| 最適化内容 | 適用バージョン | 対応するPR |
|---|---|---|
| 可観測性関連のメトリクスを追加した。 | 3.0.5 | #48209, #48171, #48963 |
エラー「failed to get latest offset」
問題の説明:Routine LoadがKafkaの最新オフセットを取得できない。
一般的な原因:
- 通常はKafkaとのネットワーク接続の問題。pingやtelnetを使用してKafkaドメイン名をテストして確認する。
- サードパーティライブラリのバグによるタイムアウト、エラー:java.util.concurrent.TimeoutException: Waited X seconds
エラー「failed to get partition meta: Local:'Broker transport failure」
問題の説明:Routine LoadがKafka Topic Partition Metaを取得できない。
一般的な原因:
- 通常はKafkaとのネットワーク接続の問題。pingやtelnetを使用してKafkaドメイン名をテストして確認する。
- ドメイン名を使用している場合は、/etc/hostsでドメイン名マッピングを設定してみる
エラー「Broker: Offset out of range」
問題の説明:消費されたオフセットがKafkaに存在しない、おそらくKafkaによってクリーンアップされた可能性がある。
解決策:
- 消費のための新しいオフセットを指定する必要がある、例えば、オフセットをOFFSET_BEGINNINGに設定する。
- インポート速度に基づいて適切なKafkaログクリーンアップパラメータを設定する必要がある:log.retention.hours、log.retention.bytesなど。