SQLに詳しい人きて
■ このスレッドは過去ログ倉庫に格納されています
10億行のTSVをSqliteにインポートしたいんだけど10万行以上書き込もうとすると一気にメモリリーク起こして書き込めない
どうすればいい? >>2
64GBつんでる
指数関数的にメモリ消費するから意味ない その大量なTSV誰も見んだろ。
やるなら作成日で年毎に分けて抽出するとかやりようあるはず。 >>7
メモリリーク起こしてるっぽくて一瞬でメモリ食い尽くす >>6
コマンドひとつで分割なんてできるでしょう
分割ファイルを順番に読み込むなんてシェルでも組めば終わりでしょう >>11
それをやってる
10万行ごと区切ってる
いま300ほどtsv出来てる sqliteだとしんどいのかなぁ
細かくチューニングしやすいPostgresqlとかにしようかなぁ ■ このスレッドは過去ログ倉庫に格納されています