AWSに詳しいやつちょっと来いや
■ このスレッドは過去ログ倉庫に格納されています
200万/月のwebページを保存して分析したいんだが何使うべき? 選択肢としてはこんなもんかなぁと
1.lambdaでhtmlを取ってきてS3に保存
2.lambdaでhtml取ってきて加工して必要な部分だけDynamodbに保存
3.ec2とauroraで頑張ってaurora に保存 >>3
そうだね
イメージ的にはTwitterのツイートをユーザー、文章、投稿日、いいね数、リツイート数、、、を取ってきて後で分析したいみたいなイメージ ちなみにhtmlの容量は全て20KBぐらいに揃ってる 最初、全部取ってきてS3突っ込んどけばええやろって思ってlambda書いてS3に打ち込んでたらめっちゃ課金されたから改善したい よく考えると2000万 × 20KB = 400GBなんだよなぁ
これに加えてS3のput_objectはいっばいやると課金もエグい 直接TwitterのAPI叩けばいいじゃん
できんのか知らんけど ■ このスレッドは過去ログ倉庫に格納されています