MySQLで2億件のシリアルデータと格闘したチューニングの話
このトークは現在'保留'状態です
もしあなたが「これは是非YAPCで見たい!」と思ったら、ソーシャルメディアボタンを押して応援してみてください。選考の際に参考にさせていただきます
Tweetトーク概要
昨今、ビッグデータとまではいかないまでも、 大規模データを扱うシステムが増えているように思えます。
そうはいってもリソースは限られていて、、
CPUが2コアしかない・・・ メモリが8Gしかない・・・
データは5億件もあるorz
などなど、、
限られたリソースの中で、 求められる性能を出すための工夫や、 リソースが足りないことの正当性を訴えた話とか、
いろいろ意見交換できればと思います。
主にMySQL とちょっとPerlの話です。
アジェンダ(仮)
- システムの概要
- 負荷テスト
- /tmp の枯渇
- 正規化してサイズを減らした
- 負荷テストのときよりも圧倒的に遅い。。。
- indexの再構築 とupdate
- 主キーとinsert の関係
- アプリケーション側のロジックの変更
- innodb_buffer_pool_size とinsert
- 今後の課題
- 増分バックアップの方法とか
- メモリ増築しないと無理な話とか
トーク詳細
会場 | TBD |
---|---|
開始時間 | TBD |
カテゴリ | アプリケーション |
言語 | 日本語 |
同時通訳 | NO |
スライド字幕 | 日本語 |
時間 | 30 分 |
想定観客層 | ビギナー |
写真撮影 | 有り |
録画配信 | 有り |