Keyboard Shortcuts

Keyboard shortcuts are available for common actions and site navigation.

Skip to content
  • Home Home Home, current page.
  • About
  • Have an account? Log in
ktgohan's profile
ktgohan
ktgohan
ktgohan
@ktgohan

Tweets

ktgohan

@ktgohan

自称インフラエンジニア。またはデータセンターの備品。使用後は元の位置にお戻しください。USB充電本 @origamidevices / 浦賀船渠ノ航跡関連 http://ktgohan2.hatenablog.com/entry/2015/02/03/024037 …

相模原, 宇津帆島, 舞鎮, 瑞雲改二
ktgohan.com/contact/
Joined November 2012

Tweets

  • © 2020 Twitter
  • About
  • Help Center
  • Terms
  • Privacy policy
  • Cookies
  • Ads info
ktgohan‏ @ktgohan

ktgohan Retweeted いけしん@ジジイ(無資格無認可システム放火魔)

参照だけなら比較的力技でなんとかなるんですが、電力スマートメーターのように「毎時何分と決まった時刻に端末機が一斉に30分指示値データを吹き上げてくるのを確実に漏れなく受け止めなければならない」ほうが猛烈にしんどい。https://twitter.com/_ikeshin/status/1218175686508077057…

ktgohan added,

いけしん@ジジイ(無資格無認可システム放火魔) @_ikeshin
俺とDB技術で勝負するなら2000万件の百貨店売上データを検索して2秒以内で表示して見ろ。 話はそれからだ。…
7:33 PM - 17 Jan 2020
  • 7 Retweets
  • 22 Likes
  • 低解像度のアライさん ココネ@羊術師 Takahiro Kitayama matayoshi グッティ asari @Searcholic_jp 人生に絶望しない2020 じとめふすきー
7 replies 7 retweets 22 likes
    1. New conversation
    2. ktgohan‏ @ktgohan 2h2 hours ago

      東電あれマジでどうやってんの?

      1 reply 3 retweets 2 likes
      Show this thread
    3. ktgohan‏ @ktgohan 2h2 hours ago

      電力10社とも、ヘッドエンドの後ろにいるの結局Exadataだよね?

      0 replies 0 retweets 3 likes
      Show this thread
    4. End of conversation
    1. abigail9801(月光蝶G)‏ @abigail9801 2h2 hours ago
      Replying to @ktgohan

      流石に「2000万件を確実に2秒」と言われると、純粋なDB技術の勝負になるので「俺にゃ無理」と素直に手を上げる。 その代わり 「確実ではないが2-3秒で良いなら、もっと安く<誰でも同じように保守できる>仕掛けの図を描いてあげるよ」と言える。 …自分しか保守できないシステムなんて残せない。

      0 replies 0 retweets 3 likes
    1. abigail9801(月光蝶G)‏ @abigail9801 2h2 hours ago
      Replying to @ktgohan

      初期の系統動揺解析システムで同じような問題(上がってくるデータが当時としては多過ぎる)に物理増したが、所詮、ネットのほうはトランキング、データの方はバッファリング以外に妥当な解がないので、memcacheとKVSに吸わせます。

      0 replies 0 retweets 2 likes
    1. abigail9801(月光蝶G)‏ @abigail9801 1h1 hour ago
      Replying to @ktgohan

      なんか元スレッド見たけど、…DBだけで考えてるみたい(しかも、限定されたハードで)。 …今じゃそんなやり方では業務しない(「なぜ2000万件必要か」から考える)し…。

      0 replies 0 retweets 1 like
    1. abigail9801(月光蝶G)‏ @abigail9801 2h2 hours ago
      Replying to @ktgohan

      2つ思いついた。 1.KVSに載せ変えておく 2.いつものmemcache で、100万件あたり0.3秒くらいで10多重、運がよければ2000万ー3000万件を2-3秒。

      0 replies 0 retweets 0 likes
    1. abigail9801(月光蝶G)‏ @abigail9801 2h2 hours ago
      Replying to @ktgohan

      まあ今ならAWSだろうから、RedisとMongoDBで緩衝帯にして、ゆっくりDWSに配置すればいいんじゃないですかね (構成図を呼び出してざっくり考えた)

      0 replies 0 retweets 0 likes
    1. abigail9801(月光蝶G)‏ @abigail9801 1h1 hour ago
      Replying to @ktgohan

      KVSやmemcache(Redisでも)の多重化の仕組みは、一番ベタな奴でいい。 2000万件と言っても、キーの段階で区分できるものは多い。 データが主キーで行く先を仕分け出来るように作ってあれば 「検索を開始した段階で、どのインスタンス(もしくはキャッシュ)を叩くかは分散できる」

      0 replies 0 retweets 0 likes

    • © 2020 Twitter
    • About
    • Help Center
    • Terms
    • Privacy policy
    • Cookies
    • Ads info