@Gorotano 確認しましたところ、5月4日時点で七四式が8割程度、ほっぽアルファが2割程度、他わずかに提督業プラグインが利用されていました
-
-
6件のリツイート 6 いいね
-
@Watch_Kensho@Gorotano 私は以前申し上げた通り、私が過去にダウンロードした検証DBのデータは既に削除しております。先の解答には検証部のチャットログを用いました。以下がそのスクショになります。pic.twitter.com/9KMLSaBuxi7:02 - 2016年6月27日 · 詳細24件のリツイート 13 いいね -
4件のリツイート 3 いいね
-
-
@biikame@Watch_Kensho@Gorotano 横から失礼します。枝葉話で恐縮ですが、この検証DBの設計として、リレーショナルデータベースの類は使用されていないのでしょうか。5件のリツイート 2 いいね -
@kunimi_komichi@Watch_Kensho@Gorotano 私が脱退された時点で使用されていませんでした。データはあくまでテキストファイルとして蓄積されていました。将来的にそういったデータベースを利用する計画はありますが、春イベには間に合いませんでした5件のリツイート 3 いいね -
@biikame@kunimi_komichi@Watch_Kensho@Gorotano 横から失礼します。ものすごくぶっちゃけたこと聞きますが、検証部の人間に果たしてこれを運用できるスキルやサーバ側の設計能力があるかすごく疑問なのですが、その辺りどのように感じます?0件のリツイート 0 いいね -
@immoral__prince@kunimi_komichi@Watch_Kensho@Gorotano (続き)全体としては、一旦受信データをテキストとしてAzure Blob Storageに記録し、Date Lake Analyticsを用いて解析をかける予定でした1件のリツイート 0 いいね -
@biikame@immoral__prince@Watch_Kensho@Gorotano ビッグデータ解析を使用する利点ってなんでしょうか?個人的にはJSONを切り分けて正規化されたDBに値を突っ込んで適宜SQLで拾い出すというのがよくあるものだと考えておりました1件のリツイート 1 いいね
@kunimi_komichi @immoral__prince @Watch_Kensho @Gorotano 検証において必要なデータはさまざまであり、何のデータが必要かは検証する段階になってみないと正確にはわかりません。(続く)