Yuichiro Minato
Yuichiro Minato
1万 件のツイート
Yuichiro Minatoさんのツイート
昨日は色んなところでやる気のないツイッターと、そこそこ役に立つユーチューブ見てますと色んな人から声かけられて、しょうもないツイッター増やそうと思いました。
3
返信先: さん, さん
こちらに解説してあります!誰も信じてもらえないので、是非お願いします!最初に全体の計算を軽くする最適化を実行します!
1
1
おすすめトピック
登録すると、フォローしているトピックについてのツイートがホームタイムラインに表示されます。
Carousel
返信先: さん, さん
アニーリングではありません!量子ゲートです!今までは左から右に時間発展と呼ばれる方法で計算していたのですが、その方向の制約をなくすことで大幅に性能向上できる方法です。米国でも詐欺呼ばわりされたので仕方ないですが、ツールとして公開したので信じてもらえました!
1
2
お疲れさまでした!社会人講座もおねがいします!
引用ツイート
Tsuyoshi Okubo
@TsuyoshiOkubo
·
シンポジウム終わって、少し落ち着いた。疲れがどっと出てる。
1
こちらに顛末と開発者本人のコメントもあります。是非応援を!
1
返信先: さん, さん
自画自賛なんてないです、いい技術ですし、NVIDIA cuQuantumの半分は日本で作ってきたもので開発者も日本人です。なので、彼らを応援してもらいたいだけですし、量子コンピュータを巡る状況はかなり今年変わってます。
2
2
返信先: さん, さん
量子コンピュータにとっては微妙ですが、実機の現場では逆に気が楽になったという人もいます。実機では特に今のアプリに必要な期待値計算は絶望的ですが、いい目標になるかもしれません。とにかく日本だけでなく米国でも寝耳に水で、業界全体混乱すると思います。
1
1
返信先: さん, さん
まだ、詳しくは言えないです。最適化と機械学習は問題の種類と条件、GPUメモリサイズによります。ただ、この資料以上に行く可能性もあります。それはこのグラフは特定の近似を使ったより大きな量子計算の考慮がなされていないからです。この新技術はとにかくすごいです。
2
3
返信先: さん, さん
この前のNVIDIA社主催のイベントに登壇して正式にNVIDIA AI DAYS で説明させていただきました。すごいいい技術なのでとにかくご期待下さい。
この技術はこれまでの量子コンピュータのシミュレーションには無駄あったので、必要な計算だけをするという割り切りにより量子コンピュータに匹敵する性能を出すことに成功しました。
1
1
返信先: さん, さん
昨年スパコンのノーベル賞と言われるとゴードンベル賞を獲得したのが今回の新しいテンソルネットワーク技術で、これによって量子コンピュータに追いついてます。今後はそれをコンシューマ実装で誰でも使えるようになります!
2
2
返信先: さん, さん
NVIDIA3万量子ビット超の資料貼っておきますね。
slideshare.net
開発者が語る NVIDIA cuQuantum SDK
2022 年 4 月 26 日 (火) に開催した「GTC 2022 テクニカルフォローアップセミナー 〜新アーキテクチャ & HPC〜」にて、NVIDIA 森野が講演した「開発者が語る NVIDIA cuQuantum SDK」のスライドです。
2
1
信じられない方々のためにNVIDIAによる1688量子ビット、3375頂点のmaxcutVQE貼っておきますね。実際にはこれ以上が出来てますが、少しずつ信じてもらうのが大事です。
13
59
返信先: さん, さん
とにかくワクワクする毎日です。NVIDIAによる1688量子ビットによる計算の発表貼っておきますね。あまりにすごすぎてなかなか信じてもらえない毎日です。とにかくみんなで新しい時代を作りたいですね。
2
1
中身が変わりました
引用ツイート
Ryou Ezoe(江添 亮)
@EzoeRyou
·
量子コンピューターシミュレーターならいくらでもあったぞ。 twitter.com/MinatoYuichiro…
1
3
この業界まじで度々ブレイクスルーが目の前で起こるからビビる。
引用ツイート
Hironobu Ueno | double jump.tokyo CEO
@h2ueno
·
技術進化は面白いなー、メモメモ twitter.com/MinatoYuichiro…
1
1
10
数年前から開発が進んでたのですが、当時はこんなにハードが進化するとは思ってなかったので、ここまでになるとは全く予想せず。深層学習ブームのおかげにほかなりません。
引用ツイート
森 邦彦 C100 8/13(土)西あ06b「げんそけん」
@morikuni_net
·
GPUでQビットを模擬する方が筋はいいと思うんですよね。デコヒーレンスは計算精度の範囲では起きないし。波動関数ののぞき見することもやろうと思ったらやれる twitter.com/MinatoYuichiro…
このスレッドを表示
1
4
11
Twitterを使ってみよう
今すぐ登録して、タイムラインをカスタマイズしましょう。