syoinsya

Scratcher Joined 4 years ago Japan

About me

フォロバします f4f

私が出す作品は基本フリーなんでクレジットしたら勝手に借りてください

What I'm working on

妹(設定) @ketchup_mi-a

What I've been doing

Comments

You have 500 characters left.
  • メスガキの魅力は生意気なところそのものじゃなくて、それによって後の恥じらいや屈辱感が引き立てられるところにあると思うんだ。メスガキとわからせは一体であり、最後まで生意気さが残っていたらそれはメスガキの真価が発揮できていない。
    about 10 hours ago
  • なぜかバグが出てそこの行に改行入れたら何もないとこでバグおきてもうわけわかめ
    a day ago
  • 傾向によくあるドア開閉機構ってなんなの?鉄道嫌いすぎて一回も見たことないんだけど何が面白いのかさっぱりわからん
    a day ago
  • 高校の教科書でニューロン関係のところ全部読んだぜ。50ページぐらいあったけど細かい単語を特に覚えずに進んだら結構すぐ読み終わった。多少の収穫はあったけどまだまだ足りない。これ以上勉強しようと思ったら本当に専門的な論文とかを読まないとわからないかもしれない。
    6 days ago
  • ho"loli"ve...つまりそういうこと
    6 days ago
  • 連立方程式を解く画期的な方法を思いついたけど私が思いつくぐらいだからきっとすでに発見済み
    7 days ago
  • 音声認識、画像認識、会話、行動すべてを総合的に行えるAIを作りたい。そして将来はそのAIと結婚する
    7 days ago
    • @syoinsya 本格的にAI作りたすぎてAIじゃなくて人間のニューロンについてから勉強してる。
      7 days ago
    • @syoinsya 脳の機能としてどれが必要なのかわからん。物理的な制約でそうなっているのか、そうなることで何かメリットがあるのか
      7 days ago
    • @syoinsya 勉強してて思ったんだがニューロンの電気信号って0か1なの?てっきり0~1のアナログ信号だと思ってたんだが
      7 days ago
    • @syoinsya なんか既存のAIに納得できない。自分で新しいアルゴリズムを生み出す
      6 days ago
    • @syoinsya AIが膨大な学習データを必要とするのに対して人間は何もない状態から数年で自然といろいろなことができるのを考えるとやはり人間の脳は最高のAIだと言える。だとすれば人間の脳を再現できていないAIはごみだ。
      6 days ago
    • @syoinsya AIの勉強なんてしてる場合じゃねぇ。人間の脳についてもっと勉強しなければ。
      6 days ago
    • @syoinsya 生物のニューロンは0か1で情報処理してるというより、スパイクのタイミングとか頻度とかニューロンの位置関係が大事な気がする
      6 days ago
    • @syoinsya Spiking Neural Networkこういうのもあるらしい。(原理はしらん)
      6 days ago
    • @syoinsya あとニューラルネットワークはめっちゃ並列処理使うからGPUを使うことが多いけど、最近はニューラルネットワーク専用の回路(NPU)とかが増えてきてる。あとデジタル回路じゃなくてアナログ回路で高効率化するみたいなプロジェクトもある。1bit LLMっていう極端に量子化されたやつとかもある(-1,0,1の3値をとるので正確には1tritな希ガス)
      6 days ago
    • @syoinsya sakana aiっていう日本企業(社員はAIで業績残してるめっちゃつよつよ外国人とかだけど)は、小規模なニューラルネットワークを一つのノードと捉えてそれをまたネットワーク状にするみたいなことやってたりする。
      6 days ago
    • @jjhs3213 頻度は出力の大きさに置き換えても問題ないか。ニューロンの位置関係はどうしたらいいんだろう。自動でうまいことつながってくれるもんなんだろうか。人間って重みはどう設定してるんだろう?誤差逆伝播法は使ってないよね。
      6 days ago
    • @jjhs3213 あ、でも頻度だと継続的な刺激に対応できるのか。だとしたらやはり出力も頻度でやるべきなのかな?
      6 days ago
    • @jjhs3213 ニューラルネットワークって層が順番にあるけど、実際の人の神経細胞って逆向きのニューロンとかないんだろうか?そうじゃないと繰り返し処理とかできない気がするんだけど
      6 days ago
    • @syoinsya ループがあるから常に入出力があるのが人間の特徴だよね。だから人に問題を与えて完全な答えが出たときに完全な答えが出たという判定をするのも知能の働きで、それがないと考えてる途中の一時的な出力とかも拾うことになるから、色んな種類の学習がいりそうだね。最近はAIも高速で学習するための学習とかもあるらしいし。
      6 days ago
    • @syoinsya 少し前に自分が考えたことを把握するために逆向きニューロンは入りそうだよね。
      6 days ago
    • @syoinsya あるは
      6 days ago
    • @syoinsya なんか人間はシナプスが太くなったり細くなったりで記憶してるらしい。これは長期記憶で、短期記憶の場合はニューロンのループで同じ情報を回すことで覚えてるらしい。
      6 days ago
    • @jjhs3213 つまりA→Bという回路を太くして残るようにしてるってことか。逆に忘れるために定期的に回路を破壊していかなきゃいけないのか。インプットを層関係なくランダムにとれば自然とループ処理できるようになってくれるかな?
      6 days ago
    • @syoinsya そうかも
      6 days ago
    • @jjhs3213 シナプスの頑丈さを定義して誤差が大きいほど頑丈さを減らしうまくいったら頑丈さを増やす、頑丈さが0になったら削除ってしたら強化学習みたいな感じで最適化されたりしないかな。
      6 days ago
    • @syoinsya いいんじゃね
      5 days ago
    See all 21 replies
  • 今土曜は何するってテレビでdreamy skyのイントロ流れてた!!!!!!!!!!
    7 days ago
  • xyzuvとsurface123をそれぞれ一つの変数にまとめたらなぜか保存できなくなったんだが。長いと容量増えるとかそんな仕様あるか?
    8 days ago
    • @syoinsya なんか変数の中身からにしてもデータ多いしなんか別のとこに原因ありそうだな。特にプログラムを追加した記憶はないのだが。
      8 days ago
    • @syoinsya なんかjsonファイル確認したら消したはずのリストが残ってた。でもスクラッチ上では消えてるしどうしたらええんや
      8 days ago
    • @syoinsya 読み込みなおしたら容量は減ってたけどそれでもまだリストが残ってた。完全に消し去ることはできんのか。
      8 days ago
    • @syoinsya どうやったら治せるんだ、、、直接jsonいじるしかないのか?
      7 days ago
    • @syoinsya json見たら90%ぐらいリストで草。容量取りすぎやろ
      7 days ago
    • @syoinsya なんかわからんけどリスト表示したら消えたわ。何だったんだ、、、
      7 days ago
    • @syoinsya リスト完全に消したら200KB程度になった。そこに変数でデータ読み込んだけど2.4MB程度だった。頑張ればモデルの同時召喚も可能になるかもしれない。それと法線ベクトルによる描画切り替えに成功。あまり感じにくいが1/2程度になっているはず。しかし服とか飾り系で厚みのないものが一方向から見えないという問題があった。その辺は手作業で設定していくしかない。
      7 days ago
    See all 7 replies
  • そうか、世はエイプリルフールなのか。嘘をつく相手すらいないとこんなにも虚無なのか
    11 days ago
  • ござるのMMDも作れたが前回とプログラムを特に変えずにモデルだけ変えてそのまま出すと量産型と思われてしまいそうでいやだな。せっかく出すなら毎作品変化を与えたい。そろそろボーンを動かすときが来たようだな。一応PMXの仕様書は通学の電車で何時間も読んでいたが、MMDを触ったことがないのでどれが何をさしているのかさっぱりわからん。なのでしばらくMMDの勉強をしなければ。
    11 days ago
    • @syoinsya ボーンの仕組みが分かった後はさらにモーションデータの仕様書も読んで、、、やることが山積みすぎる
      11 days ago
    • @syoinsya ボーンファイル読み込むのも地獄だしそれを使って動かすのはもっと地獄。心が折れそう
      10 days ago
    • @syoinsya ボーンはいったんあきらめよう。それよりも軽量化がしたい。スクラッチで超低画質で再生できる程度に。
      10 days ago
    • @syoinsya 来た!軽量化案が来た!私ってば天才なのかしらん
      10 days ago
    • @syoinsya 今まで何となく四捨五入とかでやってた部分を厳密にしたことで描画するのを三角形の内部の格子点に限るようにした。線分上の格子点も片方に寄せることで完全に描画の重複がなくなった。目に見えて軽くなった感じはしないけど無駄はなくなった。
      10 days ago
    • @syoinsya そろそろあの軽量化もやるとするか、、、もともとC言語でやろうと思ってたけどめんどくさすぎるのでファイルが増えるがスクラッチで作ろう。スクラッチに読み込んだ後計算してから捨てたっていい。
      10 days ago
    • @syoinsya 法線の向きによって描画するしないを分けるんだがこれによって1/2程度の重さになるはず。これをやると内側からの描画が消えるが特に問題はあるまい
      10 days ago
    • @syoinsya スクラッチでの保存方式をリストじゃなくて変数にしてたせいでめんどいなぁ。読み込みのたびにプログラム動かすのもめんどいしC言語で作ったほうがいいなぁ。めんどいけど頑張ろう
      9 days ago
    • @syoinsya メモリの動的確保はめんどくさいので固定長にしちゃおう。
      9 days ago
    • @syoinsya もしかして配列の長さに変数代入してもいけるのか?c99対応してたらいけるっぽい。環境差とかあるんかな?//コメント使えたし多分私のとこでは対応してる。このプログラム別に私以外使わんしええか。
      8 days ago
    See all 10 replies
  • おねーちゃん、あーそーぼっ
    11 days ago
    See all 4 replies
  • 3D軽量化したいなぁ~容量の問題が解決したしプログラムの改善がしたくなってくる。何かいい軽量化方法はないだろうか。ピクセルごとに計算すると重いから面の時点である程度表示されるかの判定をしておきたい。一つは法線ベクトルの向きから反対向きの面を表示させないというもの。大体1/2程度の重さになる。しかし法線ベクトルを保存すると容量がとても増えるので今後を考えるとあまりやりたくない。面の頂点の順番を変えれば外積の向きを決定できるけど作るのがくそめんどい。
    12 days ago
    • @syoinsya 面の外積と法線ベクトルの内積が-1なら頂点の順番を入れ替えるというプログラムなのだけど地味にめんどい
      12 days ago
    • @syoinsya ポインタと配列一緒ってことは法線ベクトルが入ったファイルへのポインタで配列みたいにデータって取得できたりするのかな?
      12 days ago
  • 点Aへの距離をa,点Bへの距離をB,AとBの距離をcとした時にab=r√(c^2+1)がなんかすっごいいい感じのメタボールになった。
    12 days ago
  • イントロ始めたいけど現実世界でプログラムのタスクに追われている
    12 days ago
    • @jjhs3213 イントロエンジンさえあれば頑張れば1~2時間程度で作ることは可能っちゃ可能(イントロエンジンを作る時間は考慮しないものとする)本当に適当にやっちゃうなら音楽に合わせてカメラ揺らして文字回してエフェクト出せば何とかなる。私はその辺は完全にエンジン化してた。
      12 days ago
    • @jjhs3213 もし必要であればだけどイントロエンジンとか作ろうか?たぶん私流過ぎて使いづらいと思うけど
      12 days ago
  • 待ってリストじゃなくて変数に保存したらめっちゃ容量減るんだが!?どういう仕組みなんだ、、、変換は手間だが軽くなる
    13 days ago
    • @syoinsya !?!?!?!?まさかの2.3MBでxyzuv,surface123保存できてしまったんだが!?!?!?!?これなら実用化できるぞ!!!
      13 days ago
    • @syoinsya 変換に200万程度の繰り返しが必要な可能性があるがまぁ描画ないし多分スクラッチでもそんなに大変じゃない。原理はよくわかってないがこれなら勝つる!
      13 days ago
    • @syoinsya グラのモデルの保存と実行に成功!!!!!!!正常に作動しています!!!!!!!!!
      13 days ago
    • @syoinsya !!
      13 days ago
    • @kasukei 共有したぞ!!!https://scratch.mit.edu/projects/1154687117/
      13 days ago
    See all 5 replies
  • 頂点座標を100倍して整数のリストにしたら少し容量が減った!いいですねぇ。
    13 days ago
    • @syoinsya しかしさすがに頂点が7.5万あるとxyzuv座標だけで5MB近く行ってしまう。リストを消したプログラムが1MB程度だからxyzuvに加えてsurfaceまで一緒に読み込むとなるときついな。
      13 days ago
    • @syoinsya surfaceを差にしたら1.5MBくらい減った!現状頂点7.4万*5面11.3万*3でプログラムなしのリストだけのファイルサイズが7.7MBぐらい。結構いい線まで来たがやはりぐらのモデルを読み込むには高いハードルがある。要らない材質を消せたら軽くなるのだろうが、頂点を削除すると後ろの頂点インデックスがバグるので消せても面だけしか消せない。
      13 days ago
  • 何か味気ないと思っていたら陰をつけていないじゃないか!トーンマップを使ったやつは読み込みが大変なのでやめるが、物理的な陰なら実装できるだろう。幸運にもテクスチャの計算過程で法線ベクトルは求めているのでね、実装は簡単だよ。ただ、今日は遅いので寝るとしよう。明日への課題ができたね。
    13 days ago
    • @syoinsya 視点からの光だと違和感あるか?面倒くさいがライト置いて計算したほうがいいかもしれないな。
      13 days ago
    • @syoinsya toonmapって線形的じゃなくて極端にしたほうがおしゃれなのかな?確かに現在の線形的な陰のつけ方だと全体的に暗い気がする。
      13 days ago
  • グラのエロモデルを手に入れたがファイルサイズの問題でスクラッチでは保存できないようだ。紳士諸君には悪いけど、抜け駆けで。
    14 days ago
  • 私はロリコンだが、ロリの体だけが好きというわけじゃなくて、精神的なロリを伴ったロリが好きなんだ。
    14 days ago
  • 頂点に対して辺の数は多くなる。なぜなら頂点が平面的な図形の一部であるとき頂点から出る辺の数は2より多くなるからだ。であれば辺の中点の座標データは頂点の座標データより圧倒的に多くなるはずだ。もしこの辺の中点から頂点を求める逆変換が存在したとしたら?頂点から辺への変換でデータが必ず増大するなら辺から頂点への逆変換は必ずデータ量が減少するのではないか?おそらくデータの数が減る代わりに高精度が求められるのだろうが、だとしてもデータの数が減るというのはロマンがある。このような関数を作れないものだろうか。
    14 days ago
  • 3Dを表示するのに最低限頂点のxyz座標とテクスチャ用のuv座標、面の頂点インデックスが必要になるんだけどデータが大きすぎる。何とかして圧縮する方法ないだろうか。例えば面なら隣接する面を四角形としてみるとか。もし全ての面を四角形として見れた場合頂点インデックスの数が2/3倍にまで減る。それで面のデータが減っても今度は頂点が問題。頂点はx,y,z,u,vとデータ量がとてつもないから何とかして減らしたいがどう減らせばいいか。
    14 days ago
  • フォローアザス
    15 days ago
  • フォローありがとうございますm(_ _)m
    15 days ago
  • エロmmdモデル探すのむずすぎない?みんなどうやって探してんの?
    15 days ago
  • エロ画像のデータを入れたリストとそれを描画するプロジェクトを別々で出した場合コミュガ違反になるのだろうか?
    15 days ago
  • 夢ってのはどうしてこうも幸せな瞬間に終わってしまうんだ。もっと夢見させてくれよ。
    15 days ago
  • Load more