きしだൠ(K1S)

362.1K posts
Opens profile photo
きしだൠ(K1S)
@kis
楽しく仲よく
nowokay.hatenablog.com

きしだൠ(K1S)’s posts

鉄道模型嫁のエアガン版なんだけど、「エアガンは84万で売れたので本来なら、半分の42万は夫にあげるつもりでしたが、可哀想なので3分の1の50万は自由に使って良いから」って、人のモノを勝手に売って半分しか渡さず当然のように自分で使うのがすごい
現代プログラマが40年前くらいに転移してしまうと「え?メモリ8KB?え?画面幅40文字?え?コードは紙に。。。え?」とかになってなんも無双できなそう
「馬車馬は24時間のうち、9時間以上働かせてはならない」 「夏は華氏90度(摂氏32度)以上...では、馬の労働をやめさせ厩舎に戻さなければいけない」 「馬車馬は12ヶ月ごとに5週間以上の休暇・休養を与えられなければいけない」 馬車馬のように働きたい! umas.club/hs0653
タッチで主人公の和也が交通事故死するのが代表的だけど、昔のマンガって登場人物が交通事故で死にすぎでは?というの、昭和45年あたりの交通事故死は年間17000人くらいだったので、実際に交通事故で死にすぎだったのね。今は2600人/年くらい。
原子力発電所! (おぉーーー!!! 原子力で発電します! (おぉーーー!! 核反応で熱が出ます!(おぉーー! その熱でお湯をわかします(おぉーー? お湯をわかしたら水蒸気が出ます(おおぅ 水蒸気の力でタービンを回します(おぅ・・・ ってなった人、多いと思う。
「黒毛の和牛を放牧する際、体をシマウマのような柄にすると、アブなどの虫を振り払おうとする行動が7割も減った」 「半信半疑だったが、虫が来なくて本当に驚いた。しっぽを振る回数が明らかに普通の牛と比べて少なかった」 しかし事情を考えない動物愛護者から怒られそう
昔「ウィンカー出さない人」という表現が友達との間で流行ったときがあって、ウィンカーを出さない人は「車線変更したくてハンドル切ってるのに入れてくれない」「曲がってるのに車がつっこんでくる」みたいにまわりが悪いように見えてるんだろうなという話をしたことあるけど、それだな。
Quote
吉村英崇💹1月まで統計を勉強するよ _(: 3 」∠ )_
@Count_Down_000
私は運が悪い!という人の話を聞くと,実は再現性が高い習慣を持ってたりする 『知らないオジサンに絡まれたり,いきなり怒られる』という方と一緒の職場になって気がついたが、 友人と会うと  ●扉  ●エレベーター  ●エスカレーター など乗り口•下り口でも立ち止まって長話するのに気がついた x.com/Count_Down_000…
桜井政博さんの言葉にもあるような「やる気がないことに対して深く考えても意味がない、やればあとからついてくる」とか「やる気をやらない理由にするな」的なやつ、あれは健康な人向けのアドバイスで、慢性的にやる気がない場合はなんらか体の不調を潰していくこと考えるほうがいい気がする
小学生で最初に作ったプログラム、こんなのだったなーと最後の行を見るまでは思っていた。
Quote
EvilMog® @mog.evil.af
@Evil_Mog
Image
これ、昭和期に猛烈に働くといっても、移動やら待ち時間がすごく長くて、実際に価値を生む時間は短かったのが、オフィスオートメーション(OA化)というやつで移動や待ち時間が減って1980年代後半から過労死が話題になり始めたみたいなのに似てるのかな
Quote
NISHIO Hirokazu
@nishio
Replying to @nishio
簡単な話で、今までは「やさしい仕事」をこなしてたまに「難しい仕事」が混ざってる感じだったが、「やさしい仕事」をAIが全部やってくれたら「難しい仕事」だけが残る。これを普通の労働スケジュールで実行すると多くの人には過労になると言うことだと思う。
「賢くなるためには本を読め」みたいなのを見たときに「内容によるやろ、物語を読んでも意味ないのでは」とか思ってたのだけど、LLMで言語処理能力がほぼ等価で賢さになって、学習文書量がそこにつながってるの見ると、「なんでも本を読め」であってると思うようになった
「アジアンフラッシュ体質の人はアルデヒド類を解毒しにくいため、普段から体内のホルムアルデヒドの濃度が高めで、そのことがウイルスからの防御になっているのではないかという仮説」 まえからあった気がするけど、ちゃんと論文にまとめたのは初めてということなんだろうか
インターネットの世界で、永久とは3ヶ月のことです。長くても3年。 我々は「永久に無料」というサービスが3ヶ月で有料化したり3年で終わったりする様子をたくさん見てきた。
頭の中の一人反省会、書きだして忘れるほうがいいと思う。 あと、頭の中の会話でも言語野を刺激して実際と同様に学習されてしまうので、記憶がどんどん強くなっていってしまう。それがループするので、ちょっとでも悪いほうに歪むと、最終的にかなり怖い考えになってしまう。 書いておけば変化しない
Quote
よでぃ
@yod_blog
精神科医いわく、メンタルが疲れやすい人は「頭の中での1人喋りが多い人」なのだそう。答えのでない悩みを反すうしたり、失敗を思い出して1人反省会を開いたり。ずっとこれが普通だと思い込んでいたけれど、大半の人はそんなふうに考え事をしないらしい。もっと楽観的な人間に生まれたかった。
「福岡の利点は、東京との間に距離障壁があることに加え、その経済圏となる後背地が広い」 「大阪は全国で2番目の都市であり続けますが緩やかに衰退」 「山陰地方や高知県など、鉄道や高速道路の幹線から外れたところのほうがむしろ伸びしろ」 おもろい。24時間読めるリンク
MSXマガジン1991年7月号の2001年のコンピュータどうなるって話をする記事なんだけど、鹿野せんせい ( )すごい。タブレットの形とか的確。
Image
Image
Image
ある教授が学生の祖母が亡くなる確率を分析したところ、中間試験の前には10倍、期末試験の前には20倍、そして成績の悪い学生は50倍も祖母が亡くなりやすいという結果がでた話 好き
USスチールが古い鉄工所を閉鎖しようとしたりすると全米鉄鋼労働組合が反対して結局経営難になってたりするの見ると「アメリカは解雇しやすい」みたいなのも情報系とか目立つところの話なんではと思ったりする
4ペタバイトのデータを速く安く確実に送るにはHDDを持って飛行機、やはりデータ転送は物理が最強。
Quote
かも
@R3000C
中国AI企業、米国AI規制回避のため学習データを満載したHDDを担いでマレーシアに飛び、現地のNVIDIA GPUなレンタルサーバーを使いAIモデルをトレーニングしているとの事 tomshardware.com/tech-industry/ HDDは合計約4.8ペタバイトだそうで。 いや、別にこれネット回線で送るのでは駄目だったんだろうか?…
「下手なテック系よりもマイルドヤンキー向けビジネス」 「日本でこれまでやってきて、レッドオーシャンになったタイプのビジネスでも、そのやり方をそのままアメリカに持ってきただけで、美味しい商売になる可能性」 おもしろい blog.btrax.com/jp/round1/
ChatGPTのヤバさというのは、論理処理だと思ってたことのかなりの割合が多量の学習による確率過程で解決可能ってわかったことなんだよな。で思い返すと実際にぼくたちはだいたい勘でやってて最終的にあやしいとこだけ論理確認をしている。
いまの現象を正確にあらわすと 「APIとめたらスクレイピングが増えたけど人を切ったので対策ができずGCPで動いてたスパム検出システムも金をはらってなくて止めてるのでRate Limitしか対策がなくツイート取得制限してます」 なんだよね。
そうか。Googleの検索がChatGPTに負けてしまう理由、仕組みの話ばっかり考えていたけど、ChatGPTによってクズのようなブログが無限に生成されることでネット空間がこれまで以上に汚染されるので、もはや検索では目的が満たせなくなっていくというのもあるな
「国内でのPC自作の専門誌が亡き今、電源選びは自分の目だけが頼りになってしまった」 「ワケ分らん電源の性能を見極められる電源マイスターになれるよう、少しでもこの記事がお力添えできれば嬉しい」 この記事は電源を細かく解説してくれててありがたい。
これほんとだったら、あらゆるテキストが30KByteくらいに「100%正確に」圧縮できるということなんで、そっちのほうが大ニュースでは・・・ (つまり、そんなことはまずありえない)
Quote
Kosuke
@kosuke_agos
AIの闇が暴かれました。 LLMに入力したデータが、実はAIに完全記憶され、復元可能だったことが最新研究で証明されました。 単なる類似テキストではなく、入力した「単語そのもの」を100%正確に復元可能とのことです。 この衝撃的な事実とプライバシーへの影響を8つのポイントにまとめました。 1.
Show more
Image
Readers added context
誤解を招く可能性があるので追記します。 1. 本手法でモデルから学習データを復元することはできません。 2. LLMの出力テキストに対しては単射ではありません。つまり、出力テキストから入力テキストを復元することはできません。 論文著者によるコメント x.com/GladiaLab/stat… また、本ポストの4以降には論理の飛躍が存在します。 論文の言うembeddingとは、Transformerが出力した「各トークン位置における」ベクトルのことです。埋め込みを返すたいていのAPIは最後に単一のベクトルに集約されるため復元不可能です。ベクトルデータベースも同様です。 arxiv.org/abs/2510.15511 openai.com/ja-JP/index/ne…
docker compose書くのめんどいよねと思いつつ、ChatGPTがやってくれるよねと思ったらやってくれてヤバい
Image
まじで、タクシー乗るときはシートベルトしたほうがいい。「高速のるときだけすればいい」みたいな条件付きにしておくと絶対にやらないので、「車に乗るならシートベルト」と無条件にしたほうがいい。 「運転手を信頼してるから」とかは無意味で、運転手の責任ではない事故のほうが重篤になりがち x.com/kai_555_vab/st
This post is unavailable.
新NISAがもりあがってるけど、これってみんなが株式市場に資金投入したら株があがってもうかるよねって話で、つまり先に株を買った人にあとから株を買った人のお金がまわってきて儲かるという構造で、壮大なネズミ講なんだよな。
ホンモノのクソコード、欠けてる重要知識を持てる限りの知識で補おうとするので、想像のつかない発想は窮鼠猫を噛むとも言え、例えば文字列をソートするためにその名前でファイルを作ってファイル一覧をとってくる、みたいな工夫につまってるのが素敵で敵。ナチュラルにコード難読化もかかっている。