【生成AIニュース+】『HY-Motion 1.0』『In-Context Editing LoRA』『valiantcat LoRA』『AnyPose』『Low Poly Mode』『TwinFlow』『Gemini新機能』『Wan Alpha 2.0 Dora』『Motion Control』『Manus+Meta』『YUME 1.5』『img2dataset』『ProEdit』『UniPercept』『Modo終了のお知らせ』『球形ミニLED』『π0.6』『Stickerbox』
まいどです。
本日の生成AIニュース+テクノロジー情報です。
■HY-Motion 1.0
HY-Motion 1.0は、TencentのHunyuanチームが公開した、テキストを入力するだけで3Dキャラクターの動きを生成するAIです。
これまでのテキスト動画生成(SoraやHunyuanVideoなど)とは異なり、こちらは「3Dモデルの骨格アニメーション」を出力します。
ゲーム開発やCGアニメーション制作にそのまま使えるデータを作れるのが特徴です。
これまで「テキスト→モーション」のAIモデルは比較的小規模なものが多かったのですが、HY-Motionは10億パラメータという大規模なモデルを採用しました。
また、画像生成AI「Flux」や動画生成AI「HunyuanVideo」でも使われている最新の生成手法「Flow Matching」を採用しています。
これにより、高品質で滑らかな動きを安定して生成できます。
✨We are excited to open-source Tencent HY-Motion 1.0, a billion-parameter text-to-motion model built on the Diffusion Transformer (DiT) architecture and flow matching. Tencent HY-Motion 1.0 empowers developers and individual creators alike by transforming natural language into… pic.twitter.com/I2BNJkyEB3
— Tencent HY (@TencentHunyuan) December 30, 2025
https://arxiv.org/pdf/2512.23464
■In-Context Editing LoRA
Qwen-Image-Edit-2511 に、さらに 「お手本を見せるだけで編集方法を理解する」 という機能を追加するLoRAです。
指示を言葉で書く代わりに、ビフォー・アフターの画像を見せて『これと同じことをこの画像にもやって!』と命令できるツールです。
Image 1からImage 2への変換内容をImage 3に適用して出力
— まゆひらa (@riddi0908) December 30, 2025
DiffSynth-Studio/Qwen-Image-Edit-2511-ICEdit-LoRAhttps://t.co/hBGfJxDwzr
■valiantcat LoRA
こちらも、Qwen-Image-Edit-2511 のLoRAで、画像をきれいに拡大(アップスケール)するために特化したLoRAです。
ボケた画像や小さい画像を、AIの力で2K〜4K級の美しさに復元・拡大することが出来ます。
さて、性能に関しては、まだ試せてませんが、現状私がお勧めするアップスケール方法は、粗くピクセル数の多い画像は一旦ピクセル数を下げ、元々ピクセル数の少ない(1000ピクセル以下)画像は大体そのままで、Nanobananaproで4Kサイズにして、それ以上にしたい場合はトパーズラボのギガピクセル(photoshopでも使えます)でアップスケール、と言う方法なのですが、このNanobananapro部分をQwen-Image-Edit-2511で補えるか、と言うので使い勝手が変わりそうです。
Qwen-Edit-2511 Upscale2K LoRA has been updated. Impressive results. Sometimes there are unexpected changes, but it’s still useful for general image improvements.https://t.co/xsMAbxRYxO pic.twitter.com/l1LI82HyLa
— Wildminder (@wildmindai) December 29, 2025
■AnyPose
AnyPoseもまた、「Qwen-Image-Edit-2511」のLoRAで、お手本画像と同じポーズを、別のキャラクターにピタリと取らせるためのLoRAです。
通常のAI画像生成では「OpenPose」などの骨組みデータを使うのが一般的ですが、このAnyPoseを使えば、骨組みデータを用意する手間を省き、画像を見せるだけで直感的にポーズを指定できます。
■Low Poly Mode
Meshy AIのImage-to-3D機能の新モード「Low Poly Mode」が正式リリースされました。
Low Poly Modeは、ポリゴン数を抑えつつ、クリーンでゲーム向けのトポロジーを自動生成し、すぐにUnity/Unreal/Blenderなどにインポートして使える「game-ready」モデルを目指している物です。
Meshy AIの「ゲーム向けに最適化した低ポリ生成」として、画像から低ポリの3Dモデルをサクッと作れる新機能です。
😎 Our NEW Low Poly Mode is live in Image-to-3D!
— MeshyAI (@MeshyAI) December 29, 2025
High-fidelity is great, but performance is king.
Get clean, game-ready topology that is ready to drop straight into your project.
You asked. We delivered. pic.twitter.com/n89TXt1A9D
■TwinFlow
TwinFlowは、画像生成AIの計算時間を劇的に短縮し、「たった1回の計算(1ステップ)」で高品質な画像を生成可能にするための新しい学習フレームワークです。
通常、画像生成は、ノイズから画像を生成するまでに数十回の計算ステップを必要としますが、TwinFlowはそのプロセスを1回(または数回)に凝縮します。
■Gemini新機能
Geminiが任意のトピックで完全にインタラクティブな画像を生成できるようになったとの事です。
Geminiのチャットインターフェース(Hello, Charlyと表示され、Thinkingモード選択可能)が映り、ユーザーが画像生成をリクエスト(例: 「How do neurons work in the brain?」)し、生成された画像(神経細胞の構造図など)に対してマウスで任意の領域をクリックすると、その部分をGeminiが即座に認識し、詳細な説明・解説をテキストで返してくれる、と言う物です。
例として、神経細胞の核部分をクリックすると、「The nucleus of a cell contains the nucleus which houses the genetic material. This central processing hub becomes signals determining whether to generate an action potential...」みたいな深い解説が表示されます。
Holy sh*t.
— Charly Wargnier (@DataChaz) December 29, 2025
Gemini can now produce fully interactive images on any topic.
Such an insane resource for learning → highlight any region, and it gives you a full explanation 🤯 pic.twitter.com/XtxMBRgugR
■Wan Alpha 2.0 Dora
Wan Alpha 2.0 Doraは、透明動画(RGBA動画)生成に特化したオープンソースのT2Vモデルシリーズの最新版で、特にComfyUIユーザーの間で話題になっているものです。
ベースはWan 2.1で、そこに透明チャンネルを追加した派生版です。
DoraはWeight-Decomposed Low-Rank Adaptationの略で、LoRAの進化版として使われています。
DoRAはパラメータ効率が良く、意味論的アライメントと動画品質が向上するファインチューニング手法です。
Kijai has released Wan Alpha 2.0 Dora.
— Brie Wensleydale🧀🐭 (@SlipperyGem) December 30, 2025
Zero updates otherwise. No example workflows, commits or anything.
So it should just work?
(I suspect there could be issues; you can't just add a channel willy-nilly, so perhaps he'll update the wrapper soon...)https://t.co/b3JD4hscO0 pic.twitter.com/RRyabuBJLv
■Motion Control
Kling 2.6のMotion Control機能は、モーション転送の大幅強化版です。
「水の物理」「架空物体との絡み」「プロップ+エフェクト」の3点で破綻しなかったそうで、「1枚の画像に好きな誰かの動きを完コピさせて、背景や質感だけ自由に変えられる」という、実用性が高い機能になっています。
We put Kling 2.6 Motion Control through the ringer with three different tests 🧪
— GLIF (@heyglif) December 29, 2025
✅ Water Physics + Movement
✅ Interacting with imaginary objects
✅ Interacting with props and effects
We think this is exceptional all around!
Try Kling 2.6 Motion Control below 👇 pic.twitter.com/rDCex56viw
■Manus+Meta
汎用AIエージェントを開発している『Manus』が、『Meta』と一緒になることになった事を発表しました。
正確には、Meta社がManusを買収した模様です。
Manusは、単に会話するだけのAIではなく、ユーザーの代わりにリサーチを行ったり、複雑なPC作業を自動化したりする「実行するAI(エージェント)」の技術を持っています。
Metaはこの技術を高く評価しました。
現在Manusを使っている人は、これまで通りアプリやWebサイト、サブスクリプションを利用できます。
将来的にFacebookやInstagram、WhatsApp、あるいはスマートグラスの中で、「ユーザーの代わりに何かをしてくれるAI」を実装するために、Manusの技術を必要としているようです。
■YUME 1.5
YUME 1.5は、テキストや画像から、キーボードで操作(歩き回れる)できる3D世界をリアルタイムで生成するAIです。
上海AIラボの研究チームが開発したこのモデルは、単なる動画生成AIではなく、生成された世界の中を「WASDキー」で自由に移動できる「AIによるゲームエンジン」のような役割を果たします。
■img2dataset
img2datasetは、インターネット上の大量の画像URLリストを、機械学習のトレーニングに最適な形式の画像データセットへと、極めて高速かつ効率的に変換するためのオープンソースツールです。
特に数百万〜数十億規模の巨大なデータセットを扱うために設計されており、この分野ではデファクトスタンダードの一つとなっています。
■ProEdit
ProEditは、元の写真の雰囲気を壊さず、指示した部分だけを“完璧に”書き換えるAI編集技術です。
既存のAI編集が抱えていた「元の画像の情報が強すぎて、指示通りに色や形が変わらない」という弱点を克服しました。
静止画の編集はもちろん、最新の動画生成AI(HunyuanVideoなど)にも組み込むことができ、動画内の特定のオブジェクトだけを自然に書き換えられます。
■UniPercept
UniPerceptは、人間と同じような『感性』で、画像の美しさや品質、細かな質感を多角的に評価・理解できるAIです。
単に「何が写っているか(犬、車など)」を認識するだけでなく、「その画像がどれくらい美しいか」「画質は良いか」「質感はどうなっているか」という、感性的・技術的な側面を数値化し、言葉で説明することができます。
■Modo終了のお知らせ
3DCGソフト『Modo』の開発と販売が完全に終了するが、最後に『今後10年間無料で使える最新版』を配布しているので、消える前に今すぐダウンロードして!」 という緊急のお知らせがありました。
2025年12月末(つまり明日!) をもって、海外の公式サイト等でのダウンロード提供が終了する予定です。
Modoは自分は仕事でかなりお世話になったんですよね……。
でも、自宅PCに入れてなかったから、DLしました。
リンク先の文章通りに受け取れば「未購入者は対象外」ですが、ライセンスコードに「hostid=ANY」とあり、事実上の無料公開状態です(但し年内!)。
で、ついでにやり方ですが、下記サイトから、自分のOSに合ったインストーラーをダウンロードしてください。
あと、その下にライセンスがあるので、コレもダウンロードしてください。
解凍すると、幾つかのファイルが出てきます。
まずは、「Modo17.1v1.251515-Release.msi」で、ベースをインストールして、次に「modo171v1jpn.exe」で日本語化します。
そして、Modoを起動すると、ライセンスを求められるので、別途でダウンロードした「ModoEOL.lic」を読み込ませれば終わりです。
今後、ダウンロードもできなくなる可能性が高いので、ファイルは残しておくと良いと思います。
MODO(国内・海外・関連ソフト)がダウンロード終了予定! 最新版 17.1 は現在無料配布中!https://t.co/F74pNg37rx
— ModelingHappy (@happy_modeling) December 30, 2025
●2025年12月末をもって、すべてのModo関連製品のダウンロード提供、および Modo EOL(End Of Life)延長ライセンスの配布が完全に終了する予定と発表… pic.twitter.com/Mglj4IHkJk
■球形ミニLED
球形のミニLEDディスプレイ(小型LEDスクリーン)です。
卵のような黒い球体で、縦に溝が入っていて、ワイヤーを引っ張ると溝に沿ってパネルが花びらのように開き、中からフルカラーLED画面が展開・点灯します。
開くと球体が花開いたような形になり、動画やアニメーション、テキストなどを360度近く表示できるギミック付きのデスクトップガジェットです。
mini led screen pic.twitter.com/q4SlpVIkiF
— 𝓥𝓘𝓓𝓔𝓞 (@videomuzk) December 29, 2025
■π0.6
π0.6(パイスター・ゼロポイントシックス)は、Vision-Language-Action モデルを搭載したロボットアームです。
視覚(カメラ)+言語(指示)+行動を統合し、スクリプトされた動きではなく、自分の経験から学習します。
強化学習+人間の修正でどんどん上達し、失敗が減り、ナビゲーションや把持が安定するとの事です。
π0.6 from Physical Intelligence is NOT another robot gimmick. It’s a Vision-Language-Action model trained with real sensory feedback to learn from its own experiences, not just imitate. That’s embodied learning, not scripted motion. pic.twitter.com/Mzv8Vt774c
— Robots Digest 🤖 (@robotsdigest) December 29, 2025
■Stickerbox
Stickerboxは、AI搭載の子供向けクリエイティブ玩具です。
TikTokで爆発的にバズって即完売した話題のプロダクトで、赤い立方体の小さなデバイス(Etch A Sketchみたいなレトロ可愛いデザイン)で、声で指示するだけでAIがイラストを生成 → 即座に熱転写プリンターでステッカーを印刷してくれる玩具です。
主な対象は5歳以上の子供ですが、大人もハマるほど楽しいと評判のようです。
rly cool AI product for kids, got super viral naturally on tiktok and instantly sold out
— Guillaume (@iamgdsa) December 28, 2025
founders are ex YC and Anthropic pic.twitter.com/ucfWoLAAho
本日は以上となります。
Modo入れてたら、時間かかっちゃいましたw
みなさんも、もし入れるなら「明日まで」なので、お早めにどうぞ。
と言う訳で、年の瀬ですが、こんなところで(時間がーーー)。
過去の生成AIニュースは買い切りマガジンの「【生成AIニュース】アーカイブ」で全て見ることができます。
SDなどで使えるプロンプト集です。マガジンご購入者にももれなく付いてきます。
マガジンご購入者専用の特典「生成AIツール辞典」です。
それでは、また。



コメント