Microsoftは2018年8月30日(米国時間)、ホワイトボードなどに手書きでスケッチしたユーザーインタフェース(UI)画面を、AI(人工知能)を利用して、HTMLコードに変換するWebベースソリューション「Sketch2Code」を発表した。
Microsoftによれば、UIのデザインプロセスには無駄が多いという。通常は、まずアイデアレベルのスケッチをホワイトボードに描き、数人で検討してから写真に撮影し、HTMLコードを書き下す。これでは手間ばかりかかり、すぐにアイデアを形にできない。
画像認識技術とAIを組み合わせることで、手書きのスケッチを一気にHTMLに落とし込む。これがSketch2Codeの解決策だ。
Sketch2Codeは、MicrosoftがKabel、Spike Techniquesと共同で開発した。Sketch2Codeを使って手書きのスケッチをHTMLに変換するプロセスは、5段階に分かれる。
以上のプロセスを実現するためのアプリケーションワークフローは次のようになる。
Sketch2Codeは、次のような技術要素を使用している。
技術要素 | 機能 |
---|---|
Microsoft Custom Vision Model | さまざまな手書きのデザインスケッチ画像でトレーニングされており、一般的なHTML要素(テキストボックス、ボタン、画像など)に関連する情報をタグ付けできる |
Microsoft Computer Vision Service | デザイン要素内のテキストを特定する |
Azure Blob Storage | HTML生成プロセスの各ステップに関連する情報を保存する。保存情報には、元の画像、見積もった結果、レイアウト、グルーピング情報などが含まれる |
Azure Function | バックエンドエントリーポイントとして機能し、関連する全てのサービスとやりとりすることで、HTML生成プロセスを調整する |
Azure Webサイト | 新しいデザインをアップロードし、生成されたHTMLを表示できるユーザーインタフェースフロントエンド |
これらの技術要素を組み合わせたSketch2Codeのアーキテクチャは、次の通り。
MicrosoftはSketch2Codeのコード、ソリューション開発プロセス、その他の詳細をGitHubで公開している。
Copyright © ITmedia, Inc. All Rights Reserved.
HTML5+UX 記事ランキング