LPDDR5の過酷な環境への取り組み
メモリの仕様は、低消費電力でありながら、より高い性能を実現することが求められる。これはLPDDR(Low Power Double Data Rate)DRAMに特に当てはまるが、人工知能(AI)やエッジコンピューティング、5Gなどのユースケースでは、さらにプレッシャーがかかる。
JEDEC Solid State Technology Associationが発表したLPDDR5規格の最新アップデートであるJESD209-5Bでは、性能、電力、柔軟性の向上に注力する一環として、33%増の8533Mbpsに高速化されていると、JEDECの低電力メモリに関するJC-42.6小委員会の議長を務めるHung Vuong氏は述べている。最新のイテレーションによるメモリーの高速化と効率化は、5Gスマートフォンだけでなく、高解像度の拡張現実/仮想現実やAIを用いたエッジコンピューティングにも向けられている。モバイル機器以外のユースケースでは、適切な性能を低消費電力で提供することの価値を示しているという。それには、より多くのデータを中央のクラウドデータセンターに送るのではなく、エッジで処理することも含まれる。Vuong氏は「システムのアーキテクチャ全体が変化している。モバイル機器とエッジのコンピューティングは、消費電力を劇的に増加させることなく、より多くのメモリーを必要とする」と述べている。
ユースケースにかかわらず、メモリの速度を押し上げることはシグナルインテグリティに影響を与えるため、JESD209-5Bのアップデートでは、TX/RXイコライゼーションによるシグナルインテグリティの向上が図られている。また、LPDDRのさまざまなユースケースの環境は、シグナルインテグリティにとっても課題となる。Vuong氏は、「ユースケースに依存することは間違いない。スマートフォンであれば管理しやすいが、オートモーティブやエッジコンピューティングではより困難になる。8.5ギガビットに到達するのは、より困難になるだろう。8.5ギガビットに到達するのは難しくなり、もう少し低い性能で運用しなければならないかもしれないが、それは設計次第だ」と付け加えている。
JESD209-5Bのアップデートでは、車載用など信頼性を重視するユースケースに対応するため、「Adaptive Refresh Management」機能を採用している。この機能により、ホストやソフトウェアは、デバイスに期待する信頼性のレベルを設定し、データの信頼性の期待に応えることができる。この機能により、ホストやソフトウェアは、デバイスに期待する信頼性レベルを設定し、データ信頼性の期待に応えることができる。極端な動作条件の場合は、信頼性レベルを少し高めに調整して、多くのビットを失わないようにすることができる。 電話などのノンクリティカルな環境では、その信頼性は低くてもよいという。Micronは、LPDDR5メモリで車載用の特殊な信頼性要件を満たすことを目指している企業の1つである。同社のLPDDR5メモリは、自動緊急ブレーキシステム、車線逸脱警告、アダプティブ・クルーズ・コントロール、死角検知システムなど、安全性を評価された機能的なDRAMを使用する可能性のあるさまざまなADAS技術で使用するために設計されたメモリおよびストレージ製品の新しいポートフォリオの一部である。これらの技術では、完全な自律走行ではない車両においても、極めて低いレイテンシーと信頼性が求められる。ASILは、ISO 26262で定義されたリスク分類スキームであり、より多くの電子機器が車両に組み込まれ、車両を大幅に制御するシステムが実現するにつれ、ASIL分類のスペクトラムに準拠することがより頻繁に求められるようになっている。
脳研究に貢献する新しいニューロピクセル
脳を研究するということは、そのための技術を設計するということでもある。ここ数十年で最も成功した脳科学機器のひとつが、ニューロプローブ(神経プローブ)である。脳の活動を記録することで、ニューロンがどのように複雑な回路でコミュニケーションをとり、情報を処理し、行動を制御しているかを知ることができる。脳の働きを理解し、より高度なブレイン・マシン・インターフェースを開発するためには、最終的に大規模な記録が必要となる。
このデバイスの記録部位(電極)の数は、最初は1本のワイヤーの先端に1つだけだったが、シリコンのマイクロ・ナノファブリケーション技術の導入により、数十個に増加した。最初のニューロピクセル・プローブは、埋め込み部分であるシャンクに1000個近い電極を備えていたため、神経科学界にギアチェンジをもたらした。新世代のニューロピクセル(ニューロピクセル2.0)では、4つのシャンクに5,000個以上の電極を配置し、これまでにない解像度で脳活動をマッピングすることが可能となった。
数千個の電極をどのように接続するか:このような高密度デバイスの課題は、シャンクの全幅をできるだけ狭くしながら、各電極を外部記録システムに接続することである。そのため、電極の数は、シャンク内に収容できるワイヤーの数によって制限される。埋め込み部分の幅を大きくすると、神経細胞が損傷したり、信号の質に影響したりする。この問題を解決するために、最先端のCMOS技術を用いてプローブ本体にエレクトロニクスを集積し、これにより電極の多重化が可能となり、複数の記録部位からの信号を同じケーブルで伝送することができるようになった。Neuropixels 2.0では、70×24µm2のシャンクに1,280個の切り替え可能な電極(ピクセル)を配置し(4シャンクでは5,120個)、384本の相互接続を行っている。電極は、12µm×12µmの大きさで、アナログスイッチと1ビットのメモリーセルを内蔵している。アナログスイッチは、384個の電極のうち、どのセットに同時に記録するかを制御する。このアーキテクチャにより、シャンクに沿った画素の擬似ランダムな組み合わせを選択することが可能になり、さらに、4つのシャンクは、脳の表面に垂直な1×10mmの平面から高密度に活動をサンプリングすることができるようになる。このような高いカバレッジで、複数の脳領域や回路にまたがる神経活動を同時に記録することは、神経科学の世界に大きな変化をもたらすことは間違いない。ベースエレクトロニクス:シャンク部は、130nmのCMOSプロセス技術を用いて、非埋め込み部であるベース部とモノリシックに統合されており、ベース部(8.67×2.2mm2)には、多重化、増幅、デジタル化、電源管理などのエレクトロニクスが搭載されている。神経細胞の信号は、外部機器ではなくプローブベース上で前処理され、プローブ外への信号伝送時に信号の劣化が生じないようになっている。電圧信号は非常に小さいため、増幅する必要がある。増幅されたアナログ信号はデジタル化され、ケーブル内のノイズや干渉の影響を受けないようにする。全周波数帯域を記録できるように、高解像度の12ビットADC(アナログ・デジタル・コンバーター)がベースに組み込まれている。最後に、電源電圧と基準電圧を生成するための「パワーマネジメント」ブロックをプローブに搭載した。脳組織の加熱を最小限に抑えるため、ベースとなる電子機器の消費電力は36.5mWと非常に低く抑えられている。同時に、機能をチップに移すことで、プローブ以外の部品を最小限に抑えてシステムを最適化し、システム全体の小型・軽量化を実現している。
全チャンネルのデジタル出力は、長さ4cmのフレキシブルケーブルでインターフェースボード(またはヘッドステージ)に送られ、PXIe(PCI(Peripheral Component Interconnect)eXtension for instrumentation)カードに接続されてデータを取得し、コンピューターに送る。ニューロピクセル2.0のインターフェースボードは、10×14.3mmと小型化されている。さらにシステムをコンパクトにするために、1つのヘッドステージに2つのプローブを装着することが可能で、合計重量はわずか1.1gである。2本のフォーシャンクを使用した場合、10,240個の記録電極を利用することができます。さらに、新しい埋め込みハードウェアにより、埋め込んだプローブの回収と再利用が可能になった。
ムーアの法則を10年延ばすEUV
ASMLは、ムーアの法則の寿命を少なくとも10年は延ばすことができる新しい極端紫外線(EUV)リソグラフィ装置の導入を計画していると、世界で唯一のEUVリソグラフィ装置のサプライヤーであるASMLの幹部は述べている。
同社は、2023年前半から、EUVのNA(Numerical Aperture)を従来の0.33NAから0.55NAに引き上げた装置を顧客に提供する予定だという。EE Timesのインタビューに答えたASML副社長のTeun van Gogh氏は、この新しい装置が、チップメーカーが現在の閾値(2nm)をはるかに超えたプロセスノードに到達するために、少なくともあと10年は役立つと考えていると述べている。
同社は、この新技術を導入して生産を拡大するチップメーカーが、当初は0.55NAを使ってコストを抑えたEUVのシングル露光を行い、より成熟したノードではマルチパターンの0.33NAと旧式のリソグラフィー技術を使用することを想定している。 0.55NAのシングル露光技術が限界に達する6年後頃には、チップメーカーはトランジスタ密度の高い最先端ノードに到達するために、再びマルチパターニングに頼るようになるだろうと予測している。オランダのASMLは、世界で唯一のEUV装置のサプライヤーである。2010年、ASMLはEUV装置の最初のプロトタイプをアジアの非公開顧客に出荷した。現在の半導体生産は、EUVの「持てる者」であるTaiwan Semiconductor Manufacturing Co. (TSMC)、SamsungやIntelのようなEUVの「持つ者」と、Apple、MediaTek、Qualcommなどの顧客向けに高度なチップを製造する「持たざる者」に分かれている。EUVの「持たざる者」であるチップメーカーは、数年前に最先端ノードへの参入を断念し、それに伴う数十億ドルの設備投資をやめて、プロセス縮小の恩恵をほとんど受けられないレガシーな生産ラインや製品からの利益向上に注力している。
EUVの「持たざる者」には、Semiconductor Manufacturing International Corp.(SMIC)のような中国企業が含まれている。SMICのような中国企業は、昨年、米国政府がEUVツールを購入するためのエンティティリストに掲載したことで、EUVツールの購入を断念したが、これは日米間の技術競争が激化しているためである。ASMLとTSMCを担当するSusquehanna International Groupのアナリスト、Mehdi Hosseini氏によると、中国企業はASMLの最新のEUVツールを購入するために米国政府の許可を得ることはできないだろうという。
中国以外では、Intel、TSMC、Samsungのみがロジック製造にEUVを使用することができる。Samsung、SK Hynix、Micronは、DRAM用途にEUVを使用するとHosseini氏は述べている。
ASMLは、同社のEUV装置の中国への輸出規制については「コントロールできない」とし、事業を行っている国の法律や規制を遵守するとしている。
冷戦時代に始まった国際的なWassenaar Arrangementでは、商業目的と軍事目的の「二重使用」が可能な先端技術の輸出を規制している。米国はこのWassenaar輸出規制を利用して、近年の中国の半導体進出を鈍らせてきた。
データセンターの電力を供給するGaNとMCU
Texas Instrumentsは、窒化ガリウム(GaN)技術とC2000リアルタイム・マイクロコントローラーに、Delta Electronicsのパワーエレクトロニクス技術を組み合わせ、データセンター用のエンタープライズ・サーバー電源ユニット(PSU)を開発したと発表した。
TIによると、この組み合わせにより、最大99.2%の効率化と全体的な電力コストの削減を実現できるという。TIのGaNテクノロジー・プロダクトライン・マネージャーであるSteve Tom氏は、同社のGaNパワーテクノロジーとC2000 MCUを組み合わせることで、タイムクリティカルな処理、精密な制御、ソフトウェアや周辺機器の拡張性を高めることができると述べている。
「これらのMCUは、さまざまな電源設計トポロジーと高いスイッチング周波数をサポートし、設計の電力効率を最大限に高めることで、サーバー用PSU向けのGaNベースのパワーソリューションの可能性を完全に引き出す。この組み合わせは、データセンター用途に加えて、自動車用途、特に電気自動車のオンボード充電にも使用できる。 EVの電力変換にも高効率と電力密度が求められる。この技術の統合により、自動車用途では、より強力なシステム性能を実現できる」と主張している。GaNトランジスタは、データセンターの電源や通信用のスイッチングラックなど、少なくとも2つの用途で、シリコン系のスーパージャンクションデバイスを上回る性能を発揮する。ワイドバンドギャップ材料固有の利点を生かしてシステムを構築すれば、サプライヤーとシステムユーザーは、システムのコストと運用の両面でメリットを得ることができる。Energy Innovationによると、1%改善すると、データセンター全体で1メガワットの削減になる。データセンターへの電力供給 :データセンターは、ユビキタス情報サービスを支えるデータを蓄積・分析し、送信するインターネットの頭脳ともいえる存在である。ITインフラで使用される電力は、最終的に熱に変換され、冷却装置によってデータセンターから取り除かなければならない。世界最大級のデータセンターでは、数万台のサーバーなどが設置されており、100メガワット以上の電力を必要とする。これは、米国エネルギー省によると、米国の約8万世帯分の電力に相当する。インターネット利用者数の増加に伴い、データセンターサービスの需要も増加しており、データセンターのエネルギー使用に関する懸念が高まっている。そのため、エネルギー効率を向上させることが重要であり、そのためにはサーバーの仮想化などの措置が必要となる。仮想化によってエネルギー消費量が大幅に削減され、1台のサーバーで複数のアプリケーションを動作させることができるようになった。また、データセンターからのCO2排出量の増加も懸念される。これは、コンピューティングサービスに対する需要の高まりが、これまでデータセンターのエネルギー使用量のバランスを保ってきた効率化を上回ってしまうためである。このバランスを維持するためには、今後10年間のエネルギー使用量の急激な増加を抑制するために必要な、次世代のコンピューティング、ストレージ、および冷却技術への投資が必要となる。このような背景から、TIはDelta Electronicsと提携し、同社が数十年にわたって取り組んできたGaN技術を活用して、C2000 MCUを開発した。データセンターの電源アプリケーション開発のために、TIの半導体製造プロセスは、GaN技術をシリコンやIC上に製造することになっており、TIは、GaNのエピタキシーと組み立て、そしてテストを自社で行うことで、機器の冗長性に対応している。
トンネルの先に光を見出だすEVメーカー
今年の電気自動車の販売台数は500万台に達すると予測されており、チップの供給不足が続く中、半導体への需要はさらに高まっている。
IDTechExの予測によると、自動車の電動化に伴い、半導体の需要は今年74億ドル増加すると見込まれているという。クラウドコンピューティングやスマートフォンなど、他のパンデミックの影響を受ける分野との競争で、ほとんどの自動車メーカーは生産削減を余儀なくされている。
半導体の需要が止まらず、ファウンドリが生産を増やせないことで、EVの主要部品の納入がさらに遅れている。例えば、IDTechExによると、マイクロコントローラーのリードタイムは44週間にも及んでいる。
幸いなことに、電気自動車のパワートレインの約3分の1を占めるパワーエレクトロニクスについては、供給状況はそれほど深刻ではない。
今週、電気自動車とバッテリーの生産に11.4ドルの投資を行うことを発表したFordは、4月にICの供給障害のために今年の販売台数が約110万台減少すると発表した。
トヨタ自動車は、パンデミックの初期にチップの供給体制を強化したが、その後、ハイブリッド車からすべての電気自動車への移行を目指しているにもかかわらず、自動車の生産台数を減らしている。
一方、電気自動車のトップメーカーであるTeslaは、IDTechExによると、新しいマイクロコントローラーの設計とMCUの代替サプライヤーにより、チップ不足をほぼ乗り切ったとしている。
さらに、中国の小型シティカーから高級セダンやSUVまでをターゲットにした新興EVメーカーも増えている。前者は数量の拡大を目指しており、現在のチップ不足に拍車をかけている。また後者は、規模は小さいが利益率の高いステータスシンボル的な市場を対象としている。
その中には、Lucid Groupも含まれている。Lucid Groupは今週、Lucid Airセダンを生産するアリゾナ州の「先進的な生産工場」をオープンした。同社は、13,000台以上の注文を受けており、10月には納入を開始する予定だ。また、Lucid Airは112kWhのバッテリーパックの1回の充電で520マイルの航続距離を実現するとしている。
このような事例から、市場調査会社は、自動車メーカーが供給体制の変化に対応しながらも、EV市場は引き続き成長すると予測している。IDTechExは、Fordが2021年の第2四半期をICサプライチェーンの混乱の「谷」と見ていることを指摘し、この見方を支持している。
しかし、2022年に徐々に改善していくかどうかは、ファウンドリの生産能力拡大よりもホームオフィス分野のチップ需要の減少に大きく左右されると分析している。
コンピュート密度の課題を解決するにはチップレット戦略が鍵となる
データセンターのワークロードは急速に進化しており、コンピュート、メモリ、IOの能力をさまざまに組み合わせた高いコンピュート密度が求められている。これに伴い、アーキテクチャーは、一枚岩のソリューションから、特定のアプリケーションに合わせて独立して拡張可能な分解機能へと移行している。
必要とされる計算密度を実現するためには、最新のプロセスノードを採用することが不可欠である。しかし、従来のモノリシックなSoCでは、コストの上昇や市場投入までの時間がかかるなど、経済性の面で不利になる。このジレンマに対処するために、チップレットベースの統合戦略が登場した。この戦略では、コンピュートは最先端のプロセスノードの恩恵を受け、アプリケーション固有のメモリーとIOの統合は成熟した後続のプロセスノードに置くことができる。
さらに、ソリューションを組み合わせ可能なパーツに分解することで、パートナー企業が独自に最適化されたチップレットを開発し、それを異種混合して組み合わせることで、高度に差別化されたコスト効率の高い様々なソリューションを実現するエコシステムを構築することができる。
チップレットのアプローチは、バランスのとれたトレードオフを実現しており、モノリシックなアプローチよりも、コンポーザブルなチップレット機能のセットから多くのドメイン固有のソリューションを提供することができる。コンピュートチップレットは、最高の性能、消費電力、面積を実現するために、最先端のプロセスノードを迅速に採用する傾向がある。逆に、メモリやIOの機能は、ミックスドシグナルの機能を利用しているため、最新ノードの恩恵を受けにくく、検証サイクルも長くなるため、成熟した後続プロセスノード上でチップレットを統合する方が有利である。
メモリやIOの構成は一般的にワークロードごとに異なるため、よりコスト効率の高いノードでチップレットを統合することは、価値の高い差別化されたSoC開発になる傾向がある。一方、コンピュートチップレットはより一般的なものとなり、最先端ノードの高いコストをより幅広いアプリケーションで償却することができ、より高い資産管理の機会を得ることができる。さらに、システムインテグレーターは、チップレットを組み合わせることで、新しいデザインの開発に高いコストをかけることなく、幅広いアプリケーションや製品SKUに対応することができる。
典型的な高性能CPUの設計では、これらの利点により、1製品あたり少なくとも2,000万ドルのコスト削減が可能となり、市場投入までの期間が約2年短縮される。コスト削減の効果は、IPライセンス、マスクセット、EDAツール、開発工数の削減によるものである。また、市場投入までの期間が短縮されるのは、統合、検証、製品化の複雑さが、モノリシックなアプローチに比べて大幅に軽減されることによる。最後に、複数のチップレットを統合するために必要なパッケージング技術は、すでに主流となっており、よりコスト効率の高い製品を市場に投入するためのリスクを大きく増やすことはない。
マルチベンダチップレットアプローチが主流になるためには、2つのことが必要である。1つは、チップレット間のオープンで標準化されたD2D(Die-to-Die)インターフェースが必要であること、もう1つは、異なるアプリケーションに対応するために容易に統合できる機能別チップレットのエコシステムである。現在、業界のリーダーたちは、この2つの要素が近い将来に実現されるよう、リソースと努力を注いでいる。
Open Compute Project の ODSA(Open Domain-Specific Architecture)ワーキング・グループは、D2D の標準化に適したグループであり、D2D をデータ・センターや 5G ネットワーク・エッジで効果的に利用できるようにする。複数のベンダーが、携帯性に優れた D2D 用の Bunch-of-Wires(BoW)PHY 技術を提供し、チップレット間の電気的な物理層を実現する。Ventanaは、PHY層の上に軽量のリンク層を設け、チップレットのインターフェイスで標準的な相互接続プロトコルを効率的に伝送する。
ソリューションを分解してチップレット上の汎用的なコンポーザブル・ファンクションにすることのメリットは、パフォーマンスとパワー・コストのトレードオフを実現するためのD2Dインターフェースの属性に大きく依存する。BoWは、非常に高い帯域幅、低遅延、低消費電力を低コストで提供できるため、魅力的なソリューションであると考えられ、さらに、回路の複雑さが非常に少ないため、複数の顧客や製品ラインに広く採用することができる。初期のインターフェース構成では、最大128GB/sの生帯域幅のスループット、8ns以下のレイテンシー、0.5pJ/bit以下のアクティブ電力消費を実現することを目標としている。さらに、標準化されたD2Dチップレット・インターフェースを中心に、パートナーによる豊かなエコシステムが形成されおり、いくつかのベンダーは、幅広いソリューション市場をサポートするために、様々な高速シリアルおよび処理フレームワークに取り組んでいる。開発中のパートナーエコシステムは、データセンターに加えて、5Gインフラ、エッジコンピュート、オートモーティブ、エンドクライアントデバイスなど、その他の高成長市場セグメントにも注力している。
ARディスプレイを追加してADASの安全性を高める
自律走行車の時代が近づくにつれ、安全性と正確性が何よりも重要になってくる。失敗は許されない。AVの安全性に問題が生じれば、AVの導入時期が遅れることになり、それは業界の誰もが望んでいない。
AVが日常生活の一部となり、安全性を向上させるためには、安全性と運転の質を向上させる次世代のフロントガラス用ディスプレイ技術であるAR HUD(拡張現実型ヘッドアップディスプレイ)をはじめとする多くのキーテクノロジーが必要となる。
AR HUDは、センサーでリアルタイムに収集したデータをもとに、ナビゲーションや各種ADAS(先進運転支援システム)の警告など、道路上で必要な情報をフロントガラスに投影する。この高度なHUD技術により、ドライバーは道路から目を離さず、道路上の物体とのリアルタイムなインタラクションを通じて周囲の状況を正確に認識することができる。多くのOEMメーカーは、AR HUDの利点に注目し始めており、この技術は、数年以内に自動車を安全に運転するための基本的な要件になると予想されている。
現在のレガシーなHUDシステムでは、速度や回転数など、車両の走行状況に関する限られた情報しか得られない。また、表示面積も小さいため、実際の運転時にドライバーの視界を十分に確保することが困難である。ナビゲーション情報は、順次表示される矢印で車両の走行ルートを案内するため、ドライバーが混乱してしまう可能性もある。
次世代HUDでは、従来のHUDとは異なり、ドライバーの視界と連動したCGを配置することで、重要な情報を実際の道路上に直接重ねて表示することができ、さらに、ドライバーの視界が自然に広がることで、状況認識力が向上する。AR-HUDが提供する追加の有用な情報の例としては、以下のようなものがある。
・ 前方車両との距離
・ 前方の歩行者の有無とその距離
・ 目的地までの道順とルート
・ 現在走行中の道路の制限速度
AR-HUDシステムは、道路環境からの膨大なデータをリアルタイムに処理し、ドライバーが直感的に認識できる情報を映し出す必要がある。そのためには、取得したデータを迅速に分析し、実世界のオブジェクトと正確に統合する複雑なコンピューティング技術が必要である。このソリューションは、正確な認識によるメリットをドライバーにもたらし、利便性に加えて、より安全な運転を可能にする。
こうした技術的なメリットは、ADASアラートとの連携でより明確になる。現在、多くのADASアラートは、主にシンボルマークの点滅や音による警告で示されているが、この方法では、ドライバーはさまざまなADASアラートの信号を事前に学習し、実際の状況で認識・解釈する必要がある。これは、道路上の危険な状況を回避するために数秒以内に状況認識と判断をしなければならない実走行において、不要な遅延を引き起こす可能性がある。
しかし、AR HUDシステムは、ドライバーの視線の先に直接表示することで脅威を識別することができる。また、現実の物体にARグラフィックスを重ねて表示することで、ドライバーは脅威を即座に認識し、道路上の障害物に対してブレーキをかけるなど、適切な行動を素早く取ることができる。このようにしてADASの警告を表示することで、特に夜間や視界の悪い場所でのドライバーの反応速度や状況認識能力が大幅に向上する。
我々の運転環境は、より速く、より複雑になってきており、今やAR HUDは、自動車メーカーの技術力や車の高級感をアピールするためだけのオプションではなくなっている。車や歩行者の増加、そして我々の複雑なライフスタイルによって、ドライバーは道路上のより多くの物体や情報を認識し、より予測不可能な状況に対応しなければならなくなっている。
AR-HUDが強力な機能を発揮するためには、フロントガラス全体に投影する必要がある。ADASの警告や前方の状況に応じたナビゲーション情報をドライバーに完璧に提供するためには、ドライバーの視界全体を占める大きなHUDが必要となる。AR HUDは、近い将来、我々の日常生活に欠かせない乗り物となり、現在はもちろん、自律走行車が当たり前になる未来においても、ドライバーや歩行者の安全確保に大きく貢献することだろう。
規格開発は長い目で見ることが必要
これまで標準規格は、技術の発展や進化に合わせて進化してきたかもしれなが、変化のスピードが非常に速くなっている現在、標準化団体はより未来志向の視点を持つことが重要である。
現代の技術進歩の比較的短い歴史を振り返ると、何十年にもわたって繰り返されてきたテーマがある。それは、グローバルスタンダードの重要な役割であり、むしろ適用可能なスタンダードがないことによる悪影響が、ある種の必須技術の進歩を妨げてきたということである。1880年代に起こったエジソンとテスラの「電流戦争」は、過去にも現在にも技術者の心を捉えて離さない事件である。
規格の細分化は、多くの人の生活に影響を与え、現在も影響を与えている例として、各国で使用されているソケット/メインの電圧があり、アメリカ、イギリス、フランス、オーストラリアのソケットはそれぞれ異なるため、旅行者はアダプターを携帯する必要がある。
初期の移動体通信分野では、しばらくの間、同じように規格が分断されていた。初期のアナログ携帯電話は、国レベルですら使えなかったのである。この問題は、デジタル通信へと技術が進化することで一部解決されたが、デジタル端末であっても海外では使用できなかった。その理由は、地域ごとに採用されている周波数帯やRFプロトコルが異なるからである。
現在では、複数の技術を組み合わせることで、国際的に通用する携帯電話機や各種機器が登場しており、それを可能にしているのは、メーカーや通信事業者が開発・共有しているグローバルに通用するモバイル規格の策定である。歴史を振り返り、現在の状況を把握することで、将来の技術革新の普及を妨げず、その恩恵をグローバルに共有するための重要な教訓を得ることができる。
世界中で簡単かつ確実に動作させたいのであれば、明確に定義された単一の規格を確立する必要がある。その規格に準拠して作られた機器は、利便性や性能が格段に向上するため、ユーザーにとって魅力的なものとなる。
また、メーカーにとっても、スケールメリットが大きくなる。同一製品でより多くの市場に対応できるため、技術革新や製造コストの削減につながり、さらに、グローバルスタンダードは、新機能の導入を容易にする。エンジニアリングチームは、自社製品に標準化された機能を実装し、それを複数の市場や顧客に展開することができる。
独自規格が成功し、その価値が証明されたこともあるが、世界共通の非独自規格を策定することの方がはるかに優れたアプローチであることは明らかである。これにより、より広範なコミュニティからの賛同を得ることができ、あらゆる規模のベンダーが提供するソリューション間の相互運用性を実現することができる。また、標準規格が整備されることで、ユーザーの信頼を得ることができ、データのプライバシーや安全性などへの不安をある程度軽減することができる。
モノのインターネット(IoT)は、世界的に適用可能で、膨大な多様性と数の接続があるため、グローバルに開発された標準規格が役立つ分野の一つである。例えば、スマートシティサービスや都市間接続をサポートするために、様々なM2M(Machine-to-Machine)プラットフォームが既に導入されている。現在、地方自治体は、特定のサービスプロバイダーから1つのソリューションを調達し、別の機能に対応するために全く別のプロバイダーから別のソリューションを調達する傾向にある。
このようなサイロ化は、重要なコンテクストデータが孤立した利用領域に留まるため、実現できる範囲を狭めてしまい、また、プラットフォーム間でデータを共有する機会もない。しかし、M2Mプラットフォーム間のコミュニケーションが強化されれば、他の機能も含めることができ、多くの新しい可能性を追求することができる。このように、相互運用性を確保するための標準規格の策定やフレームワークの構築は、複数のプラットフォームに適用し、都市や国家間で共有できる新たなIoTサービスの創造性を育む上で、非常に魅力的なものである。
ETSIは、1980年代後半に設立されて以来、ICT領域全体のエンジニアリングの進歩を支え、欧州をはじめとする世界各地に影響を与えてきた。ETSIは、規制要件を満たし、政府の政策を尊重するために、デジタル変革の基盤となる標準ベースの基盤を提供し続けている。デジタルトランスフォーメーションの加速に伴い、ETSIが採用している手法は、より未来を意識したものへと強化されている。
MRAMの制約を克服するスピン軌道トルク
次世代の内蔵型MRAM(磁気抵抗効果を利用したRAM)は、材料の順番を変えるだけで実現できるかもしれない。
スピン軌道トルク(SOT)MRAMは、スピン伝達トルク(STT)MRAMが現在直面している「トリレンマ」を解決するものであると、AntaiosのCEOであるJean-Pierre Nozières氏はEE Timesのインタビューで述べている。書き込みに必要なデバイスのトンネル酸化物にかかる電圧が大きいため、データ保持、書き込み耐久性、書き込み速度の間には常にトレードオフの関係がある。つまり、STT MRAMはほぼ完成の域に達しているとはいえ、高速性と無限の耐久性、そして許容できるデータ保持力の組み合わせを必要とする高速RAMアプリケーションの要求を満たすには、まだ制約があるということである。
2017年に設立されたAntaiosは、2019年に第3世代のMRAMの開発を強化し始めた。その際、製造プロセスに大きな変更を加えることなく、STT-MRAMや他の前世代の技術の制約を克服することに大きな期待が寄せられている、スピントロニクス効果の一つであるSOTを使用した。SOT-MRAMは、書き込み時にデバイスのトンネル酸化膜にかかる高電圧を完全に排除することでトリレンマを解決し、本質的に無制限の耐久性を実現している。現在の技術は、組み込みフラッシュの代替品に限られており、保持力、スピード、耐久性の間にトリレンマがある。この制約を取り除くことで、前世代では対応できなかった高速用途のアプリケーションにおいて、フラッシュやSRAMなどの現存するメモリを置き換える道が開けるという。
SOT-MRAMのもうひとつの利点は、SRAMの課題であるデータ保持用のリーク電流がないことと、電離放射線によるデータの乱れがないことであるとNozières氏は言う。また、SOT-MRAMは高速書き込みが可能なため、STT-MRAMと比較して書き込みエネルギーを大幅に削減することができ、システムレベルのパフォーマンスという点で、大きな飛躍が期待できるという。
SOT-MRAMの初期の応用例としては、CPUの最終レベルキャッシュがある。これは、従来の組み込みアーキテクチャの一部として使用される場合と、非常に大規模なキャッシュを持つハイエンドCPU向けに、異なるプロセスのウェハからダイ・オン・ダイで製造する代替3Dアセンブリ技術として使用される場合があり、いずれも、現在開発中のSOT-MRAMのプロセスフローと完全に互換性があるとNozières氏は述べている。
SOT-MRAMのもう一つの有望な使用例は、エッジデバイスの人工知能(AI)だという。オンチップのSOT-MRAMは、速度と耐久性が重要となるキャッシュ/ワーキングメモリのように動作し、消費電力も大幅に削減できる。
マイクロコントローラのアーキテクチャにも、SOT-MRAMを使用することができる。現在、フラッシュの “コントロールストア “ブロックとSRAMブロックが別々のアーキテクチャになっているが、これは本棚の本を追加するために常に入れ替えているようなものである。Nozières氏は、「本棚の本を入れ替えているだけなので、多くの時間とエネルギーを必要とします。それがマイコンの中で起きていることなのである」と述べ、SOT-MRAMは、組み込みフラッシュのようなデータ保持と、メインメモリの読み書きサイクルタイムを10ns以上の速さで同時に実現できるため、電力、性能、コストを大幅に改善した単一のXIP(Execute-in-place)ブロックを実現することができるとしている。
SOT-MRAMにはまだ長い道のりがあるが、Antaiosのアプローチは、すべてを自社で行うのではなく、製造側を含めた関係を築くことだという。昨年、フランスのベンチャーキャピタル「Innovacom」と「Sofimac Innovation」を中心に、シリコンバレーに拠点を置くApplied Materialsのベンチャーキャピタル「Applied Ventures, LLC」を加えた3社から投資を受けた。Nozières氏は、同社がMRAMを取り巻くエコシステムを活用しようとしていると述べ、今は亡きスピンメモリが製造も含めてすべてをやろうとして多額の資金を費やしたことを指摘した。
現在のSTT MRAMは、SOTと同様にスピン転移効果を利用しているが、電流をスピン偏極させるための磁性体層は必要ないという。スピンの供給源は、スピン軌道相互作用を介したSOT層材料の格子だけである。このため、SOTはすでに大手ファウンドリーで生産されている今日のMRAM技術を簡単に拡張することができ、新しいツールや新材料を導入するために何億ドルもの費用を市場に「伝道」する必要はない、とNozières氏は述べ、STT-MRAMとSOT-MRAMを、材料の順番が違うだけの「BLT」に例えている。しかし、単純な例えにもかかわらず、SOT-MRAMはまだ初期段階にあり、SOT-MRAMが商業的に利用できるようになるのは2024年頃になるのではないかと予想されている。
SolarWinds:クラウドセキュリティが弱点に
昨年12月、FireEyeがSolarWindsの大規模なデータ流出事件を報告した際、クラウド接続がすでに行われていなければ、これらの流出事件が発生しなかったことはすぐにはわからなかった。
SolarWindsのハッキングは、クラウドのサイバーセキュリティホールを利用して、リモートソフトウェアアップデートプロセスを乗っ取り、また、クラウドの技術と導入における根本的な欠陥も露呈した。
5月に発表されたFugueとSonatypeの調査「State of Cloud Security 2021」によると、約3分の1の企業が、前年に深刻なクラウドセキュリティやデータ侵害、データ漏洩を経験しているという。この調査によると、クラウドの設定ミスが引き続きクラウド侵害の主な原因となっている。調査対象となった300人のクラウド専門家のうち、83%が、自分の組織が誤った設定による大規模なデータ漏洩のリスクにさらされていると回答した。
このようなリスクの多くは、企業のクラウド・インフラ環境が「広大で複雑」であることや、複数のAPIやインターフェイスで構成され、ガバナンスを必要とする動的な性質を持っていることに起因している。また、設定ミスの原因としては、適切な管理・監督が行われていないことや、セキュリティやポリシーへの不注意などが挙げられている。
クラウド共有責任モデルでは、設定ミスは通常、クラウド事業者ではなく顧客の責任とされている。Aqua Securityが数百社の顧客の1年分のクラウド設定データを調査したところ、90%の企業がクラウドの設定ミスによりセキュリティ侵害を受けていることがわかった。また、すべての設定ミスを修正した企業は1%に満たず、大企業では既知の問題を修正するのに平均88日を要し、攻撃者がその問題を利用できる期間が長くなっていた。
クラウドへの移行:Verizonが発表したデータ漏洩に関する最新の年次報告書によると、現在、サイバーセキュリティインシデントのほとんどがクラウドインフラに関連しており、社内のクラウド資産ではなく社外のクラウド資産に関連するサイバーセキュリティインシデントが増えていることがわかった。Thalesの調査によると、企業の半数が40%以上のデータを外部のクラウド環境に保存しているが、機密データを暗号化している企業はほとんどないということが一つの理由として考えられる。
Vectra AIが8月にAmazon Web Services(AWS)のユーザーを対象に行った調査では、100%が過去1年以内にパブリッククラウド環境で少なくとも1件のセキュリティインシデントに見舞われていることがわかった。7月にTripwireが発表したレポートでは、回答者の98%が「企業の大半はマルチクラウド環境で運用しているが、ベンダーが多様化するとセキュリティ上の課題が大きくなる」と述べている。ほとんどの回答者は、責任共有モデルでは、誰が何をするのかが不明確になることが多いと述べ、また、クラウドプロバイダーにセキュリティへの取り組みを強化するよう求めている。
ほぼすべてのクラウドに関する調査で、パブリック・クラウドやハイブリッド・クラウドの導入が急速に進んでおり、セキュリティの維持が困難になっていることが確認されている。これまで述べてきたように、パンデミックの影響で、このラッシュは加速している。
また、急速な導入により、悪名高いMicrosoft Exchange Server(MES)への攻撃も増加しています。Palo Alto Networksのリサーチャーが今年初めに観測したMESの暴露事例では、79%がクラウド上で発生している。研究者は、「クラウドは本質的にインターネットに接続されており、一般に公開されているクラウドを通常のITプロセスの外で立ち上げることは驚くほど簡単である。つまり、不十分なデフォルトのセキュリティ設定が使用されていることが多く、忘れ去られている可能性もある」とブログに書いている。クラウドのセキュリティ問題の中には、特定のクラウドプラットフォームやその他のソフトウェアの脆弱性に起因するものがある。SolarWindsのハッキングに関するWikipediaの記事では、Microsoftが自社ソフトウェアの脆弱性について忘れてもらいたいことが書かれている。記事では、攻撃者が偽造したIDトークンを使って、マイクロソフトの認証システムを欺いたことも指摘している。