協働ロボット(コボット)アプリケーションによるオートメーションの民主化
製造業は、今日、米国および世界が直面している最大の課題の 1 つである。製造業のアメリカ国内への回帰と深刻な労働力不足により、ロボットによる自動化の必要性はかつてないほど高まっている。
しかし、ロボットによる自動化が従来の製造業に比べて明らかに優れているにもかかわらず、ロボット工学の普及は、いくつかの物流上の問題によって妨げられている。具体的には、中小企業がロボットによる自動化の導入に最も苦戦している。
現在、コラボレーティブ・ロボティック・アプリケーションと呼ばれる強力な新技術が登場し、大企業から中小企業に至るまで、すべての企業でロボットによる自動化を実現できる可能性が出てきた。
それでも、中小企業は課題に直面している。これらのメーカーは従来の産業用ロボティクスを工場に統合することに最も苦労してきた。
中小企業が従来の産業用ロボットを導入できない最大の課題の一つは、これらの機械を操作するために必要な専門知識の多さである。従来、産業用ロボットは、工場で行う特定の用途に合わせてプログラミングする必要があり、これらのロボットをプログラミングするには、難解なプログラミング言語や規則に関する専門的な知識が必要なレベルだった。その結果、産業用ロボットによるオートメーションの構築と維持には、膨大な量のエンジニアリングとさらなる専門知識が必要となり、最終的にプロジェクトはより高価なものとなってしまう。
これは、必要なリソースと資本を持つ大企業にとっては問題ではないかもしれないが、中小企業にとっては深刻な障害となる。
一般的に、中小企業には産業用ロボットを社内で設置し、メンテナンスするために必要なプログラミングの専門知識が不足しており、代わりに外注することを余儀なくされる。この場合、コストが高くなるだけでなく、機械のライフサイクルを通じて継続的にサポートを受けるために、統合パートナーに依存することになる。また、新製品が発売されるなどして製造工程を変更する必要が生じた場合、その企業は統合パートナーのサポートを必要とすることになる。結局のところ、これらの経常的なコストや設備の管理不足は、中小企業にとって産業用ロボットを実現する上であまりにも大きな課題となっている。
さらに、スペースや安全性の問題もある。従来の産業用ロボットは、危険な機械に人が近づかないよう、フェンスや立ち入り禁止区域などの安全対策が必要で、広い面積を占有する傾向がある。小規模な工場では、スペースの制約が産業用ロボットをビジネスに取り入れる障害となる可能性がある。
協働ロボットとは?:
広く受け入れられるようになりつつある新たな技術として、協働ロボットアプリケーションと呼ばれるものがある。
協働ロボットは、人間と一緒に、あるいは人間の周りで安全、簡単、かつ効果的に作業できるように設計されたロボット自動化の一形態と定義することができる。従来の産業用ロボットと異なり、安全性と使いやすさの2つの点で優れている。
協働ロボットの特徴は、通常の産業用ロボットにはない、人間と並んで作業するための安全機構を内蔵していることである。この安全性を実現するために、協働ロボットの設計者は、機械の鋭角な部分を取り除くなどの配慮をしなければならない。
さらに、多くの協働ロボットは、特定の組織や協会によって評価され、ISO規格の安全性の範囲内で機械を認証することができる。そして、協働ロボットの設計者は、リスクアセスメントを行い、そこからロボットとの適切な関わり方を決定する必要がある。このような努力の結果、協働ロボットは人間の周りで可能な限り安全に設計されているため、お客様は安心して使用することができるようになるのである。
協働ロボットと従来の産業用ロボットの大きな違いの2つ目は、協働ロボットの方が圧倒的に使いやすいということである。
その大きな理由は、プログラマブルであること。協調型ロボットは、難解なプログラミング言語や規則などの専門知識を必要とする代わりに、簡単で直感的な方法でプログラミングを行うことができる。例えば、ドラッグアンドドロップ式のプログラミングインターフェースや、ロボットを手に取り、どこに移動すればよいかを示すことで直接ロボットに教える機能を備えた協働ロボットもある。
通常の産業用ロボットは、協働ロボットと比較すると、速度、強度、耐久性に優れているが、前述の理由により、その用途は大企業に限定されている。しかし、協働ロボットは、このような問題を解決し、中小規模の企業でもロボットの自動化を実現することができるようになった。
また、協働ロボットは設計上の配慮がなされているため、作業時の安全性が非常に高いというメリットもあり、安全ガードやバリアが不要なため、従来の産業用ロボットに比べて設置面積が大幅に削減される。そのため、小規模なメーカーであれば、限られた工場スペースに設置することが可能である。
さらに、協働ロボットは従来のロボットよりもプログラミングが簡単で、使用も簡単だという。
よりシンプルで直感的なプログラミング・インターフェースを備えているため、技術的な専門知識が比較的浅い人でも、工場のロボット・オートメーションのプログラミングと保守を行うことができる。このため、プログラミングを外注するか、社内で高価な専門家を雇用する必要があった中小企業にとって、自動化はより手頃で現実的な選択肢となっている。
さらに、協働ロボットは従来の産業用ロボットよりも安価であるため、資本やリソースの乏しい中小企業にとって、より実現性の高い技術となっている。
デジタルツインズで顧客を満足させる方法
「昔のようには作れない」という表現を聞いたことがあるのではないだろうか。
この表現は、製品が長持ちするように作られ、未知の応力や磨耗箇所で手を抜くのではなく、オーバービルドさえも行われていた黄金時代を指している。リーン生産方式、総合品質管理、シックス・シグマなどの技術の進歩により、平均的な自動車が10万マイルをはるかに超える距離を簡単に走れるようになったことを考えると、古き良き時代は我々が記憶するほど良いものではなかったという可能性もあるかもしれない。
また、設計者が「無駄な」材料を取り除き、より合理的な形状や設計に最適化できるようにする有限要素解析のような技術は、使用するモデルの制限により、新しい製品の耐久性を低下させる可能性もある。例えば、ある面で耐用年数中にある程度の摩耗を想定していたとしても、摩耗しないと思われていた別の面が実はそうではなく、結局は問題を引き起こしてしまうということもあり得る。
しかし、物理的なプロトタイプはコストが高く、限られた数のプロトタイプしか作れないのが現状である。また、プロトタイプの段階では、すでにかなりの時間とコストがかかっている。開発という観点からも、製品のライフサイクルを通じて継続的にカスタマーサポートを行うという観点からも、より良い代替案は、”デジタルツイン “と呼ばれる理想的な超リアル・デジタルモデルである。
予測的なカスタマーサービスの強化:
デジタルツインは、製品のデジタル表現であり、個々の「モノ」のあらゆる側面を把握し、ライフタイムを通じて追跡することができる。物理モデルの場合、これは製造から始まる。ある製品の公差がX.XXからY.YYの間であっても、この製品の測定値は正確にZ.ZZであることが知られている。この製品をベースにしたデジタルツインは「デジタルツインインスタンス」と呼ばれ、製品に関するあらゆる情報を原子レベルまで把握して保存している。
製造後、デジタルツインのセンサーデータは、IoT技術によって集積され、時系列で追跡される。このデータにより、製品の現在の状態を知ることができるだけでなく、トラブルシューティングや予測を目的として、製品のライフサイクル全体を遡ることができる。また、1つのデジタルツインインスタンスからのデータを他のインスタンスに集約して、さらなる改善や予測のための洞察を得ることもできる。このような膨大なデータのキャッシュを手にしたベンダーは、問題が発生する前に、都合の良い時間帯に顧客に連絡し、メンテナンスの予定を立てることができる。
デジタル・ツインを利用して、このような正確な予防保守を必要に応じて行うことができれば、顧客は不必要なサービスにお金を払う必要がなくなる。同時に、故障のたびに「予定調和」するような事後保全も不要になる。このようなメンテナンスのコスト削減と、安定した製品の動作は、お客様が製品に期待する価値と、機器の故障による悪い経験をはるかに少なくすることを意味する。
最初のプロトタイプの前に仮想イテレーション:
物理的なプロトタイプはコストがかかり、テストには時間がかかる。たとえ試作のための予算があったとしても、10年後、20年後、50年後に製品がどのように機能するかを知ることは不可能である。加速試験技術によって近似値を得ることはできるが、結局のところ、これらはすべて経験則に基づく推測に過ぎない。
デジタルツインを作成することで、テストや改良をバーチャルで行えるようになり、大きなメリットが生まれる。例えば、バーチャルテストは低コストで行えるので、正面や側面からの衝突だけでなく、様々な角度や高さからの衝突テストも可能である。そして、実際に製品を製造する前に、バーチャルな世界で改良を加えることができる。そこに人工知能が加われば、人間が誘導しつつもAIが最適化することで、設計を抜本的に改善できる可能性がある。
長期的な影響の仮想シミュレーションも同じである。デジタルツインのフレームワークに製品にかかるストレスや外的条件を入力し、その結果を見ることができる。2年でも20年でも、コンピュータにとってはほとんど変わらない。コンピュータは、実際の時間とは関係なく、独自の時間領域を作り出すことができる。外的条件はシミュレーションによって適用されるが、これは人間か、あるいは将来的には発達したAIが熟考して適用する必要がありそうだ。
デジタルツインは、これまでエンジニアに多大な恩恵をもたらしてきた3Dモデルや有限要素解析の次のステップと言えるかもしれない。仮想的な反復作業によって設計が行われれば、顧客は、ねじれが解消された数年後のモデルと同等の車両を手に入れることができる。これは生産者にとっても費用対効果が高い。もちろん、デジタルツインのコンセプトは、製造現場や組織全体に適用することも可能である。
InfineonがHyperRAMの関連性を維持
低ピンメモリソリューションの開発は、SpansionとCypressの合併より前に行われてきた。
合併や買収を乗り越えてきた技術ほど、永続的なものはない。
Infineon TechnologiesのHyperRAM拡張メモリの最新版は、2014年後半にCypress Semiconductorと合併したSpansionにルーツを遡ることができる。コンパニオンRAMデバイスとして2015年初めに初めて発表されたHyperRAMは、RAMとフラッシュの両方が同じHyperBusインターフェースに接続されるシステムオンチップ(SoC)やマイクロコントローラ(MCU)で使用するために設計されており、初期のHyperRAM技術の開発は、HyperBusとHyperFlash技術に関する先行研究によりもたらされたものである。
HyperRAMの登場以来、テクノロジーとユースケースは進化してきたが、IoTは過去10年にわたる低消費電力メモリ革新の原動力となった。InfineonはHyperRAM 3.0で、高帯域幅、少ピン数のpSRAMベースの揮発性メモリを、ビデオバッファリング、工場自動化、自動車のV2X(vehicle-to-everything)、およびAIoT(artificial intelligence of things)と呼ぶものを含む拡張RAMメモリを必要とするアプリケーションに向けているという。また、組み込みシステムなど、激しい数学計算のためにスクラッチパッドメモリやデータバッファリングを必要とするあらゆるアプリケーションに有用である。
HyperRAMが最初に紹介されたときの大きなセールスポイントは、ピン数の少なさだった。そのため、IoTや自動車のユースケース、SoCやMCUに最適だった。パッケージの小型化によりコストを削減でき、HyperBusインターフェースのピンあたりのデータスループットが向上するため、ピン数の少ないMCUや層の少ないPCBの使用が可能になるため、コスト最適化の設計が可能になる。
フットプリントが小さく、ピン数が少ないインターフェースは、設計の複雑さを軽減しますが、性能を犠牲にしているわけではないという。
HyperRAMは、pSRAMやSDR DRAMといった市場の既存技術よりも性能が高く、ピンあたりのスループットがはるかに高い一方で、消費電力の観点からは効率的な状態を維持することができる。
HyperRAM 3.0は、ハイエンドで利用可能な512Mbの技術が最初に導入されて以来、密度の向上が見られた。新しい拡張HyperBusインタフェースのサポートにより、800MB/sのデータレートが可能になった。HyperRAM 3.0は現在BGA-49パッケージで提供されている。
HyperRAMの第1世代と第2世代の間には、大きな隔たりがあった。バージョン2.0は2021年に登場し、オクタルxSPIとHyperBusのJEDEC準拠インターフェースの両方をサポートし、データレートは最大400MB/sであった。オリジナルの64Mb HyperRAMは、HyperFlashと同じ速度で通信し、読み込みスループットは最大333MB/s、アレイの読み込み/書き込みレイテンシは36nsであった。
これらをHyperBusインターフェース上で組み合わせることで、総ピン数を約40から12に削減することができた。ピン数の削減はパッケージの小型化につながるが、ユースケースや求められる付加機能によって、小型化の効果は異なる可能性がある。
HyperRAM 3.0の典型的な使用例としては、グラフィックス/ディスプレイシステム、または産業環境におけるエッジAI処理などが挙げられる。49ボールBGAのサイズは8×8mm、密度は256Mb、データバス幅は16ビットで、Infineonはクロックスピードを上げずにデータレートを2倍にすることに成功したと述べている。
DDR3以下がメンテナンスモードであるのに対し、HyperRAMは複雑化するDDR4/DDR5 DRAMのギャップを埋めるものであるという。DDRベンダーは、より高い技術ノード、より高い性能、より高い密度を目指している。
「耳かけ型コンピューティング」の実現に向けて
「ヘッドホン3.0 」と呼ばれる時代が到来し、多くのエレクトロニクスエンジニアリングのニーズと機会が生まれている。ヘッドフォンは、オーディオプレーヤーというよりも、「耳に装着するコンピューティング」と定義したほうがよいだろう。
新しいタイプのワイヤレステクノロジーが実装され、独立したデバイスに移行することが目標となる。より高度なオーディオおよび音声処理をデバイス上で実行するための追加処理が必要となり、AIが組み込まれ、新しいユースケースを推進するためにセンサーの数が増加する。
これらの製品はユーザーによって定義され、さまざまなユースケースが存在することになる。これらを実現するためには、ヘッドフォンは強力な処理能力、複数の接続技術、一連のセンサー、バッテリー密度の向上、そしてより多くのメモリなど、適切なハードウェアを備えていなければならない。
同様に重要なのは、他の独立したデバイスと同じモデルに移行するために、適切なソフトウェアとデバイスの要件が必要になることである。高性能なプロセッサ、広く使われている専用OS、そしてユーザーが端末をカスタマイズできるアプリマーケットプレイスが必要である。
この巨大な展開の先には、ヘッドフォンの2つの世代、つまり主要な技術的ランドマークがあった。ヘッドホン1.0を定義したのは、「Walkman」やMP3プレーヤー、スマートフォンなど、少数のデバイスからオーディオを再生するための有線式デバイスだった。
ヘッドホン2.0では、デバイスはワイヤレスへと移行した。最近では、TWS(True Wireless Stereo)イヤフォンの急成長がその原動力となっている。ワイヤレスオーディオを管理するためのインテリジェンスが必要となり、ユースケースも増加した。これらのデバイスは、一部の処理とすべてのコンテンツをスマートフォンなどのソースデバイスに依存している。機能やユースケースはベンダーが定義しており、ユーザーによるカスタマイズは極めて限定的である。
プロセッサの高速化、バッテリー密度の向上、より効率的なシステムオンチップ(SoC)、接続性の向上など、期待されるものはすべて揃っており、テクノロジーの状況はここ数年で大幅に進歩している。
QualcommなどのSoCベンダーは、より強力なチップを開発することで限界を超え、市場をより高度なデバイスへと移行させていくだろう。ヘッドフォンSoC市場の進化は、Qualcommのチップが時間とともにどのように改善されてきたかを調べることで実証される。
初期のTWSデバイスは、CSR8670などの入手しやすいワイヤレスヘッドホンSoCを使用しており、小さなフォームファクタに押し込めていた。設計が進むにつれて、デュアルCPUコアを搭載したより特化したSoCが開発され、現在では、デュアルCPU/デュアルDSPコアが一般的になっている。
また、AirohaやBestechnicなど、他のSoCベンダーも急速にSoCを進化させ、処理能力の向上と高速化を進めている。特に利益率の低いスマートフォン向けアクセサリ市場では、コスト削減のため、SoCベンダーの集積度が高まっている。CODECやオーディオプロセッサを単体で搭載することは、ハイエンド機器以外ではほとんどなくなった。そのため、デバイスベンダーにとってはコスト削減となるが、市場の広がりは限定的である。
Appleは常に独自路線を歩む。壁で囲まれた庭の中で、独自のハードウェアとソフトウェアを使用することが、Appleにとって効果的である。他の企業は、Appleに加え、市場に存在する何百ものブランドとどのように競争するかを考えなければならない。多くの企業は、基本的な機能を備えた低価格、低利益のデバイスに注力し、先駆的なブランドは、ヘッドフォン3.0市場を確立し、それを推進することに目を向けるだろう。これにより、最先端のハードウェアとソフトウェアを提供する様々なチップベンダーに市場が開放されるだろう。
リチウムイオン電池の代替を目指すGridtentialとパートナー企業
世界は、効率的なだけでなく、クリーンで持続可能な、リサイクル可能な材料を使ったエネルギーソリューションを常に求めている。このシナリオにおいて、バッテリーは、輸送部門の完全電化への移行をサポートするために不可欠な役割を担っている。電池業界では、エネルギー密度を高め、コストと重量を削減し、材料のサイクル寿命を延ばすことができる化学物質を常に探し求めている。
現在、リチウムイオンは最も高いエネルギー密度を提供できる技術だが、この種のソリューションは数年以内に限界に達すると予想されている。さらに、リチウムイオン電池には、製造と廃棄の両方にかかる多額のコスト、老朽化、充電・輸送・貯蔵プロセスで守るべき注意事項などの欠点もある。
しかし、近年、電池の製造に新材料を使用することが可能になり、既知の限界を打破する代替ソリューションへの道が開かれた。
Gridtential Energy は、性能の向上は期待できるものの大量生産には程遠い現在のほとんどの新しい電池技術とは異なり、太陽電池ウエハー集電装置をスタック&シール型鉛電池に統合する電池技術を開発した。Silicon Jouleと名付けられたこのAGM(吸収型ガラスマット)電池は、既存の工場で容易に生産できることが大きな特徴だ。他の多くの技術は、工場の大規模な改修に長い時間とコストがかかるため、合理的な時間での大量生産に対応できない。
Gridtentialのシリコンジュール技術は、鉛電池を軽量化し、出力性能を向上させ、リチウムイオン電池の代替品として提案するもので、エネルギー貯蔵アプリケーションの要件に対応する。さらに、サイクル寿命、出力密度、放電速度を向上させ、一部のリチウム電池に匹敵する性能を実現している。
量産に向けた大きな一歩:
Gridtentialは最近、電池部品メーカーのHammond GroupやWirtz Manufacturingと提携し、Silicon Joule電池のバイプレート電極の生産を開始した。この提携の目的は、Silicon Joule二極電池を採用する先進的な鉛電池メーカー向けに、既製の部品や装置を開発、試験生産し、次世代シリコン電池の市場投入を加速させることである。
Hammond Groupは、90年にわたり世界の電池産業に貢献し、再生可能エネルギーや自動車の電動化といった高度なエネルギー貯蔵アプリケーションに鉛蓄電池を提供してきた。一方、Wirtz Manufacturingは、電池製造において80年以上の経験を持ち、単体の機器から完全なターンキー鉛電池製造設備の設計、設置、トレーニングに至るまで、幅広いサービスを提供している。
Gridtentiaによると、Silicon Jouleのような新しい電池技術の開発は、3つのフェーズに分けられる。まず、基本的な材料を開発する必要がある。次に、電池メーカーと協力して、新しい技術を構築すること。最後に、エンドユーザーがこの技術の利点を理解し、サプライヤーから需要を引き出せるように、サプライチェーンの準備をする必要があるという。
したがって、今回発表された提携は、電池メーカーへの電極の供給を充実させ、時間のかかる工程を組み合わせ、活物質の積層や添加の生産コストを削減する方法となる。
Silicon Joule技術は、幅広い輸送市場、バックアップ電源市場(データセンター、通信を含む)、エネルギー貯蔵システム(ESS)アプリケーションなど、さまざまな産業からの需要に対応する。クラウドコンピューティング、通信、その他の重要な産業では、信頼性が高く、費用対効果が高く、拡張性のあるバックアップ電池システムが求められている。Silicon Joule電池は、一般的な鉛電池の最大4倍の寿命を持ち、コスト削減と信頼性向上のための信頼性の高いエコロジーなソリューションである。
5Gは私たちが期待するものとは違うかもしれない
既存の問題を解決するために新しい技術が社会に導入されると、しばしば新しい問題が発生する。そうなれば、当然、新たな開発が必要となる。例えば、自動車の導入は、個人の移動や物資の配送に大きな影響を与えたが、交通安全、道路インフラ、大気質の課題などの問題を引き起こした。
同じことが、多くの現代技術にも言える。クラウドコンピューティングでは低遅延が求められ、モノのインターネットでは常に脅威にさらされる世界が生まれ、インダストリー4.0では既存の産業ネットワークが単に標準に達していないことが証明された。
これらのインターネット関連技術に共通する問題の1つは、デバイスの遅延を減らし、より多くのデバイスをサポートし、既存のネットワーク技術にはない新しいソフトウェア機能を提供できる共通のネットワーク技術が必要であるということである。
現在のネットワークの選択肢を見ると、どのような技術を選んでも、エンジニアはある程度妥協しなければならないことに気がつく。Wi-Fiは安価で導入が容易だが、通信範囲が狭く、1つのネットワークで多数のデバイスを扱うことはできない。また、4Gのプライベートネットワークは主にスマートフォンを対象としているため、IoTデバイスに完全に適しているとは言えない。LoRaは優れた通信距離を提供するが、帯域幅が非常に狭く、現在のローカルエリアネットワークのオプションはリアルタイムタスクに適していないか、他のネットワークとの連携に苦労する独自のソリューションが使用されている。
将来を見据えた5G:
ネットワーク技術の中でも特に注目されているのが5Gである。5Gは、驚異的なダウンロード速度、電光石火の接続時間、低遅延、多数の将来技術のサポートにより、すべてを解決するネットワークソリューションのように思われる。しかし、これまでの技術と比較して、5Gは何がそんなに優れているのか?
既存のネットワーク技術とは異なり、5Gはモダンコンピューティングを念頭に設計されており、エッジコンピューティング、クラウドコンピューティング、大規模なIoTの展開、企業向けのプライベートネットワークのサポートなど、スマートフォン以外のものをターゲットにしている。そのため、需要の変化に応じてネットワークインフラも変化するように、ユーザーのニーズに合わせて高度に設定できるように設計されている。
5Gの技術的な特徴としては、高い周波数と複数の周波数帯を利用することで、より広い帯域を利用できることが挙げられる。簡単に言えば、キャリア周波数が高いほど帯域幅が広くなり、追加チャネルを使用することで複数の5Gデバイスが互いに干渉することなく動作することが可能になる。さらに、MIMOアンテナとビームフォーミングを利用することで、各機器が専用のビームを持つため、1つの周波数帯で複数の機器を同時にサービスすることが可能になる。
5Gの低遅延化は、ハードウェアとソフトウェアに存在する2つの技術で解決される。ハードウェアのソリューションでは、デバイスがデータを送信するために割り当てられた時間を待つ必要がなくなるため、基本的にデバイスは必要なときにいつでも送受信できるようになる。遅延を減らすためのソフトウェア・ソリューションでは、クラウドコンピューティングのタスクをエッジに移動させ、5Gデバイスが必要とするデータを5Gアクセスポイント内またはその近くにローカルに保存するようにする。
5Gの仮想ネットワーク機能により、企業やその他の事業者は既存の5Gインフラ上でパーソナライズされたネットワークを実行することができる。このようなネットワークには、より強力なセキュリティ対策、サブスクリプション・モデル、独自のアプリケーション・プログラミング・インターフェースなどの追加機能を組み込むことが可能である。
5Gは私たちが期待するものとは違うかもしれない:
ニュースや技術記事、ホワイトペーパー、ブログ記事で 5G について読むと、すべての問題を解決してくれるように見えるが、5G はそれを取り巻く誇大広告に見合うものではない可能性がある。
5Gが直面する最初の課題は、5G用に複数の周波数帯が開放されている一方で、これらの周波数帯は異なるサプライヤーにオークションにかけられていることである。高い周波数帯を利用するサービス・プロバイダーは最大の帯域幅を提供することができるが、低い周波数帯を利用するサービス・プロバイダーはそうではない。そのため、5G接続では4Gと比較してダウンロード速度が向上する可能性が高いが、ネット上で時々宣伝される20Gbpsという数字には遠く及ばない。
プロバイダーによって競売にかけられる周波数帯が異なることも、5Gのサービス範囲に影響する。周波数が低いほど帯域幅は狭くなるが、範囲は広くなり、木や丘などの影響を受けにくくなる。しかし、高い周波数は範囲が狭く、壁を通り抜けるのに苦労する。そのため、広帯域の5Gサービスはやや物足りないと感じるかもしれない。
このように、さまざまな供給元で周波数が混在しているため、バースト速度と平均速度の問題も発生する。5Gネットワークが20Gbpsを提供できたとしても、それはデバイスとそのローカルアクセスポイント間の接続速度に過ぎないかもしれない。インターネット上でストリーミングされるデータは、光ファイバーインフラと遠隔地のデータセンターが提供できるものに限定される。
最後に、5Gのインフラはまだ通信事業者によって構築されておらず、通信事業者はネットワークのストレステストを十分に実施していない可能性がある。そのため、5Gネットワークが需要に対応するのに苦労する可能性がある。そのため、5Gの初期導入者は、より多くのデバイスが接続されるにつれて、最終的に低下する特権的な速度を見ることができるかもしれない。
Calumetが米国におけるIC基板ギャップの解消を目指す
Calumet Electronicsは、米国で最初のIC基板サプライヤーの1社となり、国内の電子機器サプライチェーンにおける重要なギャップを埋める一助となることを目指している。
年間100億ドル規模の集積回路基板産業は、確かにすべてアジアにある。米国政府は、最近成立したCHIPS法の支援を受けてエレクトロニクス・エコシステムの再構築を目指しているが、業界の専門家は、IC基板は国内のサプライチェーンで最も弱いリンクの1つであり続ける可能性があると述べている。
チップの小型化が進む一方で、ICを接続するプリント基板(PCB)はその小型化の流れに遅れをとってきた。IC基板は、チップの高密度なI/O接続とPCBの広いラインピッチをつなぐインターポーザーの役割を担っている。IC基板がないと、米国では特に防衛システムで使用される電子機器のサプライチェーンが完全には構築されない。
COOのTodd Brassard氏は、「我々のビジネスの片側には、解決すべき厳しい設計上の課題を抱える防衛や商業の大手OEM企業があり、国内調達の選択肢がほとんどないアジアのサプライチェーンで増え続けるリスクを経験している。一方では、革新的な技術を持つ国内の材料・化学品サプライヤーや機器メーカーが、解決策を見出すために結集している。その中間に位置するのが、Calumetのような加工メーカーで、業界の専門家の緊密な協力のもと、斬新な解決策を編み出さなければならない」と述べている。
Calumetは、セミアディティブ銅フィーチャー形成のIC基板を製造している。
世界的な電子機器団体 IPC のチーフ・テクノロジストであるMatt Kelly氏は 3 月に、米国は基板に関してアジアから 25 年も遅れていると述べている。
主要なサプライヤー:
主要なサプライヤーは、台湾のUnimicronとASEグループ、日本のイビデン、中国のSCCである。市場ウォッチャーであるMordor Intelligenceによると、Unimicronは2022年まで先進フリップチップ基板の研究開発と生産能力拡張に7億ドル以上を投資しているとのこと。
2021年11月のIPCの最新レポートによると、北米にはアドバンストフリップチップボールグリッドアレイ(FCBGA)やフリップチップチップスケールパッケージ(FCCSP)基板を生産する能力はない。FCBGAセグメントでプレーヤーになるには、少なくとも10億ドルの投資が必要だという。
北米での基板供給がなければ、米国で製造したチップをアジアに輸送し、再び米国に戻す必要があり、サプライチェーンが事実上長くなる、とIPCの報告書は述べている。
Calumetは、同社の事業の約8%を占める国防関連企業をはじめ、5Gや衛星通信、ヘルスケア向けの機器を製造する顧客に対して、カスタム設計の基板を供給することを目指している。
Calumetが取引している国防総省の請負業者の1社は、超小型・超高速インターポーザーを含む高度なパッケージングを必要としているという。
従業員約350人のCalumetは、一つ屋根の下にあるPCB製造工場のうち、生産能力で米国の上位5社に入る。小さな会社だが、年間400万枚のプリント基板を出荷しているという。
Covidパンデミックの際、人工呼吸器用PCBのアジアでの供給がなくなったとき、Calumetは需要に応えるために約3ヶ月で23万5千個の回路基板を生産した。
Nvidia DPUがゼロ・トラストに取り組む
パンデミックによってもたらされたリモートワークの時代は、エンドポイントが指数関数的に増加し、ワークロードが分散化する際に、堅牢なセキュリティの必要性に焦点を当てた。Nvidiaの最新のデータ処理ユニット(DPU)は、こうした分散コンピューティング環境が今後も続くこと、そしてデータセンターであれエッジであれ、ゼロ・トラストセキュリティの実装においてハードウェアが重要な役割を担っていることを反映している。
NvidiaのBlueField-2 DPUは、VMware vSphere 8ベースの仮想化ワークロードのパフォーマンスを向上させる目的で、Dell PowerEdgeシステムに搭載される予定である。
Nvidiaのネットワーキング担当シニアVPであるKevin Deierling氏は、EE Timesの取材に対し、「この新しい製品は、人工知能ワークロードとセキュリティサービスの需要に応えることに焦点を当てた、2年間に及ぶVMwareとの協力関係の成果です」と述べている。VMware vSphere 8エンタープライズワークロードプラットフォーム向けに最適化されたNvidia-Dellのコンボには、Nvidia BlueField DPU、Nvidia GPU、Nvidia AI Enterpriseソフトウェアが含まれている。
DPUは、データセンターのインフラストラクチャーサービスのオフロード、分離、高速化、セキュリティ確保に使用され、CPUとGPUはAIやその他のデータセンターアプリケーションの大量のワークロードの実行と処理に集中することができる。
データセンターに広がるコンテナ化・仮想化アプリを支えるマイクロサービスの量が増え続けていることが、CPUに負担をかけているとDeierling氏は指している。
AIを含む最新のアプリケーションは、大量のデータと処理を生成し続けており、そのデータはCPUサイクルを消費している。
CPUやGPUの負担を軽減することはもちろん、DPUのプログラマビリティは、マルチクラウド環境やエッジでのセキュリティを強化する役割を果たし、もう1つは、分散型アプリケーションの需要が高まっているという。
単一のモノリシックなアプリケーションの代わりに、マイクロサービスがデータセンター全体に広がり、エッジでより多くのコンピューティングが行われるようになり、これらはすべてセキュリティで保護する必要がある。そこで登場するのが、ゼロ・トラスト・セキュリティである。
Nvidiaのプラットフォームは、デバイスがゼロ・トラストセキュリティの基盤であるというアプローチを取っており、読み込まれるすべてのファームウェアは、ブート環境と実行環境で認証されるため、データセンターを実行するものはすべて信頼できる。
もちろん、暗号化はハードウェアの安全性を確保するために重要であるが、Deierling氏が指摘するように、それは非常に高価なCPUを必要とする処理だ。
BlueField-2 DPUは、暗号化と復号化をハードウェアで高速化し、データの移動中と保存中の両方で、すべてのデータと東西のトラフィックを暗号化することが可能になります。
このほか、GPUとDPUを一緒に活用することで、人間が入力できる範囲を超えたパスワードの高速入力など、AIを適用して異常な動作を検出することも、このプラットフォームの特徴であるという。DPUとAIを組み合わせることで、データが暗号化されていても、人々がデータセンターとどのようにやり取りしているかを調べ、異常な行動を検出することができるという。
ゼロトラストのコンセプトの核心は、ユーザーが業務に必要な場合にのみアプリケーション、データ、およびサービスにアクセスできるようにすることである。しかし、脅威者が米国の産業用制御システム(ICS)に狙いを定め、重要インフラ、特に公益事業者をターゲットにするようになったため、ハードウェア・レベルでの運用技術(OT)の安全確保がますます重要になってきている。