人工知能は、クラウド、デジタル トランスフォーメーション、さらにはサイバネティクスでは決して明らかにされなかった弱点を明らかにしています。真実は、多くの組織が依然として 1990 年代と同じように、エンドツーエンドの調達、モノリシックなプロパティ、ハードウェア中心の考え方を備えたアーキテクチャを行っているということです。
しかし、もう 1990 年代ではありません。私たちが野心的に望んでいた空飛ぶ車や自動靴ひも締めのナイキは手に入らないかもしれませんが、AI の台頭により IT インフラストラクチャの需要は大きく変化しました。問題は、私たちの購買習慣がそうではないことです。
NetApp の英国およびアイルランド担当ソリューション ディレクター。
テクノロジー購入サイクルの初期段階では、組織は楽観的な判断を下すべきではありません。
今日行われた決定が今後 10 年の能力を決定することになります。信頼できるサプライヤーからエンドツーエンドで購入するという私たちの本能は、新しい AI テクノロジーをどのように設計すべきかとは相容れません。
この根本的な不一致が AI インフラストラクチャの罠を生み出しました。
完全なシンプルさとアーキテクチャの自由度
エンタープライズ インフラストラクチャは、数十年にわたって、基本的に予測可能なワークロードによって形成されてきました。データベース、ERP システム、生産性アプリケーションはすべて、ハードウェアに対する一貫したよく理解された要求を持っています。これは、ハードウェアがそれに応じてサイズ設定され、購入されていることを意味します。
この時代に登場したフルスタックモデルは合理的でした。統合されたコンピューティング、ストレージ、ネットワーキングを提供する単一ベンダーによって真の運用の簡素化が実現し、ベンダーへの依存と IT 管理の利便性のトレードオフは、ほとんどの組織が喜んで受け入れたものでした。
ただし、AI ワークロードはまったく異なる条件で動作します。大規模なモデルをトレーニングするには、従来のエンタープライズ ワークロード プロファイルには馴染みのない、突然の継続的な計算バーストが必要です。これらのモデルを実稼働環境で実行すると、使用パターンやモデルのバージョンが進化するにつれてリソースの需要も変化します。
したがって、AI システムを支えるデータ パイプラインには、固定サイクルで動作するのではなく、動的に応答できるストレージが必要です。これらの特性を総合すると、インフラストラクチャ要件は本質的に変化し、急速に変化するため、事前に計画することが困難になります。
これは、ハードウェア中心のモノリシック ファームが設計されたものではありません。組織がこのインフラストラクチャの技術的負債を感じ始めると、それを修正するのに 5 年かかります。
延期された複雑さの複合コスト
このサイクル全体を通じて、安全で管理可能な選択肢として完全買収が CIO に提示されており、短期間ではほぼこれらの主張に沿ったものになります。
単一ベンダーの統合システムは、実装、サポート、取締役会への説明が容易です。ただし、フルスタック ソリューションは、複雑さが除去されるのではなく延期されているため、シンプルです。
プラットフォームがサポートするように設計されたものを超えて組織のニーズが進化した場合、ハードウェアのロックイン、相互運用性の制限、および出口の費用が増大するという形で関心が生じます。
AI インフラストラクチャへの完全な取り組みから 5 年後、組織は、大規模なクラウド移行を経験した人なら誰でもすぐに認識できる立場にあることに気づくでしょう。所有者の年齢やサプライヤーとの関係は、時間の経過とともにパートナーシップから依存関係に移行することがよくあります。
また、変化に伴うコストは大きくなる傾向にあるため、進歩を制限するリスクがあるにもかかわらず、残留することが唯一の現実的な選択肢であるように思えます。この間違いは、間違ったハードウェアを購入したことではなく、長期的な適応性よりも短期的な利便性を選択したことです。
戦略的基盤としての仮想化、コンテナ化、抽象化
AI には、統合ではなく柔軟性に基づいたアーキテクチャが必要です。統合ソリューションによって提供される相互運用性により、コンポーネントは相互に依存したままになります。
その代わり、AI には、インフラストラクチャに課せられる要求の変化に応じてインフラストラクチャを再構成できる柔軟性が必要です。つまり、ワークロードは特定の物理ハードウェアの制限に縛られず、テクノロジ自体の変化のペースによって、組織は継続的かつ高価なプラットフォームの再構築を強いられることはありません。
仮想化はその基盤です。コンピューティング、ストレージ、ネットワーキングが仮想化されると、ワークロードは物理マシンに結び付けられるのではなく、動的に移動、拡張、再割り当てできます。 AI ワークロードのリソース プロファイルは継続的に変化するため、これは AI にとって非常に重要です。
トレーニング中のモデルには、本番環境で推論を実行している同じモデルとはまったく異なるインフラストラクチャ要件があり、手動介入なしにこの違いに対応できない状態では、コストのかかるボトルネックが発生します。
コンテナ化により、この柔軟性がアプリケーション層にまで拡張されます。コンテナとしてパッケージ化された AI アプリケーションには独自の依存関係があり、変更を加えることなく、オンプレミスのインフラストラクチャ、パブリック クラウド、エッジ環境全体に一貫してデプロイできます。組織が AI の実験から本番環境の展開およびエッジ推論に移行するにつれて、この移植性が実際の運用要件になります。
環境を再構築せずに環境間でワークロードをシフトできる機能により、署名時にのみ意味のあるコスト構造に縛られるのではなく、進化する AI インフラストラクチャの経済性に従うことが可能になります。
抽象化によってこれらの要素が結合されます。基盤となるハードウェアから真に抽象化された (つまり、分離または分離された) インフラストラクチャにより、組織は、その上で実行されているアプリケーションやワークロードを中断することなく、そのハードウェアをアップグレード、交換、または増強できます。
これは、GPU の世代が従来のサーバー更新サイクルよりも早く変化しており、ツール環境が 5 年間のインフラストラクチャ計画がほとんど推測的なものになるようなペースで進化している場合に特に重要です。
変化に対応したデザイン
仮想化、コンテナ化、抽象化された基盤上に AI インフラストラクチャを構築する組織は、必ずしも現在のサイクルで最も速く動いたり、最大の予算を投入したりする組織であるとは限りません。彼らは、現在の要件に合わせて購入することと、完全には予測できない一連の将来に備えて構築することの違いを理解している人たちです。
90 年代にハードウェアとフルスタック ソリューションに重点を置いたこれらのモノリシックな資産が意味を成してから長い時間が経ち、テクノロジーとビジネスは長年にわたり大幅に進化しました。 10 年どころか、今後 3 年で何が起こるかを予測することはできず、インフラストラクチャの需要は進化し続けます。
AI の変化のスピードは、適応できないインフラストラクチャが企業の実行できることを大幅に制限することを意味します。したがって、テクノロジーの成長に合わせて組織が閉じ込められるのではなく、テクノロジーの成長に合わせて組織も成長できるように、契約を結ぶ前に柔軟性、移植性、アーキテクチャの自由度について厳しい質問をする時期が来ます。
最適なIT資産管理ソフトウェアをご紹介します。
この記事は以下の一環として作成されました。 TechRadar Pro からの洞察今日のテクノロジー業界で最も優秀な人材を紹介するチャンネルです。
ここで表明されている見解は著者の見解であり、必ずしも TechRadarPro または Future plc の見解ではありません。コラボレーションに興味がある場合は、こちらで詳細をご覧ください。 https://www.techradar.com/pro/perspectives-how-to-submit