テクノロジー
インタビュー インテルは、競合他社との差別化を図るため、未発表ハードウェアへの早期アクセスやオープンソースへの新生的な姿勢で、開発者を自社のクラウドに呼び込もうとしている。
IntelのDeveloper Cloud担当副社長であるMarkus Flierl氏は、SunがOracleに吸収され、NvidiaでGPUクラウドインフラの責任者を務めた経験を持つITベテランである。
Flierl氏は先日のKubecon Europe 2024のイベントに参加し、AI界の寵児Nvidiaと比較したIntelのアプローチを “根本的に異なる “と表現して、我々との会話を始めた。
「すべてがオープンです。「そして、Nvidiaが追求しているよりプロプライエタリな戦略とは対照的に、われわれと協力してくれるコミュニティの参加を大いに奨励している」。
規制 NvidiaはKubernetes、Docker、Linuxカーネルなど多くのオープンソースプロジェクトに貢献している。
インテル 最近オープンソース化された インテル・グラニュレート社が開発したContinuous Profilerをオープンソース化した。開発チームは最適化エージェントを実行することで、コードのボトルネックを発見し、アプリをより効率的にすることができるという理論だ。
我々はFlierl社に、このような寛大さはインテルに利益をもたらすと述べている。ソフトウェアは最終的にインテルのハードウェアに最適化される。
「その通りです。「競合他社と比べたときの我々のアプローチの違いは、非常にオープンだということだ。我々はコミュニティとコラボレーションを信じている。これは、私たちがそれを実践している例のひとつにすぎません。そして、私たちは人々がソフトウェアを最適化し、私たちのハードウェアから最大限の力を引き出すことができるようにしたいと考えています。”
IntelのDeveloper Cloudは、開発者が最新のハードウェアにアクセスできるようにするためのもので、通常、クラウド分野のライバルがシリコンを手に入れるよりもかなり数カ月早く提供される。しかし、データセンターの提供において、インテルがクラウド大手に遅れをとっているという事実からは逃れられない。
「データセンターは主に北米にあります。「それらはリースで、タイミングの問題です。私は2年前に入社したばかりです [but] データセンターの建設には3年かかります。
「AIへの需要が高まる中、データセンターはますます厳しくなっている。
我々は、より少ない電力でより多くの仕事をこなせるシリコンを開発できるチップ・ジャイアントは存在するのか、と尋ねている。
フリアールは笑う。「あるいは、グラニュレートを使って性能を最適化することもできる」。
Intelの次のデータセンターの場所について、Flierl氏は次のように述べている。私はここヨーロッパでデータセンターを探していますし、APACも視野に入れています」。
- インテルのグリーン・ドリームは、母なる自然の健康を損なうことなくチップを作ることだ
- 墓場から蘇ったKaby Lake-Gチップ、今度は控えめなファイアウォールルーター-NASモボに搭載
- TSMCの3nmノードがパワーアップ、ハイテク大手の次世代チップの舞台が整う
- Intel、AI PC開発プログラムの拡大とNUCキットで小規模コードショップを追う
“我々はまた、主権クラウドとしてこれを運用するのを助けてくれる地元のプロバイダーとの提携も検討している。”
Flierl氏はIntelのDeveloper Cloud計画を「双方向」と表現している。
「一方では、戦略的な顧客に早期にアクセスできるようにしたい。もう一方では、エンド顧客と直接話すことで、フィードバックを直接得ることができる。
「従来、私たちのモデルはOEMに販売し、CSPに販売し、CSPが最終顧客に販売するというものでした。
「当社は、自社でチップを製造し、自社でチップを設計し、クラウド・サービスとして提供する世界で唯一の企業です。
しかし、インテルは独自のAIチップを製造しているわけではない。
「ええ、その通りです。「グーグルは独自のTensorFlowチップを作っていますが、他では買えません。会社として提供できるユニークな利点があります”
インテルは、開発者にライバルのクラウドではなく自社のクラウドを使うよう説得するのに十分なことをしてきたのだろうか?当然のことながら、ベアメタルXeonsからマネージドKubernetesまで、あらゆる柔軟性がこのサービスを魅力的なものにしているとFlierl氏は考えている。
“あなたは、あなたがやろうとしていることに応じて、スタックの異なるレイヤーに来ることができます……そして、これらのサービスは、異なるインスタンスタイプにわたって利用可能であるため、あなたは見ることができます – このワークロードは、CPU上でどの程度実行されるのか、Gaudi上でどの程度実行されるのか、GPU上でどの程度速く実行されるのか、そして、あなたが見ている結果に基づいて、ワークロードを最適化しようとしています。”®