タグ別アーカイブ: NVIDIA

エクイニクス、複数クラウドサービスを連携させる「Cloud Exchange」 – クラウド Watch

Equinix Performance Hubは、企業のプライベートネットワークを、エクイニクスのIBXデータセンターに延長するソリューション。企業は自社のインフラと市販の機器を使い、ネットワークやクラウドサービスに、安全かつ確実に接続することが可能になる。

「当社が提供するデータセンターサービスをリパッケージ化したものであり、アジアに展開することで、エンドユーザーの近くにPerformance Hubを設置でき、ネットワークパフォーマンスを最大化する、戦略的なデータセンター活用を実現できる」(古田代表取締役)としている。

3月に北米でPerformance Hubの提供を開始していたが、アジア太平洋地域でのニーズが高まっていることに対応したものだという。

具体的には、ラック、電源、Cross Connect(構内接続)といったエクイニクスのIBXデータセンター内での「ハウジング」、メトロイーサネット、長距離接続(MPLS-VPN)、ISPといった「ネットワーク接続性」、ルーティング、スイッチング、ファイアウォール、SSL-VPN、ロードバランサー、WANアクセラレーションといった「ネットワーク設備」、Amazon Web Services (AWS)、Microsoft Azureなどパブリッククラウドへの広帯域プライベート接続といった「クラウド接続」を提供する。

「データセンターとネットワークインフラ、クラウドコンピューティングとの接続によって、アプリケーションのパフォーマンスを向上させる当社独自のソリューションであり、世界中で一貫したユーザーエクスペリエンスを提供できるのも特徴。広域ネットワークを単純化し、コスト削減を可能にするほか、パブリッククラウドへの直接接続およびハイブリッドクラウドへの移行に向けた事前準備も可能になる。すでに、Chevron(シェブロン)、eBay、およびNVIDIAといったグローバル企業が、世界中のEquinixのデータセンターにおいてPerformance Hubを導入する予定」だという。

引用元: エクイニクス、複数クラウドサービスを連携させる「Cloud Exchange」 – クラウド Watch.

【仮想化道場】転換期を迎える2014年のIntelのサーバー向けプロセッサ – クラウド Watch

Xeon Phiの最大の特徴は、コアがPentiumベースのx86プロセッサ+512ビット ベクトル演算機能となっていること。このコアを60個ほど搭載することで、並列コンピューティングにおいて高い性能を実現している。

22nmプロセスで製造されたXeon Phi 7120Pは、1.238GHz動作(ターボモード動作時は1.33GHz)のコアを61個内蔵している。メモリは8GB(DDR5)を搭載し、倍精度浮動小数点演算の性能は約1.2TFlops。

この製品をはじめ、現時点のXeon Phiは別のプロセッサのコプロセッサとして動作するため、PCI Expressのカードで提供されており、Xeon E5などの汎用プロセッサと組み合わせて利用される。

Xeon Phiで面白いのは、x86コアでLinux OSを独立して動かし、並列コンピューティング用のプログラムを処理できることだろう。このように、Xeon Phi自体がOSを持ち動作することは、NVIDIAやAMDのGPGPUとは大きく異なっている。

また、コアがx86アーキテクチャを利用しているため、GPGPUのように独自のプログラミング言語でプログラムを作成するのではなく、現在利用しているx86プログラミングがそのまま利用できるという点も、大きなメリットである。

ただし、どんなx86プログラムでもXeon Phiで動かせば性能が上がる、というモノではない。やはり並列コンピューティング用に開発されたプログラムをXeon Phi用にリコンパイルする必要がある。実際Intelでは、既存のXeon用のC/C++プログラミング用のコンパイラをXeon Phiに対応させて、Xeon Phi環境で最も効率が高くなるようにしている。

引用元: 【仮想化道場】転換期を迎える2014年のIntelのサーバー向けプロセッサ – クラウド Watch.

【後藤弘茂のWeekly海外ニュース】APUをデータセンターにもたらすAMDの新サーバー戦略 – PC Watch

AMDがサーバーの変革の波に乗ろうとしているように、Intelもサーバーでの変革を進めている。IntelのラインナップでAMDのAPUに当たるのは次期MIC(マイク:Many Integrated Core)アーキテクチャの「Knights Landing」、AMDのARM CPUコアサーバーに当たるのは「Avoton(アヴォトン)」以降のAtom系CPUコアのサーバーCPU。AMD戦略との違いは明瞭で、Intelがx86を拡張した高スループットコアを使うのに対して、AMDはGPUコア。Intelがx86命令セットのスモールCPUコアを使うのに対して、AMDはARMコアとなる。

以前は、AMDはx86の世界でIntelに対抗しようとしていた。しかし、現在のAMDは明らかに戦略を転換している。対Intel軸の側の技術に寄っており、Intel以外のチップ業界で盛り上がっている技術に乗る、あるいは先導する方針を採っている。

NVIDIAも、目立たないながらもCUDAフレームワークを着実に進化させている。NVIDIAの次のステップは当然CPUコアの統合で、64-bit ARMv8のDenver(デンバー)コアを統合してAMD用語でのAPU化を実現する。

引用元: 【後藤弘茂のWeekly海外ニュース】APUをデータセンターにもたらすAMDの新サーバー戦略 – PC Watch.

「GPU制御の人工小脳」:電通大等の野球ロボ « WIRED.jp

『Neural Networks』誌に掲載された論文によると、このロボットが備える「人工頭脳」は、パソコン等で画像処理に利用されているNVIDIA社製のグラフィックスプロセッシングユニット(GPU)をベースにしており、およそ10万個のニューロンの機能を模倣する。科学者たちはこの人工ニューロンを、NVIDIA社が開発したソフトウェアを使って、タスクに対応できるようプログラムしている。

ロボットに向けてボールが投げられると、バッティングケージの背後にある加速度計が、球速などのボールに関する情報を記録し、このデータをGPU搭載の人工頭脳をもつロボットに送り返す。人工頭脳はデータを解析し、ロボットがバットを振るべきタイミングを正確に判断する。投球速度が変わると、ロボットはもう1度、この学習を繰り返す。

引用元: 「GPU制御の人工小脳」:電通大等の野球ロボ « WIRED.jp.