タグ別アーカイブ: AMD

【仮想化道場】ARMプロセッサとGPUに賭けるAMD ARMとx86プロセッサのピン互換を実現 – クラウド Watch

なお、APU化したARMプロセッサは、ネットワーク関連の組み込みプロセッサとしては、高い性能を持つかもしれない。GPUは並列処理性能が高いため、ネットワークを流れるデータパケットを高速に処理できる可能性があるからだ。こういった性能が認められれば、ファイアウォールやL3スイッチなど、専用チップを使って処理しているネットワーク機器で、APU採用が加速するかもしれない。

引用元: 【仮想化道場】ARMプロセッサとGPUに賭けるAMD ARMとx86プロセッサのピン互換を実現 – クラウド Watch.

英語の文章を”So,”で始めるとその人の信用を貶める? – YAMDAS現更新履歴

文章を "So, …" と始めることは口語ではよくあることだが、これはあまり好ましくないそうだ。具体的には、聴く側をちょっとバカにした印象を与えたり、これで文章を始めることで自分のそこまでの話に自分が満足してないのが出てしまうとかあるらしい。

引用元: 英語の文章を"So,"で始めるとその人の信用を貶める? – YAMDAS現更新履歴.

頭脳放談:第165回 AMDのARMコアプロセッサーが新しいサーバー市場を創造する? – @IT

一方、ARMからすれば、鳴り物入りの高性能狙い、かつ新64bitアーキテクチャの「Cortex-A57」を発表したものの、ちょっと従来路線からは一歩踏み出し過ぎていて、ときどきARMがやらかす「鳴かず飛ばず」世代(Cortex以前、ARMは奇数番号がヒットし、偶数番号はヒットしないというジンクスがあった)になる可能性もなくはなかった。ARMにとっては実績の乏しいサーバー市場でCortex-A57を売るためのパートナーを得たというところだろう。

ちなみにモバイル用途でCortex-A57をぶん回すと電池が心配らしく、ARMは例によって同じ64bitアーキテクチャでも、より軽量なCortex-A53とのbig.LITTLEを「お勧め」しているようだ。big.LITTLEとは、比較的大型の性能の高いCPUコア(big)と、小型でそこそこの性能の低消費電力のCPUコア(LITTLE)を組み合わせて全体の省電力化を図るというもの。しかしサーバー用途ならば、big.LITTLEなど必要なく、Cortex-A57を本来の性能通りにぶん回せばよかろう。もちろん、それでもx86系よりも電力効率が良いというところを見せなければならないが、当然できる前提だろう。

引用元: 頭脳放談:第165回 AMDのARMコアプロセッサーが新しいサーバー市場を創造する? – @IT.

なぜGoogle MapsがあるのにOpenStreetMapが必要なのか – YAMDAS現更新履歴

OpenStreetMap について人に話したときに多くの人から言われる「Google Maps があるのになんでそれが必要なん?」という疑問に対する反論である。

それは地理情報が巨大ビジネスだからこそ、その情報の利用を特定企業に独占されてはまずいということなのだが、この記事で挙げるのは三つの懸念事項である。

一つ目はマップに掲載する情報を企業が恣意的に決める可能性があること、二つ目はある人の現在地と行くべき場所を企業が決めることができること、そして三つ目はお決まりだが個人のプライバシーの問題。

引用元: なぜGoogle MapsがあるのにOpenStreetMapが必要なのか – YAMDAS現更新履歴.

【仮想化道場】転換期を迎える2014年のIntelのサーバー向けプロセッサ – クラウド Watch

Xeon Phiの最大の特徴は、コアがPentiumベースのx86プロセッサ+512ビット ベクトル演算機能となっていること。このコアを60個ほど搭載することで、並列コンピューティングにおいて高い性能を実現している。

22nmプロセスで製造されたXeon Phi 7120Pは、1.238GHz動作(ターボモード動作時は1.33GHz)のコアを61個内蔵している。メモリは8GB(DDR5)を搭載し、倍精度浮動小数点演算の性能は約1.2TFlops。

この製品をはじめ、現時点のXeon Phiは別のプロセッサのコプロセッサとして動作するため、PCI Expressのカードで提供されており、Xeon E5などの汎用プロセッサと組み合わせて利用される。

Xeon Phiで面白いのは、x86コアでLinux OSを独立して動かし、並列コンピューティング用のプログラムを処理できることだろう。このように、Xeon Phi自体がOSを持ち動作することは、NVIDIAやAMDのGPGPUとは大きく異なっている。

また、コアがx86アーキテクチャを利用しているため、GPGPUのように独自のプログラミング言語でプログラムを作成するのではなく、現在利用しているx86プログラミングがそのまま利用できるという点も、大きなメリットである。

ただし、どんなx86プログラムでもXeon Phiで動かせば性能が上がる、というモノではない。やはり並列コンピューティング用に開発されたプログラムをXeon Phi用にリコンパイルする必要がある。実際Intelでは、既存のXeon用のC/C++プログラミング用のコンパイラをXeon Phiに対応させて、Xeon Phi環境で最も効率が高くなるようにしている。

引用元: 【仮想化道場】転換期を迎える2014年のIntelのサーバー向けプロセッサ – クラウド Watch.

【後藤弘茂のWeekly海外ニュース】APUをデータセンターにもたらすAMDの新サーバー戦略 – PC Watch

AMDがサーバーの変革の波に乗ろうとしているように、Intelもサーバーでの変革を進めている。IntelのラインナップでAMDのAPUに当たるのは次期MIC(マイク:Many Integrated Core)アーキテクチャの「Knights Landing」、AMDのARM CPUコアサーバーに当たるのは「Avoton(アヴォトン)」以降のAtom系CPUコアのサーバーCPU。AMD戦略との違いは明瞭で、Intelがx86を拡張した高スループットコアを使うのに対して、AMDはGPUコア。Intelがx86命令セットのスモールCPUコアを使うのに対して、AMDはARMコアとなる。

以前は、AMDはx86の世界でIntelに対抗しようとしていた。しかし、現在のAMDは明らかに戦略を転換している。対Intel軸の側の技術に寄っており、Intel以外のチップ業界で盛り上がっている技術に乗る、あるいは先導する方針を採っている。

NVIDIAも、目立たないながらもCUDAフレームワークを着実に進化させている。NVIDIAの次のステップは当然CPUコアの統合で、64-bit ARMv8のDenver(デンバー)コアを統合してAMD用語でのAPU化を実現する。

引用元: 【後藤弘茂のWeekly海外ニュース】APUをデータセンターにもたらすAMDの新サーバー戦略 – PC Watch.

頭脳放談:第156回 Intelは1番の能力を持つファブをどう生かすのか? – @IT

しかし、そのIntelには、いまだにダントツの1番がある。それは、Intelの持つ最先端のファブ(半導体製造工場)であり、そこで作ることができる最先端のトランジスタである。Intelの後に続くのは台湾のTSMC、韓国のSamsung Electronics、GLOBALFOUNDRIES(AMDのファブを分社化して発足した会社)といったところだが、Intelのファブは、頭ひとつ抜け出ている。そこで作られるトランジスタは最高だ。確か2013年3月にAlteraのFPGAをインテルのファブで製造するというファウンドリの話が出ていたが、AlteraにしたらライバルXilinxに差をつけることができるインフラを手に入れた思いだろう。

引用元: 頭脳放談:第156回 Intelは1番の能力を持つファブをどう生かすのか? – @IT.

「PS4は軽いビジネスモデル」──ソニーのゲーム事業、ローンチ初年度も黒字確保へ – ITmedia ニュース

PS4ではCPUは米AMD製のx86-64プロセッサ、GPUはRadeonベースとなるなど、PCに近いアーキテクチャを採用している。「チップセットなどは、ソニーの技術や知恵を盛り込んでいるが既存のものを使い、製造はファウンドリー(半導体製造会社)などが技術を持っているので自らプロセスなどを開発する必要もなく、投資も少なく済む。PS4は軽いビジネスモデルだ」(加藤CFO)という。一方、ソフト開発やマーケティングにはそれなりのコストをかける考えだ。

引用元: 「PS4は軽いビジネスモデル」──ソニーのゲーム事業、ローンチ初年度も黒字確保へ – ITmedia ニュース.

【後藤弘茂のWeekly海外ニュース】CPUとGPUのメモリ空間を統一するAMDの「hUMA」アーキテクチャ

現在のAPUは、物理的なメモリは単一だが、CPUとGPUで個別のメモリアドレス空間を持っている。UMA(Uniform Memory Access)システムでは、全てのプロセッシングコアがシングル単一のメモリアドレス空間を共有するべきだが、そうなっていないとAMDは指摘する。その原因は、GPUコンピュートが導入された時に、ディスクリートGPUによって「Non-Uniform Memory Access (NUMA)」が持ち込まれたからだと言う。個別のメモリ空間に分断されたNUMAによって、ヘテロジニアスコンピューティングでは複雑なプログラミングを強いられているというのがAMDの視点だ。異なるメモリ空間の間で、煩雑なデータコピーと同期、それにアドレス変換が必要になる。

引用元: 【後藤弘茂のWeekly海外ニュース】CPUとGPUのメモリ空間を統一するAMDの「hUMA」アーキテクチャ.

【後藤弘茂のWeekly海外ニュース】CPUとGPUのメモリ空間を統一するAMDの「hUMA」アーキテクチャ

ところがhUMAでは、GPUがCPUと同様にポインタを使うことができる。そのため、CPUとGPUの間の連携は極めてシンプルになる。hUMAではCPUがGPUに単純にポインタを渡すだけで、GPUがそのままCPUのデータ構造にアクセスできるようになる。GPUはそのままデータを更新する。CPUはその結果を、直接読むことができる。複雑なデータ構造の場合も、GPUが組み込まれた構造リンクを追うことができるので、データ構造の転換も一切必要がない。

引用元: 【後藤弘茂のWeekly海外ニュース】CPUとGPUのメモリ空間を統一するAMDの「hUMA」アーキテクチャ.