Tensor説明:GoogleがPixel 6のカスタムチップを構築した理由

1 min read

Pixel 6を悩ましながら 8月に開始は、Googleが最初のカスタムSoC(System on Chip)を中心に、プレビューを構成しました。 今日Pixel Fall EventでGoogleは、Tensorを詳細に説明し、 “会社の歴史の中で最も大きなモバイルハードウェアの革新」と呼ばれていました。

なぜテンソルのか

Tensor構築のためのGoogleの記載の目的は、スマートフォンで可能なものを実装することです。 同社は、「AI技術革新をPixelに直接持って来 “常に使用可能な技術、すなわちアンビエントコンピューティングのビジョンを推進しようとします。

電子はAIサポートスマート機能がPixelを競合他社と差別化することができると信じてGoogleのハードウェア部門で誕生したのに対しGoogleは、携帯電話を「周辺システムの中央制御装置」とみなされます。 Pixel Launch Eventで特にGoogleでAmbient Computingの再話しました。 最後に有意に発生したのは、2019年 ピクセル4発売

とのインタビューで さらに父、Rick Osterlohは、Googleが、単一のコプロセッサ(例えば、Pixel Visual / Neural Core)を構築し、AIモデルを向上させるような断片的なアプローチを取ることができないということを悟って作業が2017年に開始されたと言いました。 むしろ必要な作業に最適化され、全体のチップが必要です。

Tensorチップは、Googleの最新のAI技術をモバイルデバイスから直接提供するように特別に設計されました。 これは、我々は数年の間に保留してきた領域であるが今、私たちは、AIベースのスマートフォンの革新の新たな章を開くことができます。

テンソルCPU + GPU

Pixel Launch EventのGoogleは、Tensorに参加して2.8GHzで2つの高性能ARM Cortex-X1コアを含むと明示的に宣伝しました。 2つの “中間” 2.25GHz A76 CPUコアに接続され、 Ars TechnicaのGoogle Siliconインタビュー 昨年主力電話チップで発見された7nmソースではなく、5nm工程をベースにした方法を指摘しました。 4つの高効率/小型A55コアがCPUを完成します。

Dual-X1のアプローチを使用してGoogleは、中強度のワークロードで、より多くの性能を発揮することができます。 一般CPUからミッドコアは、Googleレンズ視覚的な分析などのタスクを処理しますが、「最大限」処理されます。 Googleは、そのシナリオで2つのX1のコアを使用する方が効率的だと言って、これはTensorが最適化されています。 実際にはPixel 5のSnapdragon 765Gより80%速くなります。

「頻度の低い二つのX1を使用して非常に効率的ですが、まだ負荷がかなり多いです。 一般的に、デュアルA76で実行した作業負荷が今のデュアルX1を使用すると、ほぼ叩くことができます。 “

Google Siliconの副社長兼GMであるPhil Carmack

また、Googleで「最も人気のあるAndroidのゲームのためのプレミアムゲーム体験を提供する」と言われる20コアGPUもあります。 Adreno 620 GPUを使用するPixel 5より370%速くなります。

TensorセキュリティフィートTitan M2

一方、Tensorセキュリティコアは、CPUベースのサブシステム、アプリケーションプロセッサと隔離されており、重要な操作や制御を実行専用です。 Tensorの一部ではないが、Googleでは、次のようなインテリジェントな攻撃に弾力と宣伝する専用Titan M2セキュリティチップと一緒に動作します。 電磁 分析、 電圧文リーチングは、 レーザー欠陥注入

NS 元の Titan Mチップは、ソフトウェアと連動して、セキュリティの脆弱性があることが以前のバージョンのAndroidで携帯電話がロールバックされることを防止します。 また、ブートローダーのロックを解除を防止し、ロック画面のパスワードを確認します。

TPUは、ISPとコンテキストハブ

もちろん「テンソル処理装置」もあります。 このMLエンジンは「Google ResearchからGoogle Researchのためにカスタムメイドしたもの」とし、「MLモデルは現在なく、どこに向かっているかどうか」に基づいて構築されました。

ISP(イメージシグナルプロセッサ)は、HDRNetアルゴリズムを実行するアクセラレータを特徴とします。 これはPixel 6とPixel 6 Proができる主な理由です。 ライブHDR +ビデオ 4K 60FPSでより効率的です。

Context Hubは、「機械学習を超低消費電力領域に “取得します。 AOD(Always-On Display)、Now Playingおよびその他の「周辺環境」を「バッテリーを消耗せず、常に実行」することができます。

今、すべて一緒に、または異種コンピューティング

これらのすべてのコンポーネントが一緒にTensorを構成し、Googleでは「総性能と効率」を優先します。 ここでは、特にSoCのさまざまな部分で動作しなければなら異種コンピューティング操作で優れた性能があります。 たとえばLensは、CPU、GPU、ISPおよびTPUを使用して効率的に実行します。

携帯電話のソフトウェアアプリケーションは、より複雑になるにつれて、チップのいくつかの部分で実行されます。 これは異種コンピューティングです。 これらの複雑なアプリケーションのための優れた性能を得るためにSoCのシステムレベルの決定を下しました。 私たちは、最高速度のために、個々の要素を最適化するよりも、Tensor内部の様々なサブシステムが、本当にうまく機能するようにしました。

テンソルができること

4K60で色をより正確に生き生きするLive HDR +に加えて、Tensorは、Googleカメラのモーションモードのような別のコンピュータの写真やビデオ機能を可能にします。 Action Panは、背景をぼかし一方Long Exposureは、被写体に対して動作します(下記参照)。

一方、Pixel 6で顔認識は、より正確に、より高速に動作します。 統合されたサブシステムのおかげで、Pixel 5に比べて半分の電力を消費します。

TensorのAssistantは再び半分の消費電力で、「Googleからリリースされた最も先進的な音声認識モデル」を使用しています。 高品質のASR(自動音声認識)モデルは、「バッテリーを早く消耗することなく、「サウンドレコーダーとのライブキャプションのような長期実行アプリケーションだけでなく、音声コマンドを転写するために使用されます。

一方、ある アシスタントの音声入力 完全にハンズフリー方式でだけ戦死したことを編集することができ、Pixelの翻訳品質が18%向上してい “一般的に数年にわたる研究に必要な改善レベル」であるLive Translateがあります。

また、Google Tensorを使用すると、機器内の音声と翻訳モデルを使用して動画などのメディアでリアルタイム翻訳が動作することができます。 Pixel 4携帯電話の以前のモデルと比較すると、新しいNMT(On-Device Neural Machine Translation)モデルは、Google Tensorで実行するときに電力を半分も使用しません。

テンソルの未来

Googleは、発売時Tensorに世代記票を提供していませんが、会社は、次のバージョンでは、数値を追加する予定です。 (例えば、Titan MはTitan M2につながる。)

Googleが携帯電話(およびその他の フォームファクタ 噂)。 SVP Rick Osterlohは、イベントでは、次のように言いました。

Tensorはまた、我々は今後数年の間に構築することが、ハードウェア基盤を提供するため、Googleの携帯電話から期待できる個人的で有用な経験を得ることができます。

FTC:私たちは、収入を得る自動アフィリエイトリンクを使用します。 多く。


より多くのニュースを表示するには、YouTubeで9to5Googleを確認してください。

READ  ソウルハッカーズ2'サマーナーズガイド Vol. 2 'ビデオ - The Covenants and the Great One, Milady, and Exploration Guide
Nakama Shizuka

"フリーランスの学生。微妙に魅力的な料理の達人。トータルベーコンの先駆者。旅行の第一人者。自慢のオーガナイザー。"

You May Also Like

More From Author

+ There are no comments

Add yours