Googleのものに1時間以上ピクセル210月4日のイベント、製品管理の上級ディレクターSabrina Ellisは珍しいことをしました。彼女は新しいスマートフォンを絞りました。その後、1つのボタンをタップすることなく、彼女は「自撮りをする」という言葉を言い、電話を空中に持ち上げ、詰め込まれた会議室でグループショットを撮った。
同社が昨日発表したピクセル2新しいガジェットのラインナップ、絞るように設計された最初のデバイスではありません。 HTCは、Googleが台湾会社のモバイル部門を購入する前に、この夏、U11スマートフォンで同じことを試みました。しかし、その「エッジセンス」機能を備えたU11はそうでした役に立たない仕掛けとして償却されました、ピクセル2の「アクティブエッジ」とわずかに変更されたものは、実際には非常に便利かもしれません。
この違いは、Googleの新しいハードウェアのすべてに焼き付けられた人工知能アシスタントであるGoogle Assistantに帰着します。スクイーズアクションをGoogle Assistantに捧げると、Pixel 2の最高の機能の1つに簡単にアクセスできます。電話に簡単なグリップを与えるだけで、写真のスナップからカレンダーリマインダーの設定まで何でもできます。
公平に言えば、HTC U11は同様の機能を提供しました。 Google Assistantを起動するために絞ることもできますが、Edge Senseを構成して懐中電灯をオンにするか、代わりに他のアプリを開くこともできます。
Active EdgeのGoogleの他の大きな利点は、ハードウェアとソフトウェアの両方を完全に制御できることです。つまり、Google AssistantはHTC U11よりも深いレベルで電話にアクセスできるようにすることができ、AIはサードパーティのデバイスよりもさらに便利になります。 Active Edgeは、Pixel 2にとってそれが何を意味するかの完璧な例です。
誰かが実際に実際に携帯電話を絞るかどうかは、まだ見られないままです。しかし、誰かが人々に絞りを始めるよう説得することができれば、それはこれです。