iOS 18.4で導入された「Apple Intelligence」は、Siriとの連携でさまざまな疑問に答えたり、画像を生成したりするiPhoneのAI機能です。ビジュアルインテリジェンスもApple Intelligenceと密接に関連した機能で、カメラに映したものをいろいろな角度から分析します。
ビジュアルインテリジェンスには、「質問」と「検索」という2つの要素があります。前者はChatGPTに画像を送信してAIによる分析を行い、後者はGoogleのサーチエンジンにより類似の画像を検索します。被写体が画面中央にくるよう調整してシャッターを切るところまでは同じですが、2つのボタンのうちどちらをタップするかによって、得られる情報は大きく変わってきます。
大まかにいうと、「質問」は被写体の詳細な情報を知りたいときに、「検索」は被写体の名前だけを知りたいときに利用します。
たとえば、散歩中に知らない花を見つけたとします。名前を確認したいだけのときは、「検索」でじゅうぶんでしょう。得られる情報は「Googleレンズ」で画像検索したときと大差ありませんが、ChatGPTを経由しないぶん高速で、ChatGPTの回数制限を気にする必要がなくなります。
固有名詞があまり意味を持たない被写体について調べたいときは、「質問」を利用しましょう。被写体の色や形状から一般的な名称を見つけ出し、その用途や特長についてChatGPTの分析に基づく情報を提示してくれます。たとえば、偶然目にした食器の用途を知りたいとき、名称も使い方もわからない調理器具について知りたいときには、「質問」のほうが役立つ情報を入手できます。