4 月 2 日のこのサイトのニュースによると、Siri は現在、メッセージ内の写真の説明を試みることができますが、その効果は安定していません。しかし、Apple は人工知能分野の探求を諦めていません。最近の研究論文の中で、Apple の人工知能チームは、Siri の知能を大幅に向上させることができるモデルについて説明しており、ReALM と呼ばれるこのモデルは、テストで OpenAI のよく知られた言語モデル GPT-4.0 を上回ったと考えられています。
この記事では、ユーザーの画面上の内容と進行中の操作を同時に理解できるReALMの特徴を紹介します。ディスカッションは次の 3 つのタイプに分類されます。
これが完璧に機能すれば、ReALM は Siri をさらに賢く便利なものにするでしょう。彼らは、ReALM のパフォーマンスを OpenAI の GPT-3.5 および GPT-4.0 と比較しました。
OpenAI が提供する GPT-3.5 および GPT-4.0 モデルをテストし、それらにコンテキスト情報を提供して、一連の可能性のあるデータを予測できるようにしました。エンティティ。 GPT-3.5 はテキスト入力のみを受け入れるため、テキストのヒントのみが提供されます。 GPT-4 は画像情報を理解できるため、スクリーン エンティティの認識機能が大幅に向上したスクリーンショットを提供しました。
それでは、Apple の ReALM はどのように機能するのでしょうか?
「私たちのモデルは、さまざまな種類のエンティティの識別において大幅な進歩を遂げました。最小のモデルでも、元のシステムと比較して、画面上のエンティティ認識の精度は 5% 以上です。当社の最小モデルである GPT-3.5 と GPT-4.0 は GPT-4.0 と同等のパフォーマンスを示しますが、より大きなモデルは GPT-4.0 を大幅に上回ります。."
論文の結論 まず、ReALM は GPT に匹敵します。 GPT-4 よりもパラメーターがはるかに少ないにもかかわらず、パフォーマンスが -4 であり、特定のフィールドでユーザーの指示を処理する際のパフォーマンスが優れています。これにより、ReALM はデバイス上で実行できる実用的で効率的なエンティティ認識システムになります。
Apple にとって、パフォーマンスに影響を与えずにこの技術をデバイスにどのように適用するかが鍵となりそうです。 WWDC 2024 開発者会議が 6 月 10 日に開催されようとしているため、Apple が iOS 18 などの新しいシステムで人工知能技術の成果をさらに実証することが広く期待されています。以上がAppleの研究者らは、同社のオンデバイスモデルReALMはGPT-4よりも優れており、Siriのインテリジェンスを大幅に向上できると述べているの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。