WWDC で、Apple は「人工知能 (AI)」 については一言も言及しませんでした。また、「ChatGPT」など、現在のテクノロジーの世界でよく使われている用語についても言及しませんでした。
Apple がやったことは、単に「機械学習 (ML)」について 7 回言及しただけです。
7年かけて準備してきたARグラス「ビジョンプロ」の紹介でも、「高度なエンコード・デコードニューラルネットワークを採用」としか記載されていなかった。
これは、現在の大型モデル (または「AI 誇大広告」と呼ぶべきもの) の波における Microsoft や Google などのシリコンバレーの大手企業の「注目を集める」アプローチとはまったく異なります。
一部の専門家やメディアが言っているように、
もしかして、Apple はこの AI 競争で遅れをとっているのでしょうか? それともまだ様子を見ているのでしょうか?実際にはそうではありません。
Apple は WWDC で大きな AI モデルについては話さなかった (または宣伝しませんでした) が、Apple は、スペースバーを押したときの iPhone のオートコレクトの改善など、いくつかの新しい AI ベースの機能を導入しました。単語または文全体を完成させます。
この機能は、Transformer 言語モデルを使用する ML プログラムに基づいており、自動修正がこれまで以上に正確になります。Transformer は、ChatGPT をサポートする重要なテクノロジの 1 つです。
Apple は、ユーザーがテキストを送信したり入力したりする方法を学習して改善すると述べています。
レポートによると、新しい「オートコレクト」はオンデバイスの機械学習を利用しているとのことです。
Apple はこれらのモデルを長年にわたって継続的に改良してきました...Apple Silicon の力により、iPhone は次のことができます。ユーザーがキーをタップするたびにこのモデルを実行します。 「ダッキングワードを入力したいときは、キーボードが自動的に学習します」と Apple のソフトウェアエンジニアリング担当上級副社長、クレイグ・フェデリギ氏は述べています。
もう 1 つの例は、Apple による AirPods Pro の改良です。これは
「ヘッドセットがユーザーの会話を検出すると、ノイズ リダクション機能を自動的にオフにする」です。 Apple はこれを機械学習機能としていませんが、解決するのが難しい問題であり、解決策は AI モデルに基づいています。 さらに、PDF に入力するフィールドを識別する
やペットを識別する(その後、ペットのすべての写真をフォルダーにグループ化する) などの新機能も Apple のニューラルに基づいています。この点に関するネットワーク研究活動。
WWDC で Apple は、特定の AI モデルやトレーニング データ、将来の改善の可能性については語らず、単に「これらの機能は優れたテクノロジーによってサポートされている」と述べました。サーバー クラスター、スーパーコンピューター、テラバイト規模のデータを使用して大規模なモデルを構築する競合他社とは異なり、
Apple は自社のデバイス上に AI モデルを構築したいと考えています。新しい「オートコレクト」のような機能はこのアイデアに基づいており、iPhone 上で実行されますが、ChatGPT のようなモデルは何百もの高価な GPU でトレーニングする必要があります。
これの利点は、
,オンデバイス AI を実行することで、クラウドベースの AI が直面するデータ プライバシーの問題の多くを回避できることです。モデルが携帯電話上で実行できるようになると、Apple はモデルを実行するために収集するデータが少なくなります。 Apple が M2 チップ ファミリの最新メンバーである M2 Ultra も発表したことは注目に値します。第 2 世代の 5nm プロセスで構築されており、最大 24 個の CPU コア、76 個の GPU コア、および 1 秒あたり 31.6 兆回の演算が可能な 32 コアのニューラル エンジンを備えています。
Apple は、
この機能は「大規模な Transformer モデル」をトレーニングするときに役立つ可能性があると述べています。
「M2 Ultra は、M1 Ultra より 50% 多い最大 192 GB のユニファイド メモリをサポートできるため、他のチップでは不可能なタスクを完了できます。たとえば、単一システムで、次のような巨大な ML ワークロードをトレーニングできます。大規模な Transformer モデルの場合、そのようなモデルはメモリ不足のため、最も強力な個別 GPU でも処理できません。」 M2 Ultra の出現は、一部の人工知能の専門家を興奮させました。
「偶然か設計かにかかわらず、Apple のシリコン ユニファイド メモリ アーキテクチャは、ハイエンド Mac が大規模な AI モデルを実行し、AI 研究を実施するための本当に素晴らしいマシンになったことを意味します」とペリー E. メッツガー氏は Twitter で述べました。この価格で 192 GB の GPU アクセス可能なメモリを提供するシステムは他に多くありません。」
メモリの容量が増えるということは、より大きく、より高性能な AI モデルをメモリに収容できることを意味し、多くの人が自分のコンピュータで AI をトレーニングする機会が得られる可能性があります。
M2 Ultra と A100 (さらには H100) の性能評価はありませんが、少なくとも現時点では、Apple は生成 AI トレーニング ハードウェアの分野に公に参入しています。
以上がAppleが遅れをとっていると誰が言ったでしょうか? WWDCではAIについて言及されなかったが、大型モデルは控えめに紹介されたの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。