スマートフォンやタブレットとの一般的なインタラクションは過去 10 年間であまり変わっていませんが、より実験的な入力方法がいくつかあります。 Apple は、目を使ってナビゲーションする方法など、iPhone と iPad に導入されるいくつかの新しいアクセシビリティ機能を発表しました。
Apple は、障害を持つユーザーを支援するために設計された新しいアクセシビリティ機能を発表しました。これらの機能は今年後半にリリースされる予定で、iPad、iPhone、CarPlay、そして今後登場するvisionOSを含むAppleの製品群全体で利用できるようになる。ここで最も注目すべき機能の 1 つは、身体障害のある人が目だけを使って iPad または iPhone を制御できるようにするアイ トラッキングです。この革新的な機能は Apple の人工知能と機械学習機能を活用しており、データのプライバシーを引き続き優先します。 Dwell Control のおかげで、スクロールしたり、アプリ間を移動したり、特定のアクションを実行したりすることもできます。これが実際にどれだけうまく機能するかは確認する必要がありますが、確かに面白そうです。
アップデートに含まれるもう 1 つの機能は Music Haptics で、聴覚障害のあるユーザーが iPhone の振動やタップを通じて音楽を体験できるようになります。この機能は携帯電話のTaptic Engineを利用しており、Apple Musicの膨大なカタログ全体で利用できるようになります。ボーカル ショートカットを使用すると、タスクを実行するためのカスタム音声コマンドを作成できるようになります。また、車両モーション キューは、移動中の車両の乗客の乗り物酔いを軽減することを目的としています。 CarPlay では、音声コントロールやカラー フィルターなどのアクセシビリティのアップデートも行われます。
VisionOS は音声対話のライブ キャプションを備え、聴覚障害のあるユーザーを支援します。また、「透明度を下げる」や「薄暗く点滅するライト」など、視力の低いユーザー向けの機能も含まれます。
さらに、Apple は、VoiceOver、拡大鏡、点字画面入力などの既存の機能を強化しています。ロービジョンユーザーや会話能力を失うリスクのあるユーザーに対応するために、ホバータイピングやパーソナルボイスなどの新機能も導入されています。
Apple は、これらの機能が「今年後半」に登場すると述べています。つまり、マイナー アップデートの一部として、または iOS 18 の一部として提供される可能性があり、来月には詳細が判明するはずです。
以上がアイコントロールがiPhoneとiPadに間もなく登場しますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。