何が言われていますか?あなたのAirPodsは、その問題を非常に注目すべき方法で解決しようとしています。 bloombergの翻訳の翻訳を翻訳するのは、翻訳の後半に翻訳をもたらすターゲット= “_blank”私たちは、ビジネスミーティングから家族の集まりまで、あらゆることで言語の障壁を処理します。
セットアップはほとんど魔法のように聞こえます。誰かがスペイン語を話し、あなたはあなたのエアポッドで英語を聞きます。あなたは英語で応答し、あなたのiPhoneはスペイン語の翻訳を再生します。 Appleはこの機能をiOS 19に結び付け、イヤノバスとしてシンプルであると思われるリアルタイムの会話翻訳を作成します。 href = “https://9to5mac.com/2025/06/07/ios-19-will-offer-yet-another-reason-to-wear-airpods-all-day/” Target = “_blank”>既存のAirPodsモデルは、重い持ち上げがあなたのペアリングされたiPhoneで発生するため、機能を獲得します。 Google Translate?
ここでは、Appleになりましょう。 Googleは2017年にこの機能を最初のピクセルの芽にもたらしました。 Google Pixel Budsは現在40の言語をサポートしていますプライバシーファースト処理。
本当の差別化要因ですか? すべての翻訳は、敏感になります Googleのソリューションはクラウドでオーディオを処理しますが、 Appleのオンデバイスモデル Appleのオンデバイスファンデーションモデルを搭載したApple Intelligence
このプロセスは、リアルタイムで発生することにより、一般的なバッチ翻訳とは異なります。iPhoneは発生しているときに音声を検出し、翻訳をすぐに処理し、最小限の遅延でアアポッドに結果をストリーミングします。
この保守的なアプローチは、成長する翻訳市場におけるAppleのより広範な戦略につながります。 リアルタイムトランスレーターのイヤホン市場は、年間20%で成長している2031年で35億ドルに達すると予測されています。すべての方言をサポートするために急いでいるのではなく、Appleの質の質の高いアプローチは、ユーザーベースに最も重要な言語を釘付けにすることで、プレミアム市場シェアを獲得するように位置しています。 より多くの言語は、2025年の終わりまでに追加言語が追加されます。要求href = “https://www.bloomberg.com/news/articles/2025-03-13/apple-plans-ios-19-feature-that-lets-live-translate conversations”ターゲット= “_blank”>機能は、エアポッドの一部として到着します。 Appleが通常のパターンに従っている場合は、6月のWWDCでのiOS 19の発表を期待してください。この機能は2025年秋に展開されます。 Apple just released a new firmware build for AirPods Pro 2 and AirPods 4 to beta testers, showing they’re actively pushing significant functionality updates through firmware.現在のベータには、睡眠検出とカメラのリモート機能 href = “https://www.zdnet.com/article/apple-might-add-live-language-translation-to-airpods-this year-thatll-work/” target = “_blank”>翻訳処理がiPhoneで行われるため、特別なAirPods
は必要ありません。ただし、リアルタイムのAI翻訳を処理するのに十分な処理能力を備えた互換性のあるiPhoneが必要です。これにより、機能を新しいiPhoneモデルに制限する可能性があります。 href = “https://www.androidpolice.com/apple-stealing-pixel-buds-feature-for-the-airpods/”ターゲット= “_blank”> Googleは2017年にこれを釘付けにしました。しかし、Appleの実行は、印象的なデモと毎日のユーティリティの間のギャップを埋める可能性があります。実用的なシナリオを考えてみましょう。英語を話す患者に治療オプションを説明する医師、国際サプライヤーと交渉する請負業者、または多言語の孫とつながる祖父母。
airpodsは、米国の市場シェアのほぼ35%を占め、強力なネットワーク効果を生み出します。翻訳機能は、すでに所有して摩耗しているイヤホンに存在する場合、特殊な翻訳装置の採用を殺す摩擦を取り除きます。さらに重要なことに、最近のエアポッドの更新には、スタジオクォーリティレコーディング、コールの品質の向上、睡眠検出
Pro Tip:定期的に多言語環境にいる場合は、iPhoneの現在の翻訳アプリに慣れ始めます。翻訳機能はこの基盤の上に構築されるため、ライブ翻訳の発売時にインターフェイスと言語のオプションに精通しています。 iOS 19は、Appleの歴史における最も劇的なソフトウェアオーバーホールの1つになると予想されます単なるマーケティング以外の利点。クラウドベースの翻訳は共有データを通じて改善されますが、Appleのローカル処理は、医学的状態、ビジネス戦略、または家族の問題に関する繊細な会話を意味します。多言語のダイナミクスをナビゲートしている国境や家族を横切って働く専門家にとって、この信頼要因は決定的である可能性があります。
エアポッドが拡張コミュニケーションのための目に見えないインターフェイスになることを示しています。今日は翻訳です。明日、それはあなたが会っている人々に関するリアルタイムの事実チェック、感情的なトーン分析、または文脈情報かもしれません。 Appleは、AirPodsのインフラストラクチャを構築して、想像し始めたばかりの方法で人間の会話を強化しています。
この機能は初日に完璧に機能しますか?特に文化的文脈、イディオム、または技術用語との微妙な会話については、おそらくリアルタイムの翻訳は技術的に挑戦的ではありません。しかし、Appleの焦点を絞って反復するというパターンのパターンは、急速に改善することを示唆しています。