AppleのiOS 26アップデートは、本当にエキサイティングな開発をもたらします。ライブ翻訳は、ZDNETが報告するように、他の人の言葉をあなたの言語に翻訳し、AirPodsにパイプすることができるようになりましたが、Tom’s GuideはiOS 26が新しいApple Intelligence言語を追加し、AirPodsライブ翻訳機能を拡張することを確認します。 Slashgearは、この機能がオンデバイスAIモデルを使用しているため、会話はiPhoneにとどまり、クラウドに当てはまることはありません。
これは別のHO-HUのアップデートではありません。ついに、Appleは最終的に言語の障壁を越えたシームレスでリアルタイムの通信に向かっています。想像してみてください:あなたは忙しいリスボンのカフェにいます、あなたは英語で質問し、あなたはあなたの耳に戻ってポルトガル語を聞いて、あなたはあなたの携帯電話を引き出すことなくチャットを続けます。スピニング進行中のホイールでのキャラクレード、タイピング、サイドアイはありません。 Macrumorsは、ライブ翻訳によりハンズフリーのコミュニケーションが可能になるため、言語を共有しない2人がAirPodsを着用している間に自然に話すことができると説明しています。流れは単純に使用されているように感じます。これは一種のポイントです。
dev。それを4つのステップに分解します。 AirPodsマイクは、あなたが話している人からのスピーチをキャプチャします。 iPhoneはそのオーディオをテキストに変換します。テキストは、AppleのオンデバイスAIモデルを使用してターゲット言語に翻訳されます。結果はAirPodsを通して話され、翻訳はiPhone画面に視覚的なバックアップとして表示されます。
リアリティチェック時間。 CNETは機能をテストし、正確さは音声の明確さ、語彙の複雑さ、および環境に依存することがわかりました。速い話者、珍しい用語、複数の声、彼らはそれを捨てることができます。 Appleは、期待を設定し、誇大広告を抑え続けるベータ版にラベル付けされます。
Pro Tip:Macrumorsは、iPhoneのマイクを助けてスピーカーに近づけることで、騒々しい場所での精度を高めることをお勧めします。また、マクル腫瘍は、アクティブなノイズキャンセルが他のスピーカーのボリュームを低下させ、翻訳されたオーディオを追跡しやすくするため、会話の流れを維持しながら簡単になります。 class = “ad-clacement flex Justify-center items-stretch” data-astro-cid-oz4dv5wew = “” id = “inline-article-1-banner” style = ” – maxheight:250px;”>
デバイスの互換性:あなたは既にあなたが必要とするかもしれません。 ZDNetは、AppleがAirPods Pro 3を必要としているようにiPhone 17イベントでそれを鳴らしたと指摘していますが、それは全体のストーリーではありません。現実はより消費者に優しいものです。
Slashgearは、ANCおよびAirPods Pro 2でAirPods 4で動作するライブ翻訳も確認しています。 iPhone側では、ZDNETは、ANP、AirPods Pro 2、またはAirPods Pro 3を使用している場合、AirPod 4を所有している場合、Apple Intelligence 4を所有している場合は、iPhone 15 ProまたはPro Max、任意のiPhone 16、またはiPhone 17が必要になると指摘しています。どちらのデバイスにも最新のファームウェアが必要です。 AirPodsの更新は、充電中にデバイスに接続しながらバックグラウンドにインストールします。
Appleのアプローチは賢いです。重い持ち上げは、新しいAirPodsハードウェアではなく、iPhoneで発生します。既存のイヤホンはより賢くなり、最新のものを望む人はまだアップグレードする理由があります。 hull “data-astro-cid-oz4dv5ew =” “id =” inline-article-1-native “stiled =” “>
言語サポートと現実世界の制限
現在の言語のラインナップはしっかりしていますが、限られています。 ZDNETは、ライブ翻訳は英語、英国、米国、フランス語、ドイツ語、ポルトガル語、スペイン語のみをサポートしていると報告しています。 Macrumorsは、Appleが今年後半にイタリア語、日本、韓国語、中国語を簡素化する予定であると述べています。 ZDNETは、AirPods設定でオフラインで使用するために言語をダウンロードできることに言及しています。それは、むらのある列車の接続や山道のデッドゾーンで重要です。食べ物を注文したり、道順を尋ねたりするための翻訳が必要です。
制限があります。 ZDNETは、特に速いスピーカーを使用して、不正確さや遅れを聞くかもしれないと警告しています。重要な詳細については、会話をビートまたはダブルチェックで遅くします。
Proのヒント:タフなシナリオについては、はっきりと話し、思考の間を一時停止し、何かが聞こえるかどうかを簡単に繰り返します。人間の通訳者でさえ、やり直しを求めています。
airpodsを超えて:視覚インテリジェンスは翻訳をサポートしますTom’s Guideは、昨年のiPhone 16の発売で導入されたVisual Intelligenceが、カメラだけでなくスクリーンショットで動作することを説明しています。小さな微調整、大きな使いやすさのシフト。
毎日の習慣について考えてください。別の言語のメニュー、奇妙な材料を含むレシピ、またはイベントの詳細を記載したポスターをスクリーンショットします。これで、スクリーンショットとビジュアルインテリジェンスプロンプトをスナップして自動的に表示されます。画像でテキストを翻訳し、映画のポスターからカレンダーイベントをスピンアップし、レシピの代替品を調べます。タップ、完了。
Tom’s Guideは、AppleがGoogleのGemini Liveをトレースしていることも認めています。 Apple Intelligenceは、最初にスクリーンショットを望んでおり、その後の質問を入力します。遅い、はい、しかし系統的でプライバシーが焦点を当てています。 Tom’s Guideは、iOS 26で視覚インテリジェンスが改善されたと結論付けています。粘着性の派手な機能を打ち負かす増分進行。 wfull h-full “data-astro-cid-oz4dv5ew =” “id =” inline-article-2-native “style =” “”>
それらは、実際に役立つ実用的なAIの需要に対するAppleの答えです。 Techradarは、メッセージ内のライブ翻訳がiOS 26で最適なAI機能であると主張しており、電話やFaceTimeからも言語の障壁を取り除くことに注目しています。 Appleはそれについて叫んでいません、ユーティリティは十分に大声で話します。
統合は静かなパワーの動きです。 Macrumorsは、メッセージ、FaceTime、および電話アプリで機能が機能し、テキストとオーディオをその場で翻訳することを確認します。パーティーのトリックではなく、システム全体。
地域のしわがあります。 Michael Tsaiのブログは、ユーザーがEUにいてAppleアカウント地域がEUにある場合、Apple Intelligence Live Translation with AirPodsは利用できないと報告しています。これは、EUの人工知能法とGDPR要件に関連している可能性が高く、音声および翻訳サービスの厳格なルールを設定します。
テイクアウトは簡単です。 Appleは実際の問題を解決するAIを出荷し、必要に応じて地理的な制限で注意深く展開しています。シズルに対するプライバシーと信頼性。
私に自信を与えるのは、ピースがどのように適合するかということです。ライブ翻訳は、視覚インテリジェンス、SIRI、およびより広範なApple Intelligenceエコシステムとメッシュをメッシュします。リアルタイム翻訳とスクリーンショット分析とシステムレベルの支援は、実際に使用しているツールキットのように感じ始めます。ほとんどの人にとって、それはAIがどうあるべきか、目に見えない、親切で、信頼できるものです。