Apple Intelligenceが今秋アップデート。メッセージ/通話/FaceTimeのライブ翻訳など新機能を実装
Appleは、日本時間6月10日 午前2時に開催した「WWDC25」基調講演にて、独自AI「Apple Intelligence」の新機能を発表した。
Appleは昨年末よりApple Intelligenceの提供を開始し、今年4月には日本語にも対応。さらに年末までにデンマーク語やオランダ語、中国語(繁体字)などの8言語に対応する予定だという。
今回のWWDCでは、「iPhone、Apple Watch、Vision Pro、Mac、iPadでの体験を次のレベルに引き上げる」新機能を複数発表。メッセージやFaceTime、電話アプリには「ライブ翻訳」が組み込まれ、異なる言語間でのコミュニケーション時、各アプリで自動翻訳を行なってくれる。
カスタム絵文字機能の「ジェン文字」、画像生成アプリ「Image Playground」もアップデート。ジェン文字はテキストからの変換のみならず、絵文字を取り入れた新しいものを作成できるようになるほか、Image PlaygroundはChatGPTにより、油絵風やベクターアートなどの新しいスタイルを利用できるようになるとのこと。
カメラ映像を解析して情報検索などができる「ビジュアルインテリジェンス」は、iPhoneの画面上に拡張され、いかなるアプリを使っている時でも、表示されている画像について詳細検索が可能となる。
Apple Watchのフィットネスにも拡張。ユーザーのワークアウトやフィットネス履歴のデータを分析し、モチベーションを高める洞察を生成して、最適なエネルギー・スタイル・トーンの音声で読み上げてくれる。
さらにデベロッパーは、Apple Intelligenceのデバイス上の基盤モデルをどのアプリからでも直接利用できるようになる。これによって、デベロッパーの既存アプリに生成機能を組み込むことが容易になるとのこと。
そのほかにもショートカット機能のアップデートやリマインダー内の自動分類など、さまざまな新機能を実装。これらは本日よりテスト用に提供され、対応デバイス・対応言語では今秋より利用できるようになるとしている。