11月29日(日本時間)から、アップルのデバイスで生成AIを使った『Apple Intelligence』が使えるようになった。現在のところ英語(米国)だけだが、機能は徐々に追加されるということで、現時点で発表されたすべての機能を使えるわけではない。我々はいつから、どんな機能を使えるのか? 実際に使ってみるとどうなのか? 解説しよう。

Apple Intelligence、どうすれば使える?

OpenAI(ChatGPT)や、グーグル(Gemini)、Meta(Meta AI)に遅れを取りつつも、アップルが2024年6月のWWDCで発表した生成AIのApple Intelligenceは、デバイスの持つ個人情報を、安全性を保ったまま利用して、ユーザーのアシスタントとして動作する……というもの。

全世界同時ローンチではなく、USから……というのは、最近よくある展開方法だが、使用言語を英語(米国)に切り替えると日本でも利用出来る。

また、機能は、徐々にアンロックされていくようで、現時点では利用出来る機能は限られている。

利用出来るデバイスは、Mシリーズチップ、もしくはA17 Pro/A18/A18 Proを搭載したMac、iPad、iPhoneで、OSは、iOS 18.1、iPadOS 18.1、macOS Sequoia 15.1にアップデートする必要がある。

厳密な表現をすると上記のようになるが、簡単にいえば『最新のアップルデバイスの多くで、最新OSにアップデートして、言語を英語(米国)にしたら使える』ということだ。

(広告の後にも続きます)

現時点では、どんな機能が使えるの?

これから、数多くの機能が使えるようになるが、「機能がどんどん追加される」「12月に追加される」「日本語での提供開始は2025年」とか、非常に分かりにくい。

とりあえず、現時点で我々が言語を英語(米国)にしたら、使えるのは以下の機能。

●作文ツール(英語ではWriting Tools)——テキストを書くあらゆるツールで使える

●より自然なSiri(英語ではMore Natural and Conversational Siri)

 ・テキストでの入力も可能

●賢くなった写真アプリ(英語ではMore Intelligent Photos App)

 ・自然言語での検索

 ・クリーンアップツール

 ・自然言語でのムービーの生成

●メールの管理

 ・優先度の高いメールの選別

 ・長いスレッドの要約

 ・スマートリプライ

●通知の要約

●電話の録音と、文字起こし、要約

というわけで、画像の生成や、作文ツールの高機能化、ビジュアルインテリジェンス(カメラを向けたものを判別する機能)などは(英語(米国)では)12月の追加となっている。

正直なところ、現時点では英語版でもさほどの機能は利用出来ないといえるだろう。これまで生成AIを使ってきた人からすると物足りない成熟度合だと思う。しかし、ひと足飛びに進めるものではないし、筆者のようにあらゆる情報をアップルデバイスに集約している人なら、遠からず利便性が高まっていくとは思う。iPhoneやMacというハードウェアを作るメーカーだけに、慎重な態度は良いと思う(たとえば、同じハルシネーションでも、リテラシーの高い人が使うChatGPTと違って、「iPhoneがウソをついた」ということになる危険がある。


英語(米国)で、オンにしてもしばらくは「Preparing(準備中)」で使えない。筆者の場合1時間ぐらい放置していたら、いつの間にか使えるようになっていた。