蘋果內部消息透露,其人工智能平臺“Apple Intelligence”正加速邁向2.0版本,計劃在接下來兩年內帶來一系列重大更新。這次迭代將主要圍繞Siri底層架構的重塑、第三方AI模型的深度整合以及原生應用的智能化拓展展開。
“Apple Intelligence”平臺的發(fā)展步入新階段,Siri作為其核心組成部分,將迎來一場“大語言模型”革命。據(jù)悉,代號“LLM Siri”的新一代語音助手將摒棄傳統(tǒng)的規(guī)則引擎,轉而采用蘋果自主研發(fā)的千億參數(shù)級大語言模型。這一轉變將使Siri能夠實現(xiàn)更加流暢的多輪對話,并通過“App Intents”框架跨應用執(zhí)行復雜指令,例如自動整理并分享特定照片。然而,由于需要協(xié)調多部門接口,這一功能預計將在2026年春季隨iOS 19.4版本推出。
蘋果在構建開放生態(tài)方面邁出重要一步,正考慮將ChatGPT、谷歌Gemini、Perplexity等主流AI模型納入其兼容性測試名單。未來,用戶或可在系統(tǒng)設置中自由切換不同的AI引擎,這一舉措被視為蘋果構建“AI服務層”的關鍵一環(huán)。此舉不僅將提升用戶體驗,還將進一步推動AI技術的普及和應用。
蘋果原生應用也在逐步融入AI技術。根據(jù)代碼分析,音樂App將測試AI生成播放列表封面的功能,郵件App將提供智能附件整理服務,而健康App則將能夠根據(jù)用戶習慣生成個性化的運動計劃。這些基礎特性有望在今年秋季隨iOS 18版本首發(fā),為用戶帶來更加智能化的使用體驗。
為了確保用戶體驗的平穩(wěn)過渡和開發(fā)者有足夠的時間進行適配,蘋果將采取分階段發(fā)布策略。2025年秋季發(fā)布會將重點展示AI基礎功能的落地情況,而2026年的WWDC開發(fā)者大會則將主推“LLM Siri”及開放生態(tài)戰(zhàn)略。這種軟硬件協(xié)同的推進模式,既避免了大規(guī)模一次性升級可能帶來的用戶體驗斷層,也為開發(fā)者提供了更多的準備時間。