蘋果WWDC宣布開放AI基礎模型 個人化Siri還要再等等
蘋果公司(Apple)周一(6/9)舉辦年度全球開發者大會(WWDC),宣布旗下人工智慧(AI)基礎模型將開放開發者運用,加速打造AI應用;蘋果高層也證實,需要更多時間來打造更個人化的語音助理Siri,以符合內部的高標準,期待未來一年內能提供更多相關資訊。

蘋果在美國加州總部Apple Park舉辦WWDC,預覽多個大幅改版且重新命名的作業系統,包括iOS 26、iPadOS 26、watchOS 26、visionOS 26、tvOS 26、macOS Tahoe 26等,並公布個人化智慧系統Apple Intelligence的新功能,中央社記者獲邀前往現場參加實體特別活動。
蘋果執行長庫克(Tim Cook)在Keynote發表會預錄影片開始播放前,親自登上舞台向現場開發者和媒體開心打招呼,他強調今天是一個重要的日子,充滿許多新消息和有意義的連結。
庫克說,今天有將近60國的開發者來到現場,還有數百萬人在線上觀看活動。今年大會將由Keynote發表會揭開序幕,接著舉辦Platforms State of the Union活動,下午將有機會與蘋果工程師互動、進行總部園區導覽,再透過一場慶祝活動為今天劃下句點,「本週我們想聽見你們的心聲並交流意見」。
蘋果軟體工程資深副總裁費德里吉(Craig Federighi)接著上台說,WWDC對於在蘋果從事軟體工作的人來說,是一段特別的時間,「我們畢生致力於為使用者和開發者打造平台,實現我們想要的世界」,並感謝開發者對蘋果的啟發。

費德里吉在發表會影片表示,蘋果已推出強化功能,讓Siri變得更直覺且更有幫助。如同先前提到,蘋果持續打造讓Siri變得更個人化的功能,這項工作需要更多時間來符合內部的高標準,期待未來一年內能提供更多相關資訊。
費德里吉也宣布,蘋果將透過基礎模型框架(Foundation Models framework),讓任何App都能直接運用Apple Intelligence核心的裝置端基礎模型,為開發者直接提供快速、以隱私為核心、可離線使用,且AI推論免費的強大智慧能力,「我們認為這將掀起App智慧體驗的新浪潮」。
Apple Intelligence為iPhone帶來升級體驗,幫使用者比以往更輕鬆完成任務,並開啟全新的溝通方式和操作畫面內容的更多可能。Live Translation整合至「訊息」、FaceTime和「電話」中,協助使用者跨語言溝通,即時翻譯文字與語音內容。
視覺智慧(Visual Intelligence)奠基於Apple Intelligence,並延伸至使用者的iPhone畫面,可在檢視任何內容時切換App進行搜尋與操作。使用者可以針對自己在螢幕上所看見的內容向ChatGPT提問,也能透過Google和其他支援的App搜尋類似的圖片和產品。視覺智慧也能辨識出使用者正在查看的活動,並建議將活動加入行事曆,同時自動填入日期、時間與地點等重要資訊。(中央社)