WWDC 过去几天了,热度也慢慢降下来,我这几天陆陆续续看了些讲座,从一个天天写代码的人角度,跟你聊聊我的一些感受。
重点方向
先看数据:设计相关讲座 12 个,AI 相关 15 个,SwiftUI 13 个,空间计算 10 个。这个分配不是随便来的,基本就能看出苹果接下来几年要重点搞什么了。
液态玻璃这个设计,我个人还挺喜欢的。
很有质感,也很通透,在平面上巧妙地体现了层次感。现在网上吐槽的挺多,我能理解,毕竟大家对苹果期望值都很高。但拿第一个开发者预览版来说事,我觉得有点过了。第一版本来就是给开发者适配用的,等正式版出来,现在这些界面错乱基本都会修复。
而且你仔细想想,这次设计更新不仅是为了好看,更是为了统一。从 iPhone 到 Vision Pro,从平面到空间,都用同一套设计语言。这背后的逻辑很清楚:当你以后戴上 Apple Glass / Vision Pro Lite(我觉得这天不会太远),你不需要重新学习,因为交互逻辑和你手机上的一模一样。
这种统一性,其实就是苹果生态护城河的一部分。
AI 这事儿,苹果确实慢了,但你还是能感受到他们的理念
今年大会一开始,Apple 就重点提到了 AI,这个他们鸽了一年的功能,并且去年发布的功能有些依然要等到明年才能上,国内更是遥遥无期,现在连Apple Intelligence 的影子都没看到,确实让人感觉比较无语。
但其实你能从 Apple 每年的更新了解到他们想做的,别的公司做 AI 产品,基本都是”先有个聊天框,然后往里塞功能”。苹果想做的是反过来——让 AI 无感地融入到你现在的使用习惯里。
让用户感知不到 AI 的存在,从系统层面融合各种 App 的功能让 AI 聪明的去调用,而不仅仅是一个聊天对话框。想象一下,如果你对手机说”帮我整理一下今天的照片发个微博”,系统不是打开某个 AI 应用,而是直接理解你的意图,调用相册、文件管理、甚至第三方 App 的功能来搞定。这种体验确实更自然,但见效也更慢。
AI 飞速发展的今天,这种一年一度的更新很难满足消费者和投资人的需要,苹果这种”慢工出细活”的策略确实有风险。但如果真做成了,体验会比现在这些聊天机器人强不少。
新的技术
这一块我会简单说一些我比较感兴趣的框架,其他的大家可以去看官方文档或者讲座。https://developer.apple.com/cn/wwdc25/sessions-and-labs/topics#machine-learning-ai
Swift
最让我印象深刻的是并发编程的优化。之前 Swift 6 的数据竞争检查虽然好,但经常莫名其妙报错,很头疼。这次改了默认选项——除非你明确要并发,否则就单线程,大部分自然的代码写法都是安全的,不会动不动就报错了。
新增的 InlineArray
和 Span
两个类型,对性能敏感的代码会很有用。还有新的 Subprocess 包,可以直接在 Swift 里管理子进程。
SwiftUI
这次更新不算大,主要跟着新设计走。但几个新功能挺实用:
- WebView 终于原生支持了,不用自己包装 WKWebView 了
- 3D 图表对数据可视化很有帮助
- 拖放功能完善了
- 富文本编辑器解决了很多人的刚需
整体感觉 SwiftUI 正在从”能用”变成”好用”。
UIKit
UIKit 这次的更新重点是新的设计系统和架构改进。Liquid Glass 材质不只是视觉上的改变,UIKit 也提供了相应的 API 让我们在自定义 UI 中使用。
比较实用的是新的自动观察追踪功能,UIKit 现在能自动追踪在 layoutSubviews
等更新方法中引用的 Observable 对象,不需要手动调用 setNeedsLayout
了。还有新的 updateProperties
方法,在 layoutSubviews
之前独立运行,可以更高效地处理内容填充和样式应用。
iPad 上的菜单栏改进也不错,现在可以通过从屏幕顶部下滑来访问,不需要外接键盘也能快速使用 app 功能。
需要注意的是,UIKit 强制要求迁移到基于 Scene 的生命周期,旧的方法已经被废弃,在 iOS 26 之后的版本中,没有采用 Scene 生命周期的 app 将无法启动。
App Intents
App Intents 从之前的边角功能现在逐渐演变成核心模块,让人看到了苹果在生态上的布局。通过 App Intents,app 可以将功能扩展到整个系统——Spotlight、操作按钮、小组件、控制中心等等。
核心思路是把 app 的操作定义为 intents,这些 intents 可以接收参数并返回值,等于是给系统提供了接口。之后随着 AI 能力的升级,它可以主动聪明的调用这些 Intents,让整个系统融为一体,变成一台真正理解你意图的智能体。
对独立开发者来说,这个框架能提升 app 的可发现性。用户可以在不打开 app 的情况下执行操作,这对提升用户粘性很有帮助。
Foundation Models
Foundation Models 框架绝对是这次 WWDC 的亮点。这是苹果提供的端侧大语言模型框架,支持 macOS、iOS、iPadOS 和 visionOS。
除了简单的一两句代码调用 AI 能力之外,框架贴心的提供了 @Generable
宏,可以直接描述要生成的类型,模型会返回结构化的 Swift 对象,省去了解析 JSON 的麻烦。
Tool calling 功能让模型能够调用 app 内的自定义代码,比如查询餐厅、天气等信息。这种能力结合 App Intents,让 AI 真正能够与我们的 app 深度集成。
但是,虽然这个端侧模型很美妙,但它毕竟是一个 3B 模型,主要针对总结、提取、分类等特定任务优化,不适合需要最新知识或高级推理的场景,具体模型的表现如何,就要等到正式上线才知道了。但对于大部分日常应用来说,应该是够用的。
AlarmKit
苹果总算是开放了闹钟的 API 了,一开始想着那不是可以做到节假日闹钟了么,后来仔细看了看代码,发现只能调用循环闹钟或者单个闹钟,估计做不到指定节假日闹钟,除非让用户每天都打开 App。对于独立开发者来说,这个框架可以关注一下,有一些能够结合的场景。
开发体验
这块主要是 Xcode 的更新:
- “起始页”选项卡和固定选项卡
- 类似“搜索引擎”的搜索模式
- 用于语音控制的 Swift 模式
- 侧边栏和上下文菜单中的 AI 辅助
- 改进的 SwiftUI 调试
- 改进的 UI 测试录制
说到这不得不吐槽一下 Xcode 的 AI 功能了,国内由于 AI 政策的限制,一直到现在都没有用上 AI 辅助开发,我已经基本上转战 cursor + Claude Code 了,Xcode 只作为一个调试工具使用。看了下 Xcode 上最新的 AI 功能,似乎没有什么特殊的功能特性,唯一的优点我觉得可能就是内置官方文档的知识库和原生的编辑体验,现在因为主力设备还不敢升级新系统,等正式升级之后我会测试体验一下 Xcode 的 AI 能力。
对了,国行设备是有办法可以绕过限制的。https://github.com/kanshurichard/enableAppleAI。
总结
以上就是我对这次 WWDC 大的观感,总得来说还行,但是有些特性和能力现在国内用不上还是挺遗憾的,后续我会对 App 进行新版本的适配,同时也会看一些具体的 session,把我的经验分享出来。
下一篇我会分享一下即写的 App 图标制作过程,教会你用简单的方法做出符合 Apple 设计风格的好看的图标。