据科技媒体MacRumors披露,苹果公司正在为iOS系统中的快捷指令功能开发一项突破性技术,该技术将整合生成式人工智能模型,实现自动化流程的智能创建。这项创新功能预计将随下一代iOS 27系统正式亮相,并与苹果正在重构的Apple Intelligence生态体系深度融合。
开发者Nicolás Alvarez在系统后端代码中发现,苹果正在测试一项自然语言处理能力,用户可通过语音或文字描述需求,系统将自动生成对应的快捷指令操作序列。这项技术突破意味着用户无需手动在应用中逐项配置参数,只需简单表述"每天早上自动播放新闻摘要"等需求,AI模型即可完成整个自动化流程的设计。
此前发布的iOS 26系统已为快捷指令引入基础AI支持,允许在自动化流程中调用AI模型完成特定任务。而新版本将实现质的飞跃,AI不再局限于执行预设任务,而是能够主动参与构建自动化逻辑。这种转变类似于从使用现成工具升级到拥有智能助手协助开发工具。
消息人士透露,该功能将与iOS 27中全面升级的Siri形成协同效应。新版Siri将通过系统级交互按钮提供更强大的AI服务,快捷指令界面也可能增设类似入口。用户既可以通过语音指令生成自动化方案,也能通过文本输入完成复杂流程设计,这种多模态交互方式将显著提升操作效率。
这项技术革新可能彻底改变自动化工具的使用方式。传统快捷指令需要用户具备一定技术基础,而AI驱动的自然语言生成机制将大幅降低使用门槛。普通用户无需学习复杂的配置规则,即可创建个性化的智能自动化方案,这标志着苹果正将AI能力深度植入系统底层应用场景。




