苹果最快将在iOS 26.4中测试由Gemini驱动的Siri 可以读取屏幕进行自动化操作
好的,我现在需要帮用户总结这篇文章的内容,控制在100字以内。首先,我得通读整篇文章,抓住主要信息点。 文章主要讲苹果和谷歌合作,使用Gemini模型来增强Siri的功能。苹果计划在iOS 26.4测试版中展示这些新功能,Siri可以读取屏幕内容并执行操作,比如帮用户点奶茶。苹果还打算在iOS 27和macOS 27中引入聊天机器人功能,使用自己的模型V11,接近Google的Gemini 3水平。不过,苹果自己研发AI模型进展困难,所以暂时依赖谷歌,并支付费用。 接下来,我需要把这些要点浓缩到100字以内。要确保涵盖合作、新功能、未来计划以及苹果的挑战。同时,语言要简洁明了。 可能的结构是:苹果与谷歌合作,利用Gemini提升Siri功能,在iOS 26.4测试版中推出屏幕操作功能,并计划未来版本引入聊天机器人。同时提到苹果自研AI的困难和依赖谷歌的原因。 现在组织语言:苹果与谷歌合作使用Gemini模型提升Siri功能,在iOS 26.4测试版中实现屏幕操作,并计划在iOS 27和macOS 27引入聊天机器人功能。苹果自研AI困难,需依赖谷歌技术支持并支付费用。 检查字数是否在100字以内,并确保信息准确无误。 </think> 苹果与谷歌合作使用Gemini模型提升Siri功能,在iOS 26.4测试版中实现屏幕操作,并计划在iOS 27和macOS 27引入聊天机器人功能。苹果自研AI困难,需依赖谷歌技术支持并支付费用。 2026-1-26 04:11:59 Author: www.landiannews.com(查看原文) 阅读量:5 收藏

推广

推广

#人工智能 苹果最快将在 iOS 26.4 中测试由 Gemini 驱动的 Siri,可以读取屏幕执行操作,可能未来帮你打开外卖软件点奶茶都是小意思。彭博社马克古尔曼称 2 月份苹果将以某种形式向公众展示这些由 Gemini 驱动的新功能,新版 Siri 将提供更强大的功能而不是像玩具,而苹果的自研模型举步维艰,这也是苹果还是得靠其他 AI 公司的原因。查看全文:https://ourl.co/111602

本月初苹果宣布与谷歌建立合作伙伴关系,苹果长期以来在自己的人工智能模型研发方面举步维艰,因此后续苹果将主要使用谷歌的 Gemini 模型为未来的苹果智能 (Apple Intelligence) 提供支持。

彭博社知名编辑马克古尔曼发布最新消息称,苹果与谷歌的合作有望在下个月的 iOS 26.4 测试版中亮相,苹果计划以某种形式向公众展示这些由 Gemini 模型驱动的新功能。

iOS 26.4 测试版中的 Siri 将可以读取屏幕上的内容并代为为用户执行某些应用程序操作,可能后续用户只需要通过语音命令就可以让 Siri 帮助你打开外卖软件自动下单奶茶或咖啡。

苹果最快将在iOS 26.4中测试由Gemini驱动的Siri 可以读取屏幕进行自动化操作

值得注意的是基于隐私考虑苹果依然希望谷歌的模型能够在苹果的私有云计算上运行,为 Siri 提供服务的 Gemini 模型在苹果内部被称为 Apple Foundation Model V10,该模型使用包含 1.2 万亿参数的模型。

然而由于提供的功能非常复杂因此苹果无法完全离开谷歌的人工智能基础设施支持,也就是说部分服务通过苹果的私有云计算运行,部分服务可能仍然需要调用谷歌的人工智能基础设施运行。

马克古尔曼还透露苹果将在 iOS 27 和 macOS 27 中全面引入聊天机器人功能,这些功能将由 Apple Foundation Model V11 提供支持,这些模型的质量可能接近 Google Gemini 3。

至于苹果自己的人工智能模型目前并没有太多消息,但相信苹果应该是不会放弃自己研发模型的,毕竟使用谷歌模型还需要每年向谷歌支付 10 亿美元以及牵涉到隐私问题,自己研发模型后可以接近成本和隐私问题。

版权声明:
感谢您的阅读,本文由 @山外的鸭子哥 转载或编译,如您需要继续转载此内容请务必以超链接(而非纯文本链接)标注原始来源。原始内容来源:9to5mac


文章来源: https://www.landiannews.com/archives/111602.html
如有侵权请联系:admin#unsafe.sh