
根据彭博社的报道,苹果(Apple)正在开发一款更聪明、更强大的Siri版本,它将采用由Google开发的Gemini人工智能模型 。据传,苹果每年将支付Google约10亿美元,来使用这个拥有1.2兆参数的AI大型语言模型(LLM) 。
参数数量是衡量模型理解和回应能力的重要指标 。通常来说,参数越多,模型的功能就越强大,不过训练方式和架构也会影响实际效果 。据了解,Google Gemini模型的参数数量远超过苹果目前使用的AI模型 。
目前,苹果基于云计算的Apple Intelligence版本使用了1,500亿参数 ,但苹果自家其他AI模型的具体参数量则尚未公开 。
苹果计划将Gemini用于摘要、复杂任务的规划与执行等多步骤功能 。不过,Siri的部分功能仍会采用苹果自家开发的AI模型 。值得注意的是,Google为苹果开发的Gemini将在苹果专门的私有云服务器上执行,Google将无法访问任何苹果用户的数据 。
Gemini采用了“专家混合架构(Mixture of Experts, MoE)” 。虽然总参数超过一兆,但每次查询时只会启动部分参数 。这种设计的好处是既能保有强大的运算能力,同时也能降低运算成本 。
苹果先前曾经考虑采用自家的大型语言模型 ,也测试过OpenAI和Anthropic的解决方案 ,但最终因为Anthropic收费过高而选择了Google Gemini 。事实上,Google与苹果在搜索引擎领域早有长期合作 ,每年支付苹果约200亿美元 ,让Google成为苹果设备上的默认搜索引擎 。
尽管苹果现在依赖Google的AI技术 ,但他们并没有放弃自主研发 ,并计划在自家大型语言模型成熟后就转向使用自家方案 。据传,苹果正在开发一款拥有1兆参数的云计算模型 ,最快可能在2026年投入使用 。不过,苹果在开发过程中不太可能主动公开与Google的合作细节 。
原本,Siri计划在iOS 18中更新 ,但因为架构上的问题,已经延后到2026年春季的iOS 26.4版本 。届时,新版Siri将能够应对更复杂的问题 ,并在各应用程序之间完成更繁琐的任务 ,功能会接近Claude和ChatGPT 。不过,苹果目前并没有规划推出单独的聊天机器人应用程序 。
启远网配资-场外配资-配资网站查询-股票在线配资提示:文章来自网络,不代表本站观点。