剖析苹果人工智能:传言、功能、研究和支持的设备
BGR2024年4月10日何塞-阿多诺的文章
2024年,苹果公司将全力发展人工智能。预计该公司将在WWDC主题演讲中推出多项人工智能功能,这些功能将与现有和即将推出的设备(从iPhone到iPad和Mac)配合使用。以下是我们所知道的有关苹果公司在人工智能方面所做努力的一切。
最新传闻
海通国际证券分析师杰夫-普认为,iOS18最终可能会在2024年底为iPhone带来生成式人工智能功能。他表示,苹果在2023年建立了几百台人工智能服务器,并将在2024年建立更多服务器。集邦也暗示苹果会购买AI服务器,因为AI服务器公司Supermicro希望"积极扩大努力,从包括苹果和Meta在内的客户那里获得AI订单"。
通过将基于云的人工智能和设备上的数据处理相结合,苹果最终将在2024年底之前将其生成式人工智能推广到iPhone和iPad上,这意味着它们将成为iOS18周期的一部分。
蒂姆-库克确认人工智能即将到来,但核心功能可能会留待以后推出
在苹果公司今年的首次财报电话会议上,公司首席执行官蒂姆-库克没有提到iOS18的名字。但是,他却两次提到了人工智能,并预告了即将发布的消息。在提醒电话会议上的人注意Vision Pro的发布之后,他又提到了人工智能。
库克表示,苹果将在人工智能方面花费"大量的时间和精力",今年晚些时候将公布具体细节:
像VisionPro发布会这样的时刻是我们在苹果公司赖以生存的原因。这也是我们从事这项工作的原因。这就是我们坚定不移地致力于突破性创新的原因,也是我们在努力丰富用户生活的同时,专注于将技术推向极致的原因。
展望未来,我们将继续投资于这些技术和其他塑造未来的技术。其中就包括人工智能,我们将继续在这方面投入大量的时间和精力,我们很高兴在今年晚些时候与大家分享我们在这一领域的工作细节。
尽管如此,蒂姆-库克的话仍不足以说服海通证券分析师杰夫-普。他认为,AAPL的股价被高估了,投资者应该谨慎对待iPhone15周期、AirPods、Mac和AppleWatch,以及"潜在的iPhone16"销量。
即使生成式人工智能功能将在今年晚些时候开始出现在iPhone上,但普预计,在配备A18和A18Pro芯片的iPhone16上,与人工智能相关的一些硬件升级将受到限制。"我们预计功能更强大的创人工智能将出现在2025年,很可能是iPhone17,这是一个提升苹果产品/服务业务的时机。"
功能
苹果在人工智能方面的努力可能包括几项新功能。尽管该公司已经在多款产品中使用了人工智能,但该公司通常称这些产品由"机器学习"或神经引擎芯片驱动。
在这些新功能中,彭博社的马克-古尔曼预计会有以下几项:
核心应用程序和生产力软件(Pages、Keynote)的自动总结和自动完成功能。这也是泄密者yeux1122的传言,称iOS18上的代码暗示了这一功能;
在Apple Music中更好地创建播放列表;
以人工智能为重点的Siri全面升级;
在新版Xcode中为开发者提供代码自动补全功能;
AppleCare工具可帮助员工帮助客户排除故障;
X用户NicolásÁlvarez还在iOS18代码中发现了Safari浏览助手功能。它将使用iCloudPrivateRelay的结构,以注重隐私的方式向苹果发送相关数据。
AjaxGPT:苹果会使用自己的聊天机器人吗?
《信息》称,苹果每天花费数百万美元来训练其大型语言模型(简称LLM)。该刊物称,虽然这项投资的大部分将集中在AppleCare支持上,但Siri团队计划将这些语言模型融入其中,使复杂的快捷键集成变得更加容易。
苹果团队认为,其最先进的语言模型AjaxGP可能比OpenAI的GPT-3.5更好。根据iOS17.4的代码,苹果正在测试四种人工智能模型。其中包括AjaxGPT、ChatGPT和谷歌的FLAN-T5。
最终,苹果的目标是改进其LLM并将其集成到iOS中,因此它将其测试结果与ChatGPT和FLAN-T5的设备上处理和在线处理进行了比较。不过,有报道称苹果不会向用户提供AjaxGPT。相反,库比蒂诺正在与谷歌洽谈Gemini的授权事宜,此前曾考虑过OpenAI的ChatGPT。
报道还称,苹果将在中国使用百度的生成式人工智能功能。百度的ErnieBot是ChatGPT的竞争对手,也是中国地方监管机构批准的40多个人工智能模型之一。考虑到该地区日益激烈的竞争,与苹果公司的合作将是百度的一大胜利。
苹果公司的文件表明了其在人工智能领域的努力方向
今年2月,苹果发布了一个革命性的人工智能模型,用于基于指令的图像编辑。根据苹果公司研究人员发表的一篇论文,基于指令的图像编辑通过自然指令提高了图像处理的可控性和灵活性,而无需详细描述或区域遮罩。这项研究表明,"通过LM进行跨模态理解和视觉感知响应生成的能力大有可为",因为他们研究了MLLM如何促进编辑指令和MLLM引导的图像编辑。
苹果公司制造的这种图像编辑人工智能模型可以为编辑过程提供简洁明了的指令,创建Photoshop风格的修改,优化照片质量,以及编辑图片的特定元素,如脸部、眼睛、头发、衣服和配饰。
MM1:苹果的人工智能模型
今年3月,苹果公司的研究人员发表了一篇论文,重点介绍了他们如何训练一个新的大型语言模型(LLM)。
这种LLM被称为MM1,可以同时整合文本和视觉信息。论文对各种架构组件和数据选择的重要性进行了有趣的探讨。研究人员说,与其他已发表的预训练结果相比,他们能够"证明对于大规模多模态预训练而言,使用图像字幕、交错图像文本和纯文本数据的精心组合,对于在多个基准中实现最先进的少拍结果至关重要"。
此外,他们还表明,"图像编码器连同图像分辨率和图像令牌数量具有重大影响,而视觉语言连接器设计的重要性相对来说可以忽略不计"。
苹果公司的MM1AI模型使用了多达300亿个参数的多模态模型系列,其中包括密集模型和专家混合模型变体,这些模型在预训练指标方面处于领先地位,并且在一系列既定的多模态基准上进行监督微调后取得了具有竞争力的性能。
ReALM可能优于OpenAI的GPT-4
苹果公司的研究人员发表了一篇关于新型人工智能模型的论文。据该公司称,ReALM是一种能够理解并成功处理不同语境的语言模型。有了它,用户可以询问屏幕上或后台运行的内容,而语言模型仍然可以理解上下文并给出正确的答案。
这是苹果公司在过去几个月里发表的第三篇有关人工智能的论文。这些研究只是预告了iOS18、macOS15以及苹果最新操作系统即将推出的人工智能功能。在论文中,苹果公司的研究人员说:"参考解析是一个重要问题,是理解和成功处理不同类型上下文的关键”。
其中一个例子是用户询问附近的药店。在Siri提供了一个列表后,用户可以问:"打电话给彩虹路上的那家"、"打电话给最下面的那家"或"打电话给这个号码(屏幕上显示的号码)"。Siri无法完成第二部分,但有了ReALM,这个语言模型就能通过分析设备上的数据来理解上下文,并完成查询。
这种辅助助手离发布还很遥远。但一旦苹果公司掌握了它,就可以将其与ReALM模型整合在一起。
兼容设备
目前,还不清楚哪些设备将使用苹果最新的人工智能功能,尽管目前的许多小工具都可能支持这些功能。
不过,一些产品更有可能利用最新功能,例如:iPhone16;M1iPad机型或更新机型;运行macOS15的苹果硅Mac。
声明:该文观点仅代表作者本人,本信息平台不持有任何立场,欢迎在下方【顶/踩】按钮中亮出您的态度。