苹果全家桶接入ChatGPT 重塑iPhone、iPad 、Siri
2 周前 / 阅读约4分钟
来源:cnBeta
今天凌晨2点,OpenAI开启了第五天技术直播,宣布苹果的iPhone、iPad 、Mac和Siri可以原生使用ChatGPT。并且iPhone 16以上的手机可以使用高级视觉功能,而Siri也得到了极大的强化,现在能更深度的理解你提出的问题。

今天凌晨2点,OpenAI开启了第五天技术直播,宣布苹果的iPhone、iPad 、Mac和Siri可以原生使用ChatGPT。并且iPhone 16以上的手机可以使用高级视觉功能,而Siri也得到了极大的强化,现在能更深度的理解你提出的问题。

苹果的入局对生成式AI赛道来说影响巨大,凭借其全球数亿用户可以再一次拉升ChatGPT等产品的曝光度和使用范围,一个AI驱动硬件设备时代来临了。


今天的产品发布会基本上都是比较干货的使用案例展示。现在,iPhone 16 的相机可以使用ChatGPT 的高级视觉功能。

当用户拍摄照片或选择相册中的图片后,相机控制功能会对图像进行初步分析,提取图像中的关键元素,如人物、物体、场景等信息。然后,将这些信息传递给 ChatGPT 进行进一步的理解和处理。


例如,ChatGPT 能够识别出照片中的毛衣款式、颜色和图案等特征,并根据用户设定的标准(如趣味性、颜色、亮丽程度等)对毛衣进行排名。同时,ChatGPT 还可以根据图像内容提供相关的建议或信息,推荐与毛衣搭配的配饰或适合该场景的活动等。

在演示环节,ChatGPT特意点评了Sam Altman等人穿的毛衣,并解释每个人的穿搭特色和优势。


Siri 作为苹果移动端最主要的智能语音助手,在理解、生成、执行方面却一直不如意。现在可以和ChatGPT 一起协同工作了,为用户提供更准确、详细的回答。

例如,在组织圣诞派对的场景中,用户可以通过 Siri 向 ChatGPT 询问相关建议,如客人名单、音乐和娱乐安排等,ChatGPT 能够迅速给出一系列实用的想法,极大地提升了用户获取信息和规划活动的效率。


此外,用户现在也可以使用文生图功能,让ChatGPT理解并尝试生成相应的描述,例如,让它生成一张圣诞节的图片。


ChatGPT最强、基本的功能当然是文本生成与理解,现在MAC系统中可以原生使用它了。

在演示环节,特意用ChatGPT解读了49页o1模型的技术报告。ChatGPT 能够准确识别文档中提到的各种编码技术及其应用场景,并详细阐述了这些技术如何协同工作以提高模型的编码能力。


此外,ChatGPT能根据用户要求制作饼图来展示不同技术对编程能力的影响程度,展示了强大的数据可视化的能力。

ChatGPT也能够提供数据处理和分析的思路,帮助用户更好地理解数据之间的关系,为进一步的可视化操作提供了基础。例如,ChatGPT 可以计算出每种技术在文档中被提及的频率或重要性权重,并将这些数据以适合制作饼图的格式呈现给用户。

苹果太需要这个了。


OpenAI+ Apple = 梦想成真!


ChatGPT绝对是我在笔记本上使用最多的应用。我在手机上用得不太频繁,但在笔记本上几乎每天都用。太厉害了!


这是直接让ChatGPT取代Siri了


今天的节目突出了Apple Intelligence的不足之处,大部分工作都依赖于ChatGPT。


现在看来不得不买iPhone16了。