根据《华尔街日报》(WSJ)发表的一份报告,苹果已经对其员工如何使用ChatGPT等人工智能工具实施了限制--鉴于这家库比蒂诺科技公司对泄密事件的警惕性是出了名的,这并不令人惊讶。华尔街日报》的报道表明,苹果的员工不会因为永远缺乏人工智能协助而处于不利地位,因为苹果正忙于创造 "自己的类似技术"。该报告的依据是一份似乎支持这些说法的苹果内部文件,以及 "熟悉此事 "的匿名人士。
使用基于大型语言模型(LLM)的人工智能的问题之一是,这些工具通常使用其互动--输入、问题等--作为训练数据。早在4月份,三星就遇到了这种问题,当时ChatGPT使用的专有数据被泄露了。这家韩国科技巨头的工厂工程师正在使用ChatGPT协助编码、做笔记,以及进行有关工厂性能和产量的数据分析,有三次数据泄露的情况被追溯到ChatGPT的使用。
ChatGPT不仅容易通过培训泄露其他用户的数据--像所有软件一样,它也有漏洞和错误。在本周早些时候,我们看到了它的漏洞,即通过YouTube转录的提示注入。3月,ChatGPT被发现其部分用户可以看到其他用户聊天记录的标题,因此被短期下线。
在有关数据安全的报告增长之后,OpenAI推出了新的隐私控制以及用于人工智能协助敏感文件的 "隐身模式"。也许,这些步骤对苹果来说还不够深入。华尔街日报》报道中特别提到的另一个人工智能工具是GitHub的Copilot(微软),它被开发者用来通过其智能代码自动完成功能来节省时间。
关于苹果公司在自己所谓的LLM人工智能方面的进展,人们知道的不多。近年来,该公司已经抢购了各种与人工智能有关的公司,并雇用了约翰-詹南德雷亚等人,他是一位曾在谷歌搜索和人工智能团队工作的执行官。微软和谷歌在人工智能竞赛中火力全开,甚至将其人工智能驱动的应用程序和小工具投向苹果的iOS商店,所以苹果不能对自己的解决方案太过耐心。
苹果的开发者大会,即WWDC23,将于6月23日拉开帷幕,所以也许它很快就会为我们带来一些人工智能的消息。可能会有人工智能增强的Siri宣布,以及备受期待的Reality Pro AR/VR头盔,新的Mac,以及新的桌面、移动和可穿戴操作系统。