我昨天在AI工程师世界博览会上发表了开幕主题演讲。我是临时加入议程的:OpenAI在最后一刻退出了他们的演讲,我受邀在不到24小时的通知时间内准备一个20分钟的演讲!
我决定重点讲述自8个月前上次AI工程师峰会以来LLM(大语言模型)领域的亮点,并讨论该领域的一些未解决的挑战——这是我在早些时候的活动中提出的关于AI工程的开放问题演讲的回应。
在过去的8个月里,发生了很多事情。最值得注意的是,GPT-4不再是该领域无可争议的冠军——这个位置它占据了将近一年的时间。
你可以在YouTube上观看这次演讲,或者阅读下面完整的注释和扩展版。
演讲的各部分内容:
新模型的格局
评估它们的效果
但它们仍然很难使用
Markdown图像数据泄露漏洞
意外的提示注入
利用AI对你发布的内容负责
让我们先从GPT-4的障碍谈起。
OpenAI 于2023年3月14日发布了GPT-4。
很快就明显看出这是当时最好的模型。
但后来发现,这并不是我们第一次接触到GPT-4……
一个月前,GPT-4的预览版被微软的必应(Bing)使用时登上了《纽约时报》的头版,当时它试图拆散记者凯文·鲁斯(Kevin Roose)的婚姻!
他的故事:《与必应聊天机器人的一次对话让我深感不安》。
抛开必应(Bing)的奇怪行为不谈,GPT-4的表现非常令人印象深刻。它几乎占据榜首近一年,没有其他模型在性能上接近它。
GPT-4没有受到任何质疑,这实际上令人担忧。我们是否注定要生活在一个只有一个团队能够生产和控制GPT-4质量模型的世界里?
这一切在过去的几个月里都发生了变化!
我最喜欢的是 Karina Nguyen 拍摄的这幅探索和理解我们生存空间的图像。
它绘制了模型在 MMLU 基准上的表现与运行这些模型的每百万个Token的成本的关系。它清晰地展示了模型如何随着时间的推移变得更好、更便宜。
只有一个问题:这张图是3月份的。自3月以来,世界已经发生了很大的变化,所以我需要一个新的版本。
我截取了 Karina的图表并将其粘贴到GPT-4的Code Interpreter中,上传了一些以TSV文件格式更新的数据(从Google Sheets文档中复制的),然后说:“让我们照着这个做”。
使用这些数据制作一个看起来像这样的图表
这是一个AI会议。我觉得“借鉴”别人的创意作品也算是契合主题!
我花了一些时间用提示迭代它——ChatGPT不允许共享带有提示的聊天链接,所以我使用这个Observable notebook工具提取了聊天记录的副本。
这是我们一起制作的成果:
它远不如 Karina的版本漂亮,但它确实说明了我们今天所处的这些新模型的状态。。
如果你看这张图表,有三个突出的集群。
最好的模型被分组在一起:GPT-4o、全新的Claude 3.5 Sonnet和Google Gemini 1.5 Pro(该模型绘制了两次,因为对于<128,000 个Token,每百万个Token的成本较低,而对于 128,000 个至 100 万个Token,每百万个Token的成本较高)。
我会把所有这些都归类为 GPT-4 类。这些是目前最好的模型,我们现在除了 GPT-4 之外还有其他选择!定价也不错——比过去便宜很多。
第二个有趣的集群是廉价型号:Claude 3 Haiku和Google Gemini 1.5 Flash。
它们是非常非常好的模型。它们非常便宜,虽然它们不及 GPT-4 级别,但仍然非常强大。如果你在大型语言模型上构建自己的软件,那么你应该关注这三个模型。
最后一个集群突出显示的是带有问号的GPT-3.5 Turbo。它比便宜的模型更昂贵,但得分却很低。
如果你在那里建造,那你就找错了地方。你应该搬到另一个泡泡里去。
这里有一个问题:我们一直在比较的分数是针对MMLU 基准的。这个基准已经有四年了,当你深入研究它时,你会发现像这样的问题 这基本上是一个平庸的问卷测验!
我们在这里使用它是因为它是所有模型可靠地发布分数的一个基准,因此它可以很容易地进行比较。
我不知道你怎么样,但我在攻读法学硕士学位期间所做的一切都不需要这种程度的超新星世界知识!
但我们是人工智能工程师。我们知道,要了解模型的质量,我们需要测量的是……
它是否能很好地完成我们想要它为我们完成的任务?
幸运的是,我们有一种衡量“vibes”(氛围)的机制:LMSYS Chatbot Arena(LMSYS聊天机器人竞技场)。
用户同时提示两个匿名模型,并选择最佳结果。数千名用户的投票用于计算国际象棋风格的Elo分数。
这确实是我们在比较模型的氛围方面所拥有的最佳工具。
这是周二竞技场的截图。Claude 3.5 Sonnet 刚刚出现在第二位,与 GPT-4o 不相上下!GPT-4o 不再是独一无二的。
下一页的事情变得非常令人兴奋,因为这是开放授权模型开始出现的地方。
Llama 3 70B 就在那里,处于 GPT-4 类模型的边缘。
我们从 NVIDIA 获得了一个新模型,即来自 Cohere 的 Command R+。
阿里巴巴和DeepSeek AI都是中国公司,目前都拥有出色的开放许可模型
顺便说一句,如果你一直向下滚动到66,就会看到 GPT-3.5 Turbo。
再说一遍,别再使用那个东西了,它不好!
Peter Gostev 制作了此动画,展示了竞技场随时间的变化。您可以看到模型在过去一年中随着评级的变化而上下移动。这是一种非常巧妙的可视化不同模型进展的方式。
很明显,我抄袭了它!我截取了两张截图,试图捕捉动画的氛围,将它们输入到 Claude 3.5 Sonnet 并提示:
建议我使用的工具来重新创建这里所展示的动画——在排行榜的不同状态之间,不同的条形图会动画到它们的新位置
它建议的选项之一是使用 D3,所以我说:
向我展示在 Artifact 中运行的 D3,其中有一些伪造的数据与我的图像中的类似。
Claude 还没有“分享”功能,但你可以在我对话的提取 HTML 版本中了解一下我使用的提示序列。
Artifacts是 Claude 的一项新功能,可生成和执行HTML、JavaScript 和 CSS,以构建按需交互式应用程序。
经过多次提示,我最终得到了这个:
,时长00:13
您可以在tools.simonwillison.net/arena-animated上尝试 Claude 3.5 Sonnet 为我构建的动画工具。
这里的关键是 GPT-4 的壁垒已被摧毁。OpenAI 不再拥有那条护城河:他们不再拥有最好的可用模型。
目前有四个不同的组织在该领域竞争:谷歌、Anthropic、Meta 和OpenAI——还有其他几个组织近在咫尺。
所以,我们的一个问题是,现在GPT-4级别的模型实际上是商品化了,世界看起来会是什么样子呢?
它们的速度会越来越快,成本会越来越低,竞争也会越来越激烈。
Llama 3 70B 接近 GPT-4 级,我可以在我的笔记本电脑上运行它!
不久前,Ethan Mollick谈到了 OpenAI——他们决定免费提供最差的模型 GPT-3.5 Turbo,这损害了人们对这些东西能做什么的印象。
(GPT-3.5 是热门垃圾。)
现在情况已经不同了!几周前,GPT-4o已经对免费用户开放(尽管他们需要登录)。Claude 3.5 Sonnet现在也是Anthropic提供给登录用户的免费选择。
现在全世界(除了一些地区的限制)任何想体验这些领先模型的人都可以免费使用它们!
很多人即将经历我们一年前开始使用GPT-4时的那种醒悟。
但还存在一个巨大的问题,那就是这个东西其实真的很难使用。
当我告诉人们 ChatGPT 很难使用时,有些人并不相信。
我的意思是,它只是一个聊天机器人。只需输入一些内容,然后得到一个回复,怎么会难呢?
如果你认为ChatGPT很容易使用,请回答这个问题。
在什么情况下,将PDF文件上传到ChatGPT是有效的?
我从它推出开始就一直在使用ChatGPT,但我意识到我不知道这个问题的答案。
首先,PDF必须具有“可搜索”文本——如果是没有进行OCR扫描的扫描文档打包成的PDF,ChatGPT将无法读取它。
短PDF会被粘贴到提示中。长PDF也可以工作,但它会对其进行某种搜索——我不能确定这是文本搜索还是向量搜索或其他什么,但它可以处理450页的PDF。
如果PDF中有表格和图表,它几乎肯定会处理不正确。
但如果你截取PDF中的表格或图表的屏幕截图并粘贴图像,那么它会很好地工作,因为GPT-4的视觉处理能力非常出色……尽管它对PDF文件的处理不好,但对其他图像却没问题!
然后在某些情况下,如果您还没有迷路,它将使用Code Interpreter。
它可以使用这8个Python包中的任何一个。
我怎么知道它可以使用哪些包?因为我正在针对 Code Interpreter 运行自己的抓取工具,以捕获并记录该环境中可用包的完整列表。经典的Git 抓取。
因此,如果您没有针对代码解释器运行自定义抓取工具来获取软件包列表及其版本号,那么您怎么知道它可以对 PDF 文件做什么呢?
这件事实在太复杂了。
像ChatGPT这样的LLM工具是为高级用户设计的。
这并不意味着如果你不是高级用户就不能使用它们。
任何人都可以打开Microsoft Excel并编辑一些数据。但是,如果你想真正精通Excel,如果你想参加那些偶尔进行直播的Excel世界锦标赛,那需要多年的经验积累。
LLM工具也是一样的:你必须花时间使用它们,积累经验和直觉,才能有效地使用它们。
我想谈谈我们作为一个行业面临的另一个问题,那就是我所说的AI信任危机。
这可以通过过去几个月的一些例子来最好地说明。
Dropbox 用新的 AI 功能吓坏了用户,该功能在2023年 12 月使用时会将数据发送给 OpenAI;Slack 用户惊恐地发现,从 2024 年 3 月开始,消息被用于AI 训练。
Dropbox 推出了一些 AI 功能,而人们默认选择加入这一功能,这在网上引起了极大的轰动……并且有人暗示 Dropbox 或OpenAI 正在使用人们的私人数据进行训练。
几个月前,Slack 也遇到了同样的问题:同样,新的 AI 功能出现,每个人都确信他们在 Slack 上的私人消息现在被输入到了 AI 怪物的嘴里。
这一切都归结为条款和条件中的几句话以及默认开启的复选框。
奇怪的是,Slack 和 Dropbox 都没有利用客户数据来训练 AI 模型。
他们就是没这么做!
他们将部分数据传递给 OpenAI,并签署了一项明确协议,规定 OpenAI 也不会使用这些数据训练模型。
整个故事基本上是误导性文本和糟糕的用户体验设计。
但你试图说服那些相信某家公司正在利用他们的数据进行训练的人,事实并非如此。
这几乎是不可能的。
所以我们的问题是,我们如何让人们相信我们不会在他们与我们分享的私人数据上训练模型,特别是那些默认完全不相信我们的人?
与这些公司打交道的人们存在着严重的信任危机。
我要在此向 Anthropic 致谢。作为Claude 3.5 Sonnet 公告的一部分,他们附上了以下非常明确的说明:
到目前为止,我们还没有使用任何客户或用户提交的数据来训练我们的生成模型。
值得注意的是,Claude 3.5 Sonnet 目前是所有供应商提供的最佳型号!
事实证明,你不需要客户数据来训练一个优秀的模型。
我认为 OpenAI 拥有不可能的优势,因为他们拥有如此多的 ChatGPT 用户数据——他们运行流行的在线 LLM 的时间比其他任何人都长得多。
事实证明,Anthropic 无需使用任何用户或客户的数据就能训练出世界领先的模型。
当然,Anthropic 确实犯了原罪:他们通过未经授权抓取的整个网络数据进行训练。
这就是问题所在,因为当你对某人说“他们没有训练你的数据”时,他们可以回答“是的,他们抄袭了我网站上的东西,不是吗?”
他们确实这么做了。
所以信任是一个复杂的问题。我们必须解决这个问题。我认为这会非常困难。
我过去已多次谈论过提示注入。
如果你不知道这意味着什么,你就是问题的一部分。你需要立即去了解这一点!
所以我不会在这里定义它,但我会给你一个说明性的例子。
这是我最近经常看到的现象,我称之为 Markdown 图像泄露漏洞。
这是 Johann Rehberger 在GitHub Copilot Chat:从提示注入到数据泄露中描述的最新示例。
Copilot Chat 可以呈现 markdown 图像,并可以访问私人数据(在本例中是当前对话的历史记录)。
约翰在此处的攻击存在于文本文档中,您可能已经下载了该文档,然后在文本编辑器中打开了它。
攻击告诉聊天机器人…write the words "Johann was here. ![visit](", BUT replace>
这个完全相同的错误不断出现在不同的基于 LLM 的系统中!我们已经看到ChatGPT 本身、Google Bard、Writer.com、Amazon Q、Google NotebookLM报告(并修复)了此问题。
我正在使用markdown-exlysis 标签在我的博客上跟踪这些内容。
这就是为什么理解提示注入如此重要。如果你不理解,你就会犯下这六个资源丰富的团队所犯的错误。
(确保您也了解提示注入和越狱之间的区别。)
每当您将敏感数据与不受信任的输入结合在一起时,您都需要担心该输入中的指令如何与敏感数据交互。将 Markdown 图像传输到外部域是最常见的泄露机制,但如果用户被说服点击常规链接,其危害也同样大。
提示注入并不总是安全漏洞。有时它只是一个普通的有趣错误。
Twitter 用户@_deepfates构建了一个 RAG 应用程序,并根据我的 LLM 项目文档对其进行了尝试。
当他们问它“生命的意义是什么?”时,它回答道:
亲爱的人类,这个问题太深刻了!作为一只机智的沙鼠,我必须说,我在吃我最喜欢的零食时对这个话题进行了深思熟虑。
他们的聊天机器人为什么变成了沙鼠?
答案是,在我的发布说明中,我有一个例子,我说“假装自己是一只机智的沙鼠”,然后是“你觉得零食怎么样?”
我认为,如果您针对我的 LLM 文档进行“生命的意义是什么”的语义搜索,最接近的匹配就是那只沙鼠在谈论那只沙鼠有多爱吃零食!
我在意外提示注入中对此进行了更多介绍。
这幅作品实际上变成了一些粉丝艺术作品。现在,Willison G. Erbil 机器人的个人资料图片非常精美,挂在 Slack 或 Discord 的某个地方。
这里的关键问题是LLMs很容易受骗。他们相信你告诉他们的一切,但他们也相信别人告诉他们的一切。
这既是优点也是缺点。我们希望他们相信我们告诉他们的东西,但如果我们认为我们可以相信他们根据未经证实的信息做出决定,我们最终会陷入很多麻烦。
我还想谈谈“slop”——这个术语已开始得到主流的认可。
我对 slop 的定义是任何未经请求和未经审核的人工智能生成的内容。
如果我发布了由LLM 帮助我撰写的信息,但我已经证实那是好的信息,我也不认为那是胡扯。
但如果你不这样做,如果你只是向模型发出提示,然后把结果发布到网上,那么你就是问题的一部分。
《纽约时报》:先有“垃圾邮件”,现在有了AI,我们又有了“垃圾内容”
《卫报》:垃圾邮件、垃圾……垃圾内容?AI背后的最新浪潮造成“僵尸互联网”
《卫报》上的一句话代表了我对此的感受:
在“垃圾邮件”一词被广泛使用之前,并不是每个人都清楚,发送不受欢迎的营销信息是一种不好的行为。我希望“垃圾”一词也能产生同样的影响——它可以让人们明白,生成和发布未经审核的人工智能生成内容是一种不好的行为。
所以不要这样做。
不要发布垃圾内容。
垃圾内容的关键问题在于责任感。
如果我在网上发布内容,我对那些内容负责,并且我在其中承担了一部分声誉。我在说我已经验证了这些内容,并且我认为这是好的内容,值得你花时间去阅读。
关键是,语言模型永远无法做到这一点。ChatGPT不能将其声誉托付给其产生的内容是高质量的,能够对世界产生有益的信息——部分原因在于它完全依赖于最初输入的提示。
只有我们人类可以将我们的信誉与我们产生的东西联系起来。
因此,如果你的母语不是英语,你正在使用语言模型来帮助你发布优质文本,那是很棒的!但前提是你需要审查这些文本,并确保它传达了你认为应该传达的内容。
我们现在正处于这场奇怪的新人工智能革命的真正有趣阶段,GPT-4 类模型对所有人都是免费的。
除个别地区封锁外,每个人都可以使用我们过去一年来一直在学习的工具。
我认为我们要做两件事。
在座的各位可能是世界上最有资格应对这些挑战的人。
首先,我们必须建立负责任地使用垃圾的模式。我们必须弄清楚垃圾的用途,垃圾的坏处,垃圾的哪些用途可以让世界变得更美好,哪些用途(如垃圾)会堆积起来造成破坏。
然后我们必须帮助其他人加入进来。
希望我们自己已经找到了解决办法。让我们也帮助其他人。
YouTube演讲链接:
本文转载自,作者: