人工智能技术如今正在快速发展和应用,人工智能模型也是如此。拥有100亿个参数的通用模型的性能正在碾压拥有5000万个参数的任务特定模型,在从单一模型解决许多任务方面表现出了卓越的性能。
人工智能模型也正在变得多模态。微软公司的Florence 2和OpenAI公司的GPT-4V等新的视觉模型正在扩展这些模型的应用,以整合图像、视频和声音,将大型语言模型(LLM)强大的能力应用在数百万个新的用例中。
事实证明,在模型工程领域,规模越大越好,每个应用程序都经历了类似的发展:
运行在小型模型上的自动驾驶技术
自动驾驶技术仍然在小型模型上运行。虽然许多单一任务模型、专用传感器和精确的地图组合已经提供了令人印象深刻的原型,但目前的技术还没有提供支持司机日常所需的安全性或规模。
以下是阻碍自动驾驶技术发展的因素:
大型语言模型和长尾问题
在所有应用程序中,模型工程师使用大型语言模型作为超级强大的开发工具来改进模型工程过程的每个方面。大型语言模型已经被证明在开发和改进模拟环境,对大量数据集进行分类、理解和标记,以及解释和调试神经网络的“黑匣子”方面非常有用。
也许大型语言模型在开发过程中的最大优势之一是能够用自然语言表达复杂的、多步骤的逻辑,通过绕过对专家代码的需求来加快开发速度。这已经被证明在复杂的问题领域非常有用,例如文本摘要或代码完成与代码库之间的复杂依赖关系。
所有这些工程工具都可以广泛地改进开发工作,包括自动驾驶,但大型语言模型最有趣和最有影响力的应用是直接针对驾驶任务本身:对复杂的场景进行推理,并规划最安全的前进路线。
自动驾驶是一个特别具有挑战性的问题,因为某些边缘情况需要复杂的、类似人类的推理,远远超出传统的算法和模型。大型语言模型在超越纯粹的相关性,展示真正的“对世界的理解”方面表现出了希望。这种新的理解水平延伸到了驾驶任务,使司机能够在不需要明确训练的情况下,以安全和自然的方式在复杂的场景中导航。
现有的模型可能会被十字路口出现的建筑工人或事故现场周围的路线所迷惑,大型语言模型已经显示出了非常熟练地推理正确路线和速度的能力。大型语言模型提供了一条解决“长尾”的新途径,即处理前所未有的情况的能力。在过去的二十年,长尾一直是自动驾驶面临的根本挑战。
大型语言模型对自主任务的限制
如今,大型语言模型对于自主应用方面仍然存在一些限制。简单地说,大型语言模型需要变得更加可靠和更快。因此需要开发解决方案,而这正是开发人员努力工作的地方。
1.延迟和实时限制
司机的关键决策必须在不到一秒钟的时间内做出,而在数据中心运行的最新大型语言模型可能需要10秒或更长时间。
解决这个问题的一个方案是采用混合云架构,它用数据中心处理为车载计算系统提供补充。另一个方案是专门构建的大型语言模型,它可以将大型模型压缩成足够小、足够快,以适应汽车的应用。人们已经看到在优化大型模型方面有了显著的改进。Mistral 7B和Llama 2 7B已证明其性能可与GPT-3.5相媲美,参数数量级更少(70亿个参数对1750亿个参数)。摩尔定律和持续的优化应该会迅速将更多的这些模型转移到边缘。
2.幻觉
大型语言模型基于相关性进行推理,但并非所有相关性在特定场景中都有效。例如,自动驾驶车辆观察到一个人站在十字路口可能意味着停止(行人)、驶离(交警)或减速(施工工人)。正相关性并不总是给出正确的答案。当模型产生不能反映现实的输出时,将其结果称为“幻觉”。
基于人类反馈的强化学习(RLHF)通过将模型与人类反馈相结合来理解这些复杂的驾驶场景,为这些问题提供了一个潜在的解决方案。随着数据质量的提高,像Llama 2 70B这样的小型模型的性能与GPT-4不相上下,参数却减少了20倍(700亿个参数对1.7万亿个参数)。
研究项目也使更好的数据质量更容易扩展。例如,OpenChat框架利用了强化学习微调(RLFT)等新技术,在提高性能的同时避免了成本高昂的人类偏好标签。
3.新的长尾
大型语言模型已经编码了“一切”,但仍然可能没有涵盖所有特定于驾驶的概念,例如在繁忙的十字路口进行导航的能力。这里的一个潜在解决方案是采用长序列的专有驾驶数据训练模型,这些数据可以将这些更详细的概念嵌入模型中。例如,Replit使用来自其用户群的专有编码数据,通过微调不断改进其代码生成工具,性能优于Code Llama 7B等大型模型。
自动驾驶的未来发展
如今,自动驾驶尚未成为主流技术,目前只有少数自动驾驶车辆能够在最复杂的城市环境安全行驶。大型模型正在改变自动驾驶模型的开发方式,最终将改变自动驾驶技术——提供必要的安全性和规模,最终将这项技术交付给司机。