

人工智能公司长期以来一直吹嘘其产品的巨大规模和功能,但他们越来越多地关注更精简、更小的模型,他们说这将节省能源和成本。
像ChatGPT这样的程序是由被称为“大型语言模型”的算法支撑的,聊天机器人的创造者去年吹嘘说,它的GPT-4模型有近两万亿个“参数”——模型的基石。
GPT-4的巨大尺寸允许ChatGPT处理从天体物理学到动物学的任何查询。
但是,如果一家公司需要一个只知道老虎的程序,那么算法就可以小得多。
“你不需要知道《凡尔赛条约》(Treaty of Versailles)的条款,就能回答一个关于工程的特定元素的问题,”为企业提供人工智能和可持续发展咨询的公司Ekimetrics的劳伦特·菲利克斯(Laurent Felix)说。
b谷歌、微软、meta和OpenAI都开始提供更小的模型。
亚马逊也允许在其云平台上使用各种尺寸的模型。
亚马逊首席可持续发展官卡拉?赫斯特(Kara Hurst)最近在巴黎的一次活动上表示,这表明科技行业正朝着“清醒和节俭”的方向发展。
较小的模型更适合简单的任务,如总结和索引文档或搜索内部数据库。
例如,美国制药公司默克(Merck)正在与波士顿咨询集团(BCG)开发一种模型,以了解某些疾病对基因的影响。
“这将是一个非常小的模型,只有几亿到几十亿个参数,”波士顿咨询公司人工智能主管尼古拉斯?德贝勒方兹(Nicolas de Bellefonds)表示。
法国人工智能初创公司LightOn的负责人劳伦特·道特(Laurent Daudet)专门研究小型模型,他表示,与大型模型相比,小型模型有几个优势。
他表示,它们通常速度更快,能够“同时响应更多查询和更多用户”。
他还指出,他们不太需要能源——潜在的气候影响是人工智能的主要担忧之一。
需要大量的服务器阵列来“训练”人工智能程序,然后处理查询。
这些由非常先进的芯片组成的服务器需要大量的电力来驱动它们的运行和冷却。
Daudet解释说,更小的型号需要更少的芯片,使它们更便宜,更节能。
其他支持者指出,它们可以直接安装在设备上,完全不需要使用数据中心。
“这是减少我们车型碳足迹的方法之一,”法国初创企业Mistral AI的负责人阿瑟?门施(Arthur Mensch)去年10月对《解放报》(Liberation)表示。
洛朗·菲利克斯指出,在设备上直接使用也意味着更多的“数据安全和机密性”。
这些程序可以根据专有数据进行训练,而不必担心数据被泄露。
不过,大型程序在解决复杂问题和访问大范围数据方面仍具有优势。
De Bellefonds表示,未来可能会有两种模式相互交流。
他说:“将会有一个小型模型能够理解这个问题,并根据问题的复杂程度将这个信息发送给几个不同大小的模型。”
否则,我们的解决方案要么太贵,要么太慢,要么两者兼而有之。”