真香!智谱大模型,有了首个免费的

机器之心编辑部

大模型API,正式进入Flash时代。

最近一段时间,国内外的大模型行业卷的是「快速版」。

5月谷歌I/O大会上,新发布的Gemini1.5大模型序列中出现了Flash版,主打轻量化和响应速度。到7月,OpenAI又在GPT-4o的基础上推出了Mini版,号称比当前最为先进的小模型能力更强,价格更低。

如果你现在访问ChatGPT,会发现原来的默认模型GPT-3.5已经消失,新的默认选项就是GPT-4omini。自2022年底一直沿用的GPT-3.5终于被取代了,真香!智谱大模型,有了首个免费的这不禁让人们感叹AI技术进步速度之快。

这一波技术迭代的背后,是直面应用的底层逻辑。新一代大语言模型继续保持多模态、长上下文等方面的性能优势,又因为速度和效率的大幅提升获得了更多开发者的青睐。

在实际应用场景中,新模型适用于处理高频次、相对简单的任务,禁得起人们的反复调用。现在想要开发一个使用生成式AI技术的产品,不再是一件难事了。

最近,国内大模型平台市场份额领先的智谱,也正式宣布了新模型,并提出了一系列提升AI开发效率的工具。

大模型开发便捷化

智谱此前已经上线了大模型的一键微调工具,这次更是决定将GLM-4-Flash免费。

智谱的最新版大模型GLM-4-Flash在6月份刚刚上线,在开放时API价格就已低至每100万token0.1元,吸引了大量开发者使用。不论是国内还是国外,很多人都在社交网络上po出了自己的使用心得。

这款大模型API的能力如何?我们自己也上手试了试。

首先,要想调用大模型能力,有最简单的方法:通过Python脚本进行体验。智谱的官网上提供了一些示例,只需将其中的apikey替换成自己的并修改其中的具体内容,就能很方便地使用这个大模型,比如可以在VSCode中使用它。

当然,你也可以将其集成到任何支持API接入的应用之中。比如在这里,我们可以将其引入到笔记软件Obsidian中。选择BMOChatbot插件,下载启用之后,我们进入其设置选项,找到APIConnections下的OpenAI。这里之所以选择OpenAI,是因为GLM-4-Flash的API协议基本与OpenAI一致。

之后在OpenAI-BasedURL中填入智谱的模型链接:https://open.bigmodel.cn/api/paas/v4/,并在OpenAIAPIKey填入我们需要使用的key。为了使用GLM-4-Flash模型,你还需要修改该插件的data.json文件,将glm-4-flash加入到openAIBaseModels中。

这样你就可以将GLM-4-Flash引入到你的笔记工作流程之中,以下展示了部署好的示例,我们让GLM-4-Flash分析了一篇有关视觉语言模型的文章并让其建议了一些标题。

当然,你也可以直接使用GLM-4-Flash生成文本笔记:

看起来效果都很不错。

另一方面,说到大模型微调,上周二OpenAI正式上线了大模型的微调功能,引发了AI领域的关注。

OpenAI的初衷,是帮助开发者能够低成本地构建个性化的应用。这次的智谱推出的大模型微调功能,也可以让我们通过微调工具,加入自身独有的场景数据,对平台提供的基础模型进行微调,快速使其定制化。这样做既符合了业务场景,也不需要进行复杂的调整或重新训练。

如果你认为基础模型无法满足复杂任务的需求时,使用微调可以获得更好的效果。微调可以让大模型表现出特定的风格,或是提高输出的可靠性,让大模型可以完成更加复杂的任务。

智谱目前已开放了GLM-4-Flash、GLM-4-9B等模型的LoRA微调和全参数微调能力。在微调的过程中,你需要准备并上传训练数据训练大模型,尝试部署并评估结果,最后完成的模型也可以快速部署。

我们可以看到,如今各家大模型公司提供的产品,越来越贴近实际需求了。这些充分考虑开发者,能够用起来的工具,对于AI的大规模应用来说意义重大。

Flash大模型意味着什么?

智谱提供的一系列新能力,背后作为支撑的基础都是GLM-4-Flash大模型。

GLM-4大模型是智谱在今年1月推出的新一代基座大模型,它在十余项指标上逼近或达到了大模型标杆GPT-4的水准。与此同时,GLM-4支持了更长的上下文、更强的多模态、更快的推理速度,以及更多并发请求,大大降低了推理成本。

在此基础上发展出的GLM-4-Flash,则带来了一系列技术优势:

GLM-4-Flash模型实测

GLM-4-Flash模型已经在大量测试中展现了能力。

从模型界面来看,GLM-4-Flash支持多轮对话、自定义系统指令构建(比如设定模型身份、任务目标)以及网页搜索、知识库搜索和函数调用等工具调用功能。

此外,用户也可以自由调整GLM-4-Flash对话窗口的最大tokens数量(输入上下文长度)、模型温度(控制生成的随机性和创造性)、top_p(控制回答风格,保证输出结果正确性的同时增加多样性)。

体验地址:https://open.bigmodel.cn/

测试1:先来一道前段时间让很多大模型翻车的「9.11和9.9哪个更大」问题,很容易就答对了。

类似的数字比较同样答对了。从解题思路来看,GLM-4-Flash掌握了正确的小数位比较方法。

而目前版本的GPT-4o全都翻车了。

测试2:此前研究机构LAION在一项研究中发现,GPT-3.5/4、Llama、Gemini、Claude和Mistral等大模型回答「爱丽丝(女性)有N个兄弟,有M个姐妹,那么爱丽丝的兄弟有多少个姐妹呢?」问题时,正确率非常低。

我们让GLM-4-Flash试了试,回答正确。

改变了主角性别和亲属关系之后,GLM-4-Flash同样可以理解,再次回答对了。

测试3:对于多人真假话判断问题,GLM-4-Flash能够理清各种假设情况,并最终给出了正确答案。

作为对比,GPT-4o回答错误。

比如2024巴黎奥运会中国体育代表团斩获金银铜牌的总数量,结果无误。

还有代码生成、视频脚本制作、角色扮演、文章扩写等一系列能力,据说能力都不错。

通用化AI的应用,已经跑起来了

如今,GLM-4-Flash已经上线两个月,人们都在用这款大模型做什么?很多人展示了自己的应用方向,或许能给我们带来一些启发。据介绍:

看来,在速度更快,性能足够强大的GLM-4-Flash版本上,一些简单垂直,需要快速响应的应用已经得到了充分的验证。

不过对于通用的大模型来说,还有很多功能有待人们的发掘。

8月27日,智谱BigModel开放平台正式宣布:GLM-4-Flash全部免费,同时开启限时免费微调活动。

GLM-4-Flash是智谱首次开放免费API的大模型

,支持长度达128K的上下文。在用户调用量上,智谱做到了原有调用用户并发不变,新用户有两个并发,还可以申请进一步提高。

而在GLM-4-Flash微调赠送额度上,如果立即申请,你可以获得500万token(3个月)的训练资源包

,限额2000位,先到先得。智谱还将开放GLM-4-Flash模型的微调权重下载,很快人们将可以自由选择部署平台。

这一系列行动,展示了国内大模型公司在应用层面的独特优势。在大模型技术对标国际先进水平的同时,国内AI的先头部队已经打磨好「内功」,通过系统优化大幅提升了推理效率。

现在,免费开放的大模型已经可以惠及广大开发者,让人不花一分钱就可以上线基于大模型的智能应用。

不论如何,是时候体验大模型的开发了,羊毛薅起来!

立即开始使用:

https://www.bigmodel.cn/login?utm_source=1&utm_campaign=20240827&_channel_track_key=g0qAokQG

免责声明:本网站部分内容由用户自行上传,若侵犯了您的权益,请联系我们处理,谢谢!联系QQ:2760375052

分享:

扫一扫在手机阅读、分享本文

妍浩

这家伙太懒。。。

  • 暂无未发布任何投稿。