豆包端开箱,从语音卷到了方言

出品|虎嗅科技组

作者|余杨

编辑|苗正卿

头图|视觉中国

8月22日,火山引擎AI创新巡展上海站开幕,活动展示了豆包大模型在综合评分、语音识别等方面的效果提升,语音能力是此次发布重点。

大模型团队聚焦了对话式AI实时交互,产出Seed-ASR,这项成果或许可以对标OpenAI于7月31日发布的ChatGPT全新高级语音模式。

根据当时社交媒体上发布的视频,OpenAI员工可以打断聊天机器人,并要求聊天机器人以不同的方式讲述故事,而聊天机器人则从容应对他们的打断并调整其响应。

简单来说,支持“边想边说”,

具备更强的上下文感知能力,因而有着更优秀的推理能力,更准确的回答结果。

引人注目的是,豆包

声称其语音能力支持一个模型识别

普通话和粤语、上海话、四川话、西安话、闽南语等多种中国方言。

这让我迫不及待想和它港言港语、川里川气几句。

接下来我将基于1.19.5_mac版本的豆包AIPC端

,测试AI文本伴读、截图识别

以及日前大热的AI看视频、AI方言识别

等功能,看看豆包相较于

各家网页版AI大模型

提供了哪些新的东西。

老规矩,着急的朋友可以直接下拉到总结环节。

AI文本伴读

首先是AI文本的伴读。

我打开一条新闻,下拉到总结部分,选中我想要辅助的段落,豆包自动出现了搜索、翻译、解释、复制

等功能。

在发现更多技能

中,是AI划词工具栏,下设文本的扩缩写、修正、润色等功能6项,改写为社交媒体文案或视频脚本等功能3项,生成周报、okr、代码纠错等功能4项,优缺点总结、抽取任务项、头脑风暴等6项,加之难以归类的,一共有22项模块功能可自定义置顶设置。

我选择了最基础的要求豆包解释,经过约25秒的等待,我获得了以下这些内容。

可以看出,豆包首先概括大意,接着是对话性更强的通俗阐释,亮眼的是,它主动识别并解释了所选文字段落的专有名词,如上文的“帕累托规则”。

至此,豆包这个模块所提供的22项功能是否能在智能化和个性化上显现出更深的理解能力,还有待观察,但可以明确的是,PC端后台运行时,我不需要复制粘贴到另一个窗口来搜索,甚至摘出专有名词单独搜索或提问了。

AI图片识别

当我使用豆包截图时,弹出了解题答疑、翻译、问问豆包

3个功能项,于是我选择了一道高中数学题请豆包解题答疑。

豆包不仅提供了截图区域的一道题的解题过程和答案,还提供了几道类似的题目及其解答。

但当我使用翻译和问问豆包时,不仅无法智能断句,还频繁出错。

考虑图片识别的难度,我切换了成段落的文本,然而并没有改善。

我又尝试了问问豆包

,下设整理图中核心内容

和提取文字

两个模块,我分别进行了尝试。

总的来说,核心内容整理功能的表现优秀,但文字提取甚至没有识别完整的图片,而这还是排列工整的铅字文。

AI看视频

AI看视频的功能目前仅限于b站视频,且需要在豆包界面中打开

并登录b站账号。

于是我随机选择了《晚酌的流派》第三季·第7集的内容,经过了约20秒的等待获得了以下内容。

可以看出,视频分段的时间轴中,AI的图文搭配并不准确,但基本上可以实现内容切分。

视频是日语配音,中文繁体字幕,大概也是为难豆包了。

视频开头对主旨有清晰概括,在右侧的文本总结中却并没有清晰体现。并且,在“对他人的感激”板块,视频中人物感谢的是鱼子小姐而不是牛田先生,豆包概括出错。

AI方言识别

官宣文中,豆包支持粤语、上海话、四川话、西安话、闽南语,豆包端开箱,从语音卷到了方言接下来则看看豆包能不能识别我的蹩脚粤语(没有我的家乡话,只有半年香港生活经历带来的蹩脚粤语,期待更多土著的使用体验分享~)

语言识别没有问题,豆包理解了“我想吃粥底火锅”,甚至提供了“北京哪里有好吃的粥底火锅?”的选择搜索项

,但消息发送后跳转到了AI搜索的对话界面,且回复我的是文本而不是语音。

另外,方言输入只在首页可以使用,我无法在对话界面继续以方言进一步输入。因此我需要一次次回到首页,而每一次的消息发送都将打开一个新的导航页窗口。。。

不过,能够方言输入仍然是较大的突破,总体表现差强人意。据了解,豆包的app端是支持语音回复的。

我尝试在手机app端以方言语音

输入了同一句话,豆包以普通话语音

回复了我,并提供了“北京哪里有好吃的粥底火锅?”的选择搜索项。

也就是说,豆包支持方言输入,暂不支持方言交互。

这一功能更多停留在趣味性和商务场合应用,譬如对方言参会者的会议记录整理。

总结环节

在我的想象中,桌面有一个AI电子人偶,它像我的猫一样为我提供情绪价值,还真正助理我handle我的一切。它像Siri一样容易唤醒,但比Siri更强大。

豆包的AI文本伴读在PC端可以跨应用服务,提供了22项模块功能,除了基础文本润色,还场景化了社畜、程序员、自媒体工作者的适用范围,它有着我想象中的基本面,但也有很大的探索和成长空间。

图片识别方面,解题答疑是不错的,相当于PC端的作业某帮和某猿。但考虑到PC端的用户群体,则期待豆包在高等数学 方面有深入的耕耘。毕竟,普通作业和试卷的解题答疑还是手机来得快,配合电子版题目或论文,才会产生PC端的需求。

AI看视频的分段和总结功能十分抢眼,尤其是科普视频,豆包大有可为。人文社科主题则是各家大模型的共同难题。

事实上,AI方言是我最期待的功能,

毕竟,“乡音无改鬓毛衰”,故乡有时是一串长长的菜单,有时是熟悉的“那味儿”。但整体看来,豆包的方言交互生态还有一段路要走。

方言对话所识别的,不仅是现代都市人的故乡情思。更重要的,是科技穿透冰冷的屏幕,对那些无法说出通用“中文”的人的关怀,他们以生命书写着无声的历史,却常常被历史遗忘,他们同样需要AI,以及AI附带的一切价值。

当方言从识别走到交互,豆包也许也会因此而走得更远。

如果你有观点、想法或想看的测评,欢迎和我交流。如果你喜欢这期内容,别忘了一键三连,因为这也是我探索更新的动力,我们下期再见~

免责声明:本网站部分内容由用户自行上传,若侵犯了您的权益,请联系我们处理,谢谢!联系QQ:2760375052

分享:

扫一扫在手机阅读、分享本文

梨杰

这家伙太懒。。。

  • 暂无未发布任何投稿。