IT之家报道,在不久前结束的OpenAI DevDay活动日上,人工智能领域的领先机构OpenAI宣布推出了一款全新的语音转录模型——Whisper large-v3-turbo。
这款模型在性能上实现了显著的提升,尤其在语音转录的速度方面,相较于之前的large-v3模型,其速度快了八倍,且在质量上几乎没有下降。
Whisper large-v3-turbo是OpenAI最新推出的语音转录模型,它是large-v3模型的优化版本。
相比其前身,该模型在保持了同样的高质量表现的同时,实现了惊人的速度提升。
在解码器层面,Whisper large-v3-turbo仅包含4层解码器层(DecoderLayers),而与之相比,large-v3模型则拥有32层。
这种设计优化使得模型的运行效率大大提高,从而实现了更快的转录速度。
Whisper large-v3-turbo模型共有8.09亿参数,比medium模型的7.69亿参数略大,但相对于OpenAI的large模型,其参数要小很多。
这一参数规模的设定,既保证了模型的性能,又控制住了模型的复杂度,使得模型更加轻量。
OpenAI表示,Whisper large-v3-turbo模型的速度优势不仅体现在转录速度上,还体现在其内存使用效率上。
相较于large模型,Whisper large-v3-turbo所需的VRAM仅为6GB,而large模型则需要10GB。
这一优化使得该模型在运行时对硬件资源的需求降低,更加适应各种设备,提高了模型的普及性和实用性。
据IT之家援引AwniHannun的测试结果,在M2Ultra上,Whisper large-v3-turbo模型将12分钟的内容转录为仅14秒。
这一结果充分展示了该模型在实际应用中的出色表现,证明了其在语音转录领域的领先地位。
OpenAI一直致力于为用户提供便捷的使用体验。
此次,OpenAI提供了在线体验功能,允许用户在线试用Whisper large-v3-turbo模型,无需下载即可感受其强大的性能。
同时,用户还可以从指定途径下载该模型。
OpenAI依然根据MIT许可证提供Whisper(包括代码和模型权重),为用户提供了开放和灵活的使用环境。
OpenAI新推出的Whisper large-v3-turbo语音转录模型在性能上实现了显著的提升,不仅在质量上保持了一流水准,还在速度上实现了突破。
其优化设计和参数调整使得模型更加高效和轻量,适应了各种设备的需求。
同时,OpenAI还提供了在线体验和下载功能,方便用户试用和获取模型。
总体来说,Whisper large-v3-turbo是OpenAI在语音转录领域的一次重要突破,有望为语音技术领域带来新的革新。
感兴趣的用户可以通过在线体验功能感受Whisper large-v3-turbo的强大性能,并期待其在未来为语音技术领域带来更多的创新和突破。
标签: AI、 OpenAI、本文地址: https://www.gosl.cn/hlzxwz/45d9dc9b19782a5193b0.html
上一篇:玄派玄熊猫PD87M系列键盘全新升级...