本次更新中,OpenAI将为ChatGPT的Plus版个人用户和Teams版小型企业团队用户提供全新的语音功能。
用户只需通过说话,无需手动输入提示词和GPT对话,即可轻松享受AI助手的服务。
这一功能将首先在美国市场上线,并在未来几天内逐步推出。
紧接着,该功能将向OpenAIEdu和Enterprise计划的订阅者开放。
OpenAI赋予ChatGPT新语音版两种核心功能。
首先是存储自定义指令的功能,用户可以让语音助手记住自己的偏好和指令,以便在后续的对话中快速响应。
这类似于今年4月OpenAI为ChatGPT文本版本推出的记忆功能。
用户可以利用这些功能确保语音模式的个性化,让AI助手根据用户对所有对话的偏好做出响应。
新语音模式具备记忆用户希望语音助手表现何种行为的记忆功能。
这意味着,用户可以要求语音助手在特定情境下表达特定的情感或行为,如道歉、致歉等。
OpenAI在社交媒体上发布的一段视频展示了这一功能的实际应用场景。
在视频中,AI助手可以根据用户的需求,用标准的普通话向奶奶致歉,因为让奶奶等了很久。
这标志着人工智能技术在模拟人类情感表达方面取得了重要进展。
为了支持这一全新的语音功能,OpenAI推出了五种不同风格的新声音,包括Arbor、Maple、Sol、Spruce和Vale,加上之前老版语音模式推出的四种声音Breeze、Juniper、Cove和Ember,用户现在可以选择九种不同的声音与AI进行交流。
OpenAI还提高了部分外语的对话速度、流畅度和口音,以便更好地满足不同用户的需求。
值得注意的是,全新的语音功能适用于OpenAI的AI模型GPT-4o,不适用于最近发布的预览模型o1。
此次新语音功能的推出可谓姗姗来迟。
早在今年5月,OpenAI在推出新旗舰模型GPT-4o时就已经展示了语音模式VoiceMode。
当时,GPT-4o支持的ChatGPT声音像一名美国成年女性,可以即时回应请求。
由于需要确保功能的安全性和可靠性,OpenAI决定将语音模式的推出时间推迟到今年秋季。
经过一系列的测试和改进,OpenAI最终实现了这一重要的技术突破。
新的语音模式具备高度的个性化定制能力,可以更好地满足用户的需求。
新的过滤器可以确保软件能够发现并拒绝某些受版权保护的音频请求,以保护用户的合法权益。
新的语音模式仍然缺少一些在5月演示过的功能,比如计算机视觉功能。
这一功能可以让GPT仅通过使用智能手机的摄像头就对用户的舞蹈动作提供语音反馈。
这无疑是一个令人遗憾的缺失,但我们相信随着技术的不断进步,这些功能将在未来得到逐步完善和补充。
OpenAI的ChatGPT高级语音模式的推出是人工智能技术发展的一次重要里程碑。
这一功能将为用户带来更加便捷、个性化的交互体验。
我们期待这一技术的发展能够进一步推动人工智能在各领域的应用,为人们的生活带来更多便利和创新。
本文地址: https://www.gosl.cn/jsjcwz/94f08b6427701558e3cb.html
上一篇:技术革新助力鸿蒙系统前行...