链载Ai

标题: 69.5K Star!Whisper:一个开源的通用语音识别模型 [打印本页]

作者: 链载Ai    时间: 10 小时前
标题: 69.5K Star!Whisper:一个开源的通用语音识别模型

Whisper 简介

Whisper[1] 是一个由 OpenAI 开发的通用语音识别模型,它通过大规模弱监督学习训练而成。

这个模型不仅能够进行多语言语音识别,还能进行语音翻译和语言识别,是一款多功能的语音处理工具。

项目特点

主要特点

使用场景

Whisper 适用于需要语音识别的各种场景,包括但不限于:

项目使用

安装步骤

  1. 安装Python
  1. 安装ffmpeg
sudoaptupdate&&sudoaptinstallffmpeg
brewinstallffmpeg
chocoinstallffmpeg
  1. 安装Whisper
pipinstall-Uopenai-whisper
pipinstallgit+https://github.com/openai/whisper.git
  1. 验证安装
whisper--help

命令行工具使用

Whisper 提供了命令行工具,可以方便地对音频文件进行语音识别。以下是一些基本的命令行使用示例:

#使用turbo模型转录音频文件
whisperaudio.flacaudio.mp3audio.wav--modelturbo

#指定语言进行转录
whisperjapanese.wav--languageJapanese

#将语音翻译成英文
whisperjapanese.wav--languageJapanese--tasktranslate

Python 接口使用

在 Python 程序中,Whisper 同样易于使用。以下是一个简单的使用示例:

importwhisper

#加载模型
model=whisper.load_model("turbo")

#转录音频文件
result=model.transcribe("audio.mp3")
print(result["text"])

参考文档


注:本文内容仅供参考,具体项目特性请参照官方 GitHub 页面的最新说明。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5