教你怎样用Python进行语音识别

作者: CDA数据分析师 2019-11-20 12:30:21
 

教你怎样用python进行语音识别

网上找到一些例子,有一些成熟的模型,可以将语音转成文字。例如Cloud Speech API,但是需要你使用google云平台的前提。

speech recognition

对于python这一非常成熟的胶水语言,在网上找一些现成的工具包真的不是一个太难的问题。在GitHub上就发现了这样一个神奇的包:speech recognition

它可以支持实时翻译,当然前提是需要在机器上安装有关麦克风的依赖包;还可以支持将语音文件中的文字直接提取出来。通过speech recognition可以调用多种平台上的模型,比如google API,CMU sphinx,Microsoft Bing Speech,IBM Speech to Text,Wit.ai 等

离线转换

对于国内的网络环境,无法用google API来将语音数据转换成文本文件,因为在调用这个包的时候,需要连接到google。当然,你可以租用一个国外的VPS来做这件事情。

这里讲一下如何在不联网的情况下,依然可以通过python来将语音文件转换成文字。这里用到的包为sphinx,sphinx是由美国卡内基梅隆大学开发的大词汇量、非特定人、连续英语语音识别系统。

安装 sphinx

我本人所用的环境为ubuntu。

  1. imyin@develop:~/Downloads/phinx$ lsb_release -a 
  2. No LSB modules are available. 
  3. Distributor ID: Ubuntu 
  4. Description: Ubuntu 16.04.3 LTS 
  5. Release: 16.04 
  6. Codename: xenial 

在安装sphinx之前需要安装一些软件包

  1. sudo apt-get install gcc automake autoconf libtool bison swig python-dev libpulse-dev 

之后可以在相关网站上下载sphinxbase安装包,当然也可以直接clone github上的包

下载完之后进行解压

  1. tar zxpf sphinxbase-5prealpha.tar.gz 

修改文件名

  1. mv sphinxbase-5prealpha sphinxbase 
  2. ls sphinxbase 
  3.  
  4. AUTHORS doc indent.sh Makefile.am README.md src win32 
  5. autogen.sh .git LICENSE NEWS sphinxbase.pc.in swig 
  6. configure.ac include m4 README sphinxbase.sln test 

现在我们应该运行autogen.sh来生成Makefiles和其他一些脚本以备后续的编译和安装。

  1. ./autogen.sh 

下面开始源码安装

  1. make && sudo make install 

执行完以上命令之后,如果没有出现什么报错信息,就说明已经安装成功了,但是此时你的命令并不可以生效,在运行命令时会出现这样的错误。

  1. imyin@develop:~/Downloads/phinx/sphinxbase$ sphinx_lm_convert  
  2. sphinx_lm_convert: error while loading shared libraries: libsphinxbase.so.3: cannot open shared object file: No such file or directory 

还需要让系统加载目录/usr/local/lib,为了让系统每次启动时都可以自动加载,可以修改系统配置文件ld.so.conf

  1. sudo echo "/usr/local/lib" >> /etc/ld.so.conf 
  2. sudo ldconfig 

这时候,就可以通过sphinx_lm_convert命令将模型DMP文件转成bin文件

  1. sphinx_lm_convert -i zh_broadcastnews_64000_utf8.DMP -o zh_CN.lm.bin 

上面这行代码是将中文的模型DMP文件转成了bin文件。在安装完sphinx后默认只支持英文,在存放模型的路径下只有一个文件名为en-US,所以这里需要添加一个处理中文的模型,相关文件可以在这个网址中下载。

教你怎样用python进行语音识别

在python中使用sphinx

想要在python中使用sphinx的话,需要安装一些依赖包。

  1. pip install pydub -U # 负责将MP3文件转换为 wav 文件 
  2. pip install SpeechRecognition -U # 负责将语音转换成文字 
  3. sudo apt -qq install build-essential swig libpulse-dev # 为后面安装 pocketsphinx 做准备 
  4. pip install -U pocketsphinx # 为使用 sphinx  
  5. sudo apt-get install libav-tools # 为解决在调用 pydub 时出现的 warning :RuntimeWarning: Couldn't find ffmpeg or avconv - defaulting to ffmpeg, but may not work warn("Couldn't find ffmpeg or avconv - defaulting to ffmpeg, but may not work", RuntimeWarning) 

这时候,就可以启动ipython来试试效果了。

 
  1. file_path = '/home/imyin/Downloads/phinx/test_data' 
  2. r = sr.Recognizer() 
  3. hello_zh = sr.AudioFile(os.path.join(file_path, 'test.wav')) 
  4. with hello_zh as source: 
  5.  audio = r.record(source) 
  6.  
  7. r.recognize_sphinx(audio, language='zh_CN'
  8.  
  9. '今天 天气 很' 

可以看出,这个语音识别器已经生效了。但是我说的是“今天天气好热啊”。

看来sphinx中的模型并非很准呐,而且这只是一个短句子。我们接下来看看长句子的效果,我录了村上春树的《当我谈跑步时我谈些什么》中的一段内容。

那一年的七月里,我去了一趟希腊,要独自从雅典跑到马拉松,将那条原始的马拉松路线——马拉松至雅典——逆向跑上一趟。为什么要逆向跑呢?因为清晨便从雅典市中心出发,在道路开始拥堵、空气被污染之前跑出市区,一路直奔马拉松的话,道路的交通量远远少得多,跑起来比较舒适。这不是正式的比赛,自己一个人随意去跑,当然不能指望有什么交通管制。

  1. hello_zh = sr.AudioFile(os.path.join(file_path, 'test2.wav')) 
  2. with hello_zh as source: 
  3.  audio = r.record(source) 
  4.  
  5. r.recognize_sphinx(audio, language='zh_CN'
  6.  
  7. '南 音 扬 的 只有 领 过 球 的 立场 是 希望 让 猪只 处理 垃圾 土木工程 上 打球 运动 充满 温情 能 成功 吗 而 中止 了 对 印尼 商报 称 他 不是 没有 立场 谈 那 一 枚 其中 春天 从 雅典 市中心 出发 寸 厂 都 可 成功 突破 寻求 对 於 能 提升 统筹 署 取缔 一路 直奔 马拉松 和 阿 惹 山 活动 等 二十 个 队 中 重申 这 不是 正常 的 比赛 自己 一个人 却 一直到 当然 不能 说明 什么 这种 共识' 

呃,看到结果,我觉得可以用一个来形容:差劲。两个字来形容:太差劲!

当然,这个模型只是我直接从网上下载下来的。训练它时所用到的语料不会那么齐全,所以在测试时难免会出现不准确的情况。要想让模型更加准确,需要自己在利用sphnix继续训练模型。

相关办法在其官网上可以找到,也有相应的教程。感兴趣的朋友可以自行研究。

  1. Q: Why my accuracy is poor  
  2. Speech recognition accuracy is not always great. To test speech recognition you need to run recognition on prerecorded reference database to see what happens and optimize parameters.  
  3. You do not need to play with unknown values, the first thing you should do is to collect a database of test samples and measure the recognition accuracy. You need to dump speech utterances into wav files, write the reference text file and use decoder to decode it. Then calculate WER using the word_align.pl tool from Sphinxtrain. Test database size depends on the accuracy but usually it’s enough to have 10 minutes of transcribed audio to test recognizer accuracy reliably. The process is described in tutorialtuning. 

文中提到的教程网址是https://cmusphinx.github.io/wiki/tutorialtuning/

Google API

利用google API来处理语音识别则相当准确,不过需要连接google,以下是我在VPS中执行的一段代码,可以看出,它将我的录音精准地翻译成了文字。

教你怎样用python进行语音识别

但是如果录音文件较大的话,会运行时间很长,并且会返回一个超时的错误,这很是让我苦恼。

不过幸运的是,speech_recognition支持将语音文件进行截取处理。例如,我可以只处理语音文件中的前15秒钟的内容。

  1. with test as source: 
  2.  audio = r.record(source, duration=15) 
  3. r.recognize_google(audio, language='zh-CN'
  4. '那一年的7月里我去了一趟希腊有独自从雅典跑到马拉松江哪条原始的马拉松路线马拉松直雅典一想跑上一趟' 

从上面的结果看,简直比sphnix处理的效果好太多了。

通过看帮助文档发现speech_recognition不仅可以截取前面的录音,还可以截取中间的。

  1. In [18]: r.record? 
  2. Signature: r.record(source, duration=None, offset=None) 
  3. Docstring: 
  4. Records up to ``duration`` seconds of audio from ``source`` (an ``AudioSource`` instance) starting at ``offset`` (or at the beginning if not specified) into an ``AudioData`` instance, which it returns
  5.  
  6. If ``duration`` is not specified, then it will record until there is no more audio input. 

例如我想处理5秒至20秒之间的内容。

  1. with test as source: 
  2.  audio = r.record(source, offset=5, duration=15) 
  3. r.recognize_google(audio, language='zh-CN'
  4.  
  5. '要独自从雅典跑到马拉松江哪条原始的马拉松路线马拉松直雅典一项跑上一趟为什么要一想到呢因为星辰变从雅典市中心出发' 

今天就讲到这里。世界真奇妙,更多精彩,自己继续去发现吧!

Python 编程语言 语音识别
上一篇:自动驾驶正在加速卡车司机下岗 下一篇:现在人人都要准备的2020年六个事关职业生涯的技术趋势
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

使用Python和Keras创建简单语音识别引擎

语音识别是机器或程序识别口语中的单词和短语并将其转换为机器可读格式的能力。通常,这些算法的简单实现有一个有限的词汇表,它可能只识别单词/短语。但是,更复杂的算法(例如Cloud Speech-to-Text和Amazon Transcribe)具有广泛的词汇量,并包含方言、噪音和俚语。

不靠谱的猫 ·  2020-03-04 10:51:35
快来!建立你的第一个Python聊天机器人项目

利用Python,我们可以实现很多目标,比如说建立一个你专属的聊天机器人程序。聊天机器人程序不光满足个人需求,它对商业组织和客户都非常有帮助。大多数人喜欢直接通过聊天室交谈,而不是打电话给服务中心。

读芯术 ·  2020-02-26 17:39:18
为什么用Go编写机器学习的基础架构,而不是Python?

虽然Python是使用广泛的语言,并用于每个主要的机器学习框架中。然而,你能想象?在Cortex(将机器学习模型部署为API的开放源代码平台之一)代码库中,87.5%的代码都是使用GO编写。

读芯术 ·  2020-02-14 13:13:04
2020年,比较适合AI的5种编程语言

AI系统的开发必须有计算机代码,而计算机程序的开发有不同类型的编程语言可以选择。本文分析哪些编程语言最适合你的人工智能或机器学习用例开发。

CSDN App ·  2020-02-13 16:18:50
Golang还是Python?哪种语言更适合AI?

Google所开发的Golang正在成为机器学习和AI的主流编程语言,全球已有数百万用户。那么很多IT技术人员肯定会有这样的疑问,前些年火起来的Python在科学计算及AI领域也有广泛应用,那么这两者今后谁才是AI的菜呢?

橘子键盘手 ·  2020-02-07 12:55:29
常见的编码错误,再不避免就完了

犯错乃人之常情。然而,开发人员所犯的许多错误是可以避免的。如果能避免本文提到的这些常见错误,就能写出更好、更简洁的代码。

读芯术 ·  2020-01-30 18:00:18
我花了两年,从不懂Python变成了AI工程师

有一位小哥,从不知道Python到找到AI工程的工作,用时两年。他的文章在网上获得了5000多条点赞。

赖可 ·  2020-01-23 15:26:40
从事数据科学工作需要掌握哪些技能?

本文通过国外KDnuggets论坛上Simplilearn的统计结果和国内某知名招聘网站的招聘要求信息进行分析,详细介绍在数据科学的工作中,需要掌握哪一些技能以及工具,以及当下数据科学工作中,哪些技能和工具是从业人员的学习首选。

CDA数据分析师 ·  2020-01-09 17:28:39
Copyright©2005-2020 51CTO.COM 版权所有 未经许可 请勿转载