内容简介:听一下就会发现,播放出来的声音并不是预先录制好的音频资料,而是通过文字识别后合成的语音请先戴上耳机,然后将下面的代码复制到chrome控制台中体验~看,前端实现语音合成并不难
听一下就会发现,播放出来的声音并不是预先录制好的音频资料,而是通过文字识别后合成的语音
请先戴上耳机,然后将下面的代码复制到chrome控制台中体验~
let msg = new SpeechSynthesisUtterance("欢迎你阅读我的博客"); window.speechSynthesis.speak(msg); 复制代码
看,前端实现语音合成并不难
今天的主角 Speech Synthesis API
通过上面的例子我们可以猜测到上面调用的两个方法的功能
SpeechSyntehesisUtteranc window.speechSynthesis.speak
当然了,语音合成不仅仅包含这两个API,but我们先从这两点入手
SpeechSyntehesisUtteranc
参考: developer.mozilla.org/en-US/docs/… SpeechSyntehesisUtteranc
对象包含了语音服务要读取的内容和一些参数,比如语言,音高和音量
SpeechSyntehesisUtteranc() SpeechSynthesisUtterance.lang SpeechSynthesisUtterance.pitch SpeechSynthesisUtterance.rate SpeechSynthesisUtterance.voice SpeechSynthesisUtterance.volume
注意:以上属性都是 可读写 的! 可以把下面这段代码copy下来尝试一下,注释中会有说明
let msg = new SpeechSynthesisUtterance(); msg.text = "how are you" // 要合成的文本 msg.lang = "en-US" // 美式英语发音(默认自动选择) msg.rate = 2 // 二倍速(默认为 1,范围 0.1~10) msg.pitch = 2 // 高音调(数字越大越尖锐,默认为 1,范围 0~2 ) msg.volume = 0.5 // 音量 0.5 倍(默认为1,范围 0~1) window.speechSynthesis.speak(msg); 复制代码
同时这个对象还可以响应一系列事件,可能会用到的:
start end boundary pause resume
借助这些事件我们可以完成一些简单的功能,比如英文句子的单词数量统计:
let count = 0; // 词语数量 let msg = new SpeechSynthesisUtterance(); let synth = window.speechSynthesis; msg.addEventListener('start',()=>{ // 开始阅读 console.log(`文本内容: ${msg.text}`); console.log("start"); }); msg.addEventListener('end',()=>{ // 阅读结束 console.log("end"); console.log(`文本单词(词语)数量:${count}`); count = 0; }); msg.addEventListener('boundary',()=>{ // 统计单词 count++; }); 复制代码
经过尝试,由于中文没有用空格将每个词语分开,所以会进行自动的识别,比如 欢迎读者
会被识别为 欢迎
和 读者
两个词语
SpeechSynthesis
参考: developer.mozilla.org/en-US/docs/…
说完了 SpeechSyntehesisUtteranc
我们再来看看 SpeechSynthesis
SpeechSynthesis
的主要作用是对语音进行一系列的控制,比如开始或者暂停
它有三个只读属性,表明了语音的状态:
SpeechSynthesis.paused SpeechSynthesis.pending
同时还有一系列方法用来操作语音:
-
SpeechSynthesis.speak()
开始读语音,同时触发start
事件 -
SpeechSynthesis.pause()
暂停,同时触发pause
事件 -
SpeechSynthesis.resume()
继续,同时触发resume
事件 -
SpeechSynthesis.cancel()
取消阅读,同时触发end
事件
基于这些操作方法,我们可以进一步增强我们的文字阅读器:
回到最初的起点
让我们回到最初的起点,我们可以基于上面的内容猜测一下有些网站中,文章的自动阅读是怎么实现的
如果这个网站前端采用了 MVVM 框架(以 Vue 为例),那么文章内容是也许存储在 data 中,可以用来构造我们需要的语音合成
当然,也有可能文章是通过 ajax 请求得到的,解析请求的数据,构造语音合成对象
如果文章是直接在 html 中写死的,这个时候就需要对 DOM 进行解析,经过测试,即便是下面这样的混乱的结构
<div id="test"> <p>1</p> <p>2</p> <ul> <li>3</li> <li>4</li> </ul> <table> <tr> <td>5</td> <td>6</td> </tr> <tr> <td>7</td> <td>8</td> </tr> </table> <img src="https://www.baidu.com/img/bd_logo1.png" alt=""> 9 </div> 复制代码
直接通过 innerText 读取其中的文本,然后构造语音合成对象,也能按照期望顺序阅读(图片会被忽略)
当然如果我们想要忽略一些特殊的结构,比如表格,我们可以花一些精力在解析上,把我们不想要的数据或者 DOM 元素筛掉
不管怎样,我们都能找到合适的解决方案~
闲话
这个特性,是一个还在草案中的特性,没有被广泛支持
再次强调,这个 API 暂时还不能应用到生产环境中
目前比较通用的做法是在后端构造将文本合成成语音文件的 API(也许是第三方 API),然后在前端作为媒体播放
曾经在我迷茫的时候,我去阅读一些大牛的文章,读到一些前辈对前端开发的思考。其中有一点令我印象深刻:
前端是最贴近用户的,一切要从用户的的角度考虑,无障碍使用也是一个很重要的课题。虽然做这样的功能带来的收益远远小于其他业务,但是为了让产品更好的服务用户,多付出一些劳动也是值得的,这也是前端开发的一种精神
如果有什么问题,意见,建议欢迎评论;如果觉得我写的不错,那就点个赞吧~
以上所述就是小编给大家介绍的《你所不知道的HTML5——语音合成》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 极大提升合成速度,百度提出首个全并行语音合成模型ParaNet
- 标贝科技:TensorFlow 框架提升语音合成效果
- Python实战---制作专属有声小说(调用百度语音合成接口)
- 开源声码器 WORLD 在语音合成中的应用
- Ekho 7.7.1 Linux 纪念版发布,中文语音合成
- FastSpeech语音合成系统技术升级,微软联合浙大提出FastSpeech2
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
创意,未来的工作方式
方军 / 中信出版社 / 2016-11-20 / 58.00元
知识工作者已成过去,创意工作者才是未来 工作的本质是创意 纵观我们身处的世界,除了自然美景,世间或伟大或平凡的事物,几乎都是人观念革新的产物,它们多数是我们在工作过程中群体创意的产物。 从工业时代到知识时代,大多数人通过掌握新知、持续学习,获得社会的认可和回报;但进入以大数据、人工智能、机器人为标志的新时代,单纯的学习已经不能满足社会对人的要求。算法和机器人正在取代人类很多重复性......一起来看看 《创意,未来的工作方式》 这本书的介绍吧!