4,语音识别,从小程序云函数到自建服务器转码识别

本文记录我基于小程序云开发模式,进行小程序“口算卡”的全部历程,篇幅较长,分为以下篇章

  1. 需求概述及简单上手
  2. 小程序云函数使用(写入DB及读取DB)
  3. 小程序云函数(语音识别,从思路到实现到放弃使用云函数)
  4. 语音识别,从小程序云函数到自建服务器转码识别

折腾了小程序云函数,从实现到放弃;所以有了思路三,nodejs+socket+ffmpeg+百度SDK

必须有服务器可用来搭建 socket 服务哦

为啥选了nodejs,是因为云函数开发写了node,有些代码可以搬来直接用;

1,安装ffmpeg

2,安装nodejs

yum install nodejs

3,新建一个工作目录,我这里为 /opt/lampp/htdocs/wx-talk-wss

完成环境初始化及依赖安装

4,源码 https://github.com/myzingy/wx-talk-wss

5,执行 node wss.web.js  开启服务

针对 socket 优化的尝试

1,直接传递 farmeBuffer

2,ffmpeg 转码直接使用stream,需要将 buffer 转为 stream

3,语音辅助还没有上线,要达到高效率、高准确率,仅仅识别下远远达不到

4,经过不懈努力,已实现1个数字识别,可以进行辅助判断;

 

然而,然而,现实就是这么残酷,就是用了socket,也没法避免网络延时,就是1秒的延时对这个口算项目也不合适;

会造成ai判断跳到下一题,家长也点击跳到下一个,直接跳题的问题;

所以,我下架了这个功能


  1. 需求概述及简单上手
  2. 小程序云函数使用(写入DB及读取DB)
  3. 小程序云函数(语音识别,从思路到实现到放弃使用云函数)
  4. 语音识别,从小程序云函数到自建服务器转码识别
打赏
暂无评论

请到【后台 - 用户 - 我的个人资料】中填写个人说明。

发表评论