非常感谢大家利用自己宝贵的时间来阅读我的文章 , 今天给大家带来的是一个集成讯飞语音识别功能的小demo,为textview添加一个语音输入的功能,相信在这个智能化趋势的大环境的下,很多人能用得到这个功能。如果需要的话希望能帮到你 , 当然, 有任何不妥的地方 欢迎指正。
先上demo --->XunFeiDemo
效果展示:
功能实现,sdk中提供了两种方式,一种是带界面的语音识别,有一个识别语音的动画的界面效果。另一种是无界面的。我这里使用的是带界面的,不带界面的自己可以去看一下,大同小异
第一步:去讯飞开发者平台注册账号、创建应用、下载SDK、拖入项目
第二步:添加依赖库
1
2
3
4
5
6
7
8
9
10
|
libz.tbd AVFoundation.framework SystemConfiguration.framework Foundation.framework CoreTelephony.framework AudioToolbox.framework UIKit.framework AddressBook.framework CoreLocation.framework CoreGraphics.framework |
第三步:AppDelegate配置
1
2
3
4
5
6
7
8
9
10
|
- (BOOL)application:(UIApplication *)application didFinishLaunchingWithOptions:(NSDictionary *)launchOptions { //存储路径 NSArray *paths = NSSearchPathForDirectoriesInDomains(NSCachesDirectory, NSUserDomainMask, YES); NSString *cachePath = [paths objectAtIndex:0]; [IFlySetting setLogFilePath:cachePath]; //创建语音配置,appid必须要传入,仅执行一次则可 NSString *initString = [[NSString alloc] initWithFormat:@"appid=%@",@"你的appid"]; //所有服务启动前,需要确保执行createUtility [IFlySpeechUtility createUtility:initString]; } |
第四步:把demo里的ISRDataHelper.h及.m文件拖入项目中
第五步:控制器代码
1、引用头文件
1
2
3
|
#import "iflyMSC/IFlyMSC.h" #import "ISRDataHelper.h" |
2、初始化_iflyRecognizerView
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
|
//有界面 -(void)initRecognizer{ //单例模式,UI的实例 if (_iflyRecognizerView == nil) { //UI显示剧中 _iflyRecognizerView= [[IFlyRecognizerView alloc] initWithCenter:self.view.center]; [_iflyRecognizerView setParameter:@"" forKey:[IFlySpeechConstant PARAMS]]; //设置听写模式 [_iflyRecognizerView setParameter:@"iat" forKey:[IFlySpeechConstant IFLY_DOMAIN]]; } _iflyRecognizerView.delegate = self; if (_iflyRecognizerView != nil) { //设置最长录音时间 [_iflyRecognizerView setParameter:@"30000" forKey:[IFlySpeechConstant SPEECH_TIMEOUT]]; //设置后端点 3000 [_iflyRecognizerView setParameter:@"3000" forKey:[IFlySpeechConstant VAD_EOS]]; //设置前端点 3000 [_iflyRecognizerView setParameter:@"3000" forKey:[IFlySpeechConstant VAD_BOS]]; //设置采样率,推荐使用16K 16000 [_iflyRecognizerView setParameter:@"16000" forKey:[IFlySpeechConstant SAMPLE_RATE]]; // if ([instance.language isEqualToString:[IATConfig chinese]]) { // //设置语言 zh_cn [_iflyRecognizerView setParameter:@"zh_cn" forKey:[IFlySpeechConstant LANGUAGE]]; // //设置方言 mandarin [_iflyRecognizerView setParameter:@"mandarin" forKey:[IFlySpeechConstant ACCENT]]; // }else if ([instance.language isEqualToString:[IATConfig english]]) { // //设置语言 // [_iflyRecognizerView setParameter:instance.language forKey:[IFlySpeechConstant LANGUAGE]]; // } // //设置是否返回标点符号 0 [_iflyRecognizerView setParameter:@"1" forKey:[IFlySpeechConstant ASR_PTT]]; } } |
3、按钮点击响应
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
|
-(void)startBtn{ if (_iflyRecognizerView == nil) { [self initRecognizer ]; } //设置音频来源为麦克风 [_iflyRecognizerView setParameter:IFLY_AUDIO_SOURCE_MIC forKey:@"audio_source"]; //设置听写结果格式为json [_iflyRecognizerView setParameter:@"plain" forKey:[IFlySpeechConstant RESULT_TYPE]]; //保存录音文件,保存在sdk工作路径中,如未设置工作路径,则默认保存在library/cache下 [_iflyRecognizerView setParameter:@"asr.pcm" forKey:[IFlySpeechConstant ASR_AUDIO_PATH]]; [_iflyRecognizerView start]; } |
4、代理方法,结果解析
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
- (void)onResult:(NSArray *)resultArray isLast:(BOOL)isLast { NSMutableString *result = [[NSMutableString alloc] init]; NSDictionary *dic = [resultArray objectAtIndex:0]; for (NSString *key in dic) { [result appendFormat:@"%@",key]; } self.textField.text =[NSString stringWithFormat:@"%@%@",_textField.text,result]; [_iflyRecognizerView cancel]; } - (void)onError: (IFlySpeechError *) error { NSLog(@"识别出错"); } |
恩,理论上到这里就算完成~,这里仅提供一个参考,具体使用请查看集成文档
以上这篇为textView添加语音输入功能的实例代码(集成讯飞语音识别)就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持服务器之家。
原文链接:http://blog.csdn.net/xiaozhaoqiang/article/details/79066806