ios开发语音播报,ios145语音播报
iOS 原生语音播报的使用
注:原生的语音播报功能是在7.0以后才出现的,在使用时要注意判断当前版本号。
公司主营业务:做网站、网站制作、移动网站开发等业务。帮助企业客户真正实现互联网宣传,提高企业的竞争能力。创新互联建站是一支青春激扬、勤奋敬业、活力青春激扬、勤奋敬业、活力澎湃、和谐高效的团队。公司秉承以“开放、自由、严谨、自律”为核心的企业文化,感谢他们对我们的高要求,感谢他们从不同领域给我们带来的挑战,让我们激情的团队有机会用头脑与智慧不断的给客户带来惊喜。创新互联建站推出汕头免费做网站回馈大家。
#import AVFoundation/AVFoundation.h
@interface ViewController ()AVSpeechSynthesizerDelegate{
AVSpeechSynthesizer *_synthesizer;
}
if ([[[UIDevice currentDevice]systemVersion]integerValue]=7.0) {
NSString *broadCastStr = @"承德避暑山庄又名“承德离宫”或“热河行宫”,位于河北省承德市中心北部,武烈河西岸一带狭长的谷地上,是清代皇帝夏天避暑和处理政务的场避暑山庄始建于1703年,历经清康熙、雍正、乾隆三朝,耗时89年建成。避暑山庄以朴素淡雅的山村野趣为格调,取自然山水之本色,吸收江南塞北之风光,成为中国现存占地最大的古代帝王宫苑";
[self voiceBroadCastStr:broadCastStr];
}
[_synthesizer pauseSpeakingAtBoundary:AVSpeechBoundaryImmediate];
[_synthesizer continueSpeaking];
/**
*AVSpeechBoundaryImmediate, 立即停
AVSpeechBoundaryWord 说完一个整词再停
*/
[_synthesizer stopSpeakingAtBoundary:AVSpeechBoundaryImmediate];
1、AVSPeechSynthesizer:用于控制语音播报的“开始”,“暂停”,“继续”,“停止,”;且含有代理,帮助我们监听当前语音的播报状态。
2、AVSpeechUtterance(发声的对象):用于指定播报的内容,语言的属性\voice,播报的速率\rate,播报的音量\voiume,以及音高\pitchMultiplier
3、AVSpeechSynthesisVoice: 用于设置语音的属性,包括语言类型/language,语音播报者名称/name,语音的标识/identifier,以及quality。
/*例如:language:zh-CN name:Li-mu quality:1
identifier:com.apple.ttsbundle.siri_male_zh-CN_compact*/
/*支持的所有声音
__NSArrayM 0x1742487c0(
[AVSpeechSynthesisVoice 0x174013040] Language: ar-SA, Name: Maged, Quality: Default [com.apple.ttsbundle.Maged-compact],
[AVSpeechSynthesisVoice 0x174010210] Language: cs-CZ, Name: Zuzana, Quality: Default [com.apple.ttsbundle.Zuzana-compact],
[AVSpeechSynthesisVoice 0x174013400] Language: da-DK, Name: Sara, Quality: Default [com.apple.ttsbundle.Sara-compact],
[AVSpeechSynthesisVoice 0x174012b00] Language: de-DE, Name: Anna, Quality: Default [com.apple.ttsbundle.Anna-compact],
[AVSpeechSynthesisVoice 0x174012dc0] Language: de-DE, Name: Helena, Quality: Default [com.apple.ttsbundle.siri_female_de-DE_compact],
[AVSpeechSynthesisVoice 0x174013140] Language: de-DE, Name: Martin, Quality: Default [com.apple.ttsbundle.siri_male_de-DE_compact],
[AVSpeechSynthesisVoice 0x1740131c0] Language: el-GR, Name: Melina, Quality: Default [com.apple.ttsbundle.Melina-compact],
[AVSpeechSynthesisVoice 0x174012bc0] Language: en-AU, Name: Catherine, Quality: Default [com.apple.ttsbundle.siri_female_en-AU_compact],
[AVSpeechSynthesisVoice 0x174012d40] Language: en-AU, Name: Gordon, Quality: Default [com.apple.ttsbundle.siri_male_en-AU_compact],
[AVSpeechSynthesisVoice 0x174012ec0] Language: en-AU, Name: Karen, Quality: Default [com.apple.ttsbundle.Karen-compact],
[AVSpeechSynthesisVoice 0x174012b40] Language: en-GB, Name: Arthur, Quality: Default [com.apple.ttsbundle.siri_male_en-GB_compact],
[AVSpeechSynthesisVoice 0x174012c40] Language: en-GB, Name: Daniel, Quality: Default [com.apple.ttsbundle.Daniel-compact],
[AVSpeechSynthesisVoice 0x174013100] Language: en-GB, Name: Martha, Quality: Default [com.apple.ttsbundle.siri_female_en-GB_compact],
[AVSpeechSynthesisVoice 0x174013240] Language: en-IE, Name: Moira, Quality: Default [com.apple.ttsbundle.Moira-compact],
[AVSpeechSynthesisVoice 0x174012730] Language: en-US, Name: Aaron, Quality: Default [com.apple.ttsbundle.siri_male_en-US_compact],
[AVSpeechSynthesisVoice 0x174012d00] Language: en-US, Name: Fred, Quality: Default [com.apple.speech.synthesis.voice.Fred],
[AVSpeechSynthesisVoice 0x1740132c0] Language: en-US, Name: Nicky, Quality: Default [com.apple.ttsbundle.siri_female_en-US_compact],
[AVSpeechSynthesisVoice 0x1740133c0] Language: en-US, Name: Samantha, Quality: Default [com.apple.ttsbundle.Samantha-compact],
[AVSpeechSynthesisVoice 0x1740134b0] Language: en-ZA, Name: Tessa, Quality: Default [com.apple.ttsbundle.Tessa-compact],
[AVSpeechSynthesisVoice 0x174013280] Language: es-ES, Name: Monica, Quality: Default [com.apple.ttsbundle.Monica-compact],
[AVSpeechSynthesisVoice 0x174013380] Language: es-MX, Name: Paulina, Quality: Default [com.apple.ttsbundle.Paulina-compact],
[AVSpeechSynthesisVoice 0x174013440] Language: fi-FI, Name: Satu, Quality: Default [com.apple.ttsbundle.Satu-compact],
[AVSpeechSynthesisVoice 0x174012ac0] Language: fr-CA, Name: Amelie, Quality: Default [com.apple.ttsbundle.Amelie-compact],
[AVSpeechSynthesisVoice 0x174012c80] Language: fr-FR, Name: Daniel, Quality: Default [com.apple.ttsbundle.siri_male_fr-FR_compact],
[AVSpeechSynthesisVoice 0x174013080] Language: fr-FR, Name: Marie, Quality: Default [com.apple.ttsbundle.siri_female_fr-FR_compact],
[AVSpeechSynthesisVoice 0x1740134f0] Language: fr-FR, Name: Thomas, Quality: Default [com.apple.ttsbundle.Thomas-compact],
[AVSpeechSynthesisVoice 0x174012b80] Language: he-IL, Name: Carmit, Quality: Default [com.apple.ttsbundle.Carmit-compact],
[AVSpeechSynthesisVoice 0x174012f80] Language: hi-IN, Name: Lekha, Quality: Default [com.apple.ttsbundle.Lekha-compact],
[AVSpeechSynthesisVoice 0x1740130c0] Language: hu-HU, Name: Mariska, Quality: Default [com.apple.ttsbundle.Mariska-compact],
[AVSpeechSynthesisVoice 0x174012c00] Language: id-ID, Name: Damayanti, Quality: Default [com.apple.ttsbundle.Damayanti-compact],
[AVSpeechSynthesisVoice 0x174012a40] Language: it-IT, Name: Alice, Quality: Default [com.apple.ttsbundle.Alice-compact],
[AVSpeechSynthesisVoice 0x174012d80] Language: ja-JP, Name: Hattori, Quality: Default [com.apple.ttsbundle.siri_male_ja-JP_compact],
[AVSpeechSynthesisVoice 0x174012f00] Language: ja-JP, Name: Kyoko, Quality: Default [com.apple.ttsbundle.Kyoko-compact],
[AVSpeechSynthesisVoice 0x174013340] Language: ja-JP, Name: O-ren, Quality: Default [com.apple.ttsbundle.siri_female_ja-JP_compact],
[AVSpeechSynthesisVoice 0x1740135f0] Language: ko-KR, Name: Yuna, Quality: Default [com.apple.ttsbundle.Yuna-compact],
[AVSpeechSynthesisVoice 0x174012cc0] Language: nl-BE, Name: Ellen, Quality: Default [com.apple.ttsbundle.Ellen-compact],
[AVSpeechSynthesisVoice 0x174010060] Language: nl-NL, Name: Xander, Quality: Default [com.apple.ttsbundle.Xander-compact],
[AVSpeechSynthesisVoice 0x174013300] Language: no-NO, Name: Nora, Quality: Default [com.apple.ttsbundle.Nora-compact],
[AVSpeechSynthesisVoice 0x174012930] Language: pl-PL, Name: Zosia, Quality: Default [com.apple.ttsbundle.Zosia-compact],
[AVSpeechSynthesisVoice 0x174013000] Language: pt-BR, Name: Luciana, Quality: Default [com.apple.ttsbundle.Luciana-compact],
[AVSpeechSynthesisVoice 0x174012e40] Language: pt-PT, Name: Joana, Quality: Default [com.apple.ttsbundle.Joana-compact],
[AVSpeechSynthesisVoice 0x174012e00] Language: ro-RO, Name: Ioana, Quality: Default [com.apple.ttsbundle.Ioana-compact],
[AVSpeechSynthesisVoice 0x174013200] Language: ru-RU, Name: Milena, Quality: Default [com.apple.ttsbundle.Milena-compact],
[AVSpeechSynthesisVoice 0x174012f40] Language: sk-SK, Name: Laura, Quality: Default [com.apple.ttsbundle.Laura-compact],
[AVSpeechSynthesisVoice 0x174012a80] Language: sv-SE, Name: Alva, Quality: Default [com.apple.ttsbundle.Alva-compact],
[AVSpeechSynthesisVoice 0x174012e80] Language: th-TH, Name: Kanya, Quality: Default [com.apple.ttsbundle.Kanya-compact],
[AVSpeechSynthesisVoice 0x174013570] Language: tr-TR, Name: Yelda, Quality: Default [com.apple.ttsbundle.Yelda-compact],
[AVSpeechSynthesisVoice 0x174012fc0] Language: zh-CN, Name: Li-mu, Quality: Default [com.apple.ttsbundle.siri_male_zh-CN_compact],
[AVSpeechSynthesisVoice 0x174012950] Language: zh-CN, Name: Ting-Ting, Quality: Default [com.apple.ttsbundle.Ting-Ting-compact],
[AVSpeechSynthesisVoice 0x1740135b0] Language: zh-CN, Name: Yu-shu, Quality: Default [com.apple.ttsbundle.siri_female_zh-CN_compact],
[AVSpeechSynthesisVoice 0x1740129a0] Language: zh-HK, Name: Sin-Ji, Quality: Default [com.apple.ttsbundle.Sin-Ji-compact],
[AVSpeechSynthesisVoice 0x174013180] Language: zh-TW, Name: Mei-Jia, Quality: Default [com.apple.ttsbundle.Mei-Jia-compact]
)
*/
-(void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didStartSpeechUtterance:(AVSpeechUtterance *)utterance
{
NSLog(@"已经开始播报");NSLog(@"判断播报状态%u\n%u",_synthesizer.isSpeaking,_synthesizer.isPaused);//1,0
}
-(void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didPauseSpeechUtterance:(AVSpeechUtterance *)utterance
{
NSLog(@"已经暂停播报");
NSLog(@"判断播报状态%u\n%u",_synthesizer.isSpeaking,_synthesizer.isPaused);//1,1
}
-(void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didFinishSpeechUtterance:(AVSpeechUtterance *)utterance
{
NSLog(@"已经完成播报");
NSLog(@"判断播报状态%u\n%u",_synthesizer.isSpeaking,_synthesizer.isPaused);//0,0
}
-(void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didCancelSpeechUtterance:(AVSpeechUtterance *)utterance
{
NSLog(@"已经停止播报");
}
-(void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didContinueSpeechUtterance:(AVSpeechUtterance *)utterance
{
NSLog(@"继续播报");
NSLog(@"判断播报状态%u\n%u",_synthesizer.isSpeaking,_synthesizer.isPaused);//1,0
}
-(void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer willSpeakRangeOfSpeechString:(NSRange)characterRange utterance:(AVSpeechUtterance *)utterance
{
}
iOS自带TTS技术的实现即语音播报
文本转语音技术, 也叫TTS, 是Text To Speech的缩写. iOS如果想做有声书等功能的时候, 会用到这门技术.
这个类就像一个会说话的人, 可以”说话”, 可以”暂停”说话, 可以”继续”说话, 可以判断他当前是否正在说话.有以下的方法或者属性:
这是一个枚举. 在暂停, 或者停止说话的时候, 停下的方式用这个枚举标示. 包括两种:
合成器的委托, 对于一些事件, 提供了响应的接口.
AVSpeechSynthesisVoice定义了一系列的声音, 主要是不同的语言和地区.
这个类就是一段要说的话. 主要的属性和方法有:
这些类的关系如下:
iOS VOIP实现语音播报、网络电话
。。。。。。。
。。。。。。。
ios voip 推送---案例
java
php
验证.pem
。。。。。。。
注意⚠️ token 在 ahc 打包出来的是不一样的,切记
。1。。。。。。。。。。。。。。
如何生成.pem 证书 ,适用于PHP 。Java是.p12 证书
1、将之前生成的voip.cer SSL证书双击导入钥匙串
2、打开钥匙串访问,在证书中找到对应voip.cer生成的证书,右键导出并选择.p12格式,这里我们命名为voippush.p12,这里导出需要输入密码(随意输入,别忘记了)。
3、目前我们有两个文件,voip.cer SSL证书和voippush.p12私钥,新建文件夹命名为VoIP、并保存两个文件到VoIP文件夹。
4、把.cer的SSL证书转换为.pem文件,打开终端命令行cd到VoIP文件夹、执行以下命令
openssl x509 -in voip.cer -inform der -out VoiPCert.pem
5、把.p12私钥转换成.pem文件,执行以下命令(这里需要输入之前导出设置的密码)
openssl pkcs12 -nocerts -out VoIPKey.pem -in voippush.p12
6、再把生成的两个.pem整合到一个.pem文件中
cat VoiPCert.pem VoIPKey.pem ck.pem
最终生成的ck.pem文件一般就是服务器用来推送的。
但是我惊奇的发现,不管是对于生产pem,还是测试pem,这两个网址都可以进行验证
openssl s_client -connect gateway.sandbox.push.apple.com:2195 -cert ck.pem
openssl s_client -connect gateway.push.apple.com:2195 -cert apns-ck.pem
验证结果:
。2。。。。。。。。。。
后台使用的接口
开发接口:gateway.sandbox.push.apple.com:2195
发布接口:gateway.push.apple.com:2195
官网提供的是:
开发接口: api.development.push.apple.com:443
发布接口: api.push.apple.com:443
这两个接口都能使用一个是Socket连接的方式,一个是采用Http的方式
。3。。。。。。。。。。。
用终端命令行cd到我们的VoIP文件夹中(有5个证书),输入: php -f 文件名.php;
?php
$deviceToken = 'token'; //能通
//ck.pem密码
$pass ='******';
//消息内容
$message ='收到金额0.12元,来自支付宝扫码支付';
//数字
$badge =1;
$sound ='default';
$body =array();
$body['aps'] =array('alert'= $message);
//把数组数据转换为json数据
$payload = json_encode($body);
echostrlen($payload),"\r\n";
$ctx = stream_context_create([
'ssl'= [
'verify_peer' = false,
'verify_peer_name'= false
// 'cafile' = '/path/to/bundle/entrust_2048_ca.cer',
]
]);
// $pem = dirname(__FILE__) .'/'.'ck.pem';
stream_context_set_option($ctx,'ssl','local_cert','ck.pem');
stream_context_set_option($ctx,'ssl','passphrase', $pass);
// gateway.push.apple.com:2195 -- 正式环境
// gateway.sandbox.push.apple.com:2195 -- 开发环境
$fp = stream_socket_client('tls://gateway.push.apple.com:2195',$err,$errstr,60, STREAM_CLIENT_CONNECT|STREAM_CLIENT_PERSISTENT, $ctx);
if(!$fp) {
print "Failed to connect $err $errstr\n";
return;
}
else{
print "Connection OK\n
";
}
// send message
$msg = chr(0).pack("n",32).pack('H*', str_replace(' ','', $deviceToken)).pack("n",strlen($payload)).$payload;
print "Sending message :" . $payload . "\n";
fwrite($fp, $msg);
fclose($fp);
/*
35 Connection OK
Sending message :{"aps":{"alert":"A test message!"}}
*/
。补充。。。。。。。。。。。。。。
1、当app要上传App Store时,请在iTunes connect上传页面右下角备注中填写你用到VoIP推送的原因,附加上音视频呼叫用到VoIP推送功能的demo演示链接,演示demo必须提供呼出和呼入功能,demo我一般上传到优酷。
2、经过大量测试,VoIP当应用被杀死(双击划掉)并且黑屏大部分情况都能收到推送,很小的情况会收不到推送消息,经测试可能跟手机电量消耗还有信号强弱有关。 再强调一遍,测试稳定性请在生产环境测试。
3、如果不足和错误的地方,欢迎补充和改正,谢谢。
使用NotificationServiceExtension + App Groups实现iOS15离线语音播报推送消息
iOS15之后,不允许推送消息没有 body 值,所以iOS15之前循环发送本地通知来实现后台播放的语音消息的方式将不再可用。
所以我们将采用新的方式在 iOS15上实现后台播放语音消息,这种方式不会有震动多次的情况,而且声音是和推送消息一起出来的。
打开 Apple 开发者后台,选择 Identifiers ,创建一个App ID,并勾选 Push Notifications (配置推送证书的过程在此不再赘述,但必须要配置)
打开 Identifiers , 右侧下拉列表中选择 App Groups ,
打开主项目 App ID,勾选 App Groups ,并点击 Configure
步骤同主项目App ID 配置 App Groups。
在"Targets"中选择主项目Target,点击 + Capability ,在 App Groups 上双击,如图:
步骤同主项目App ID 配置 App Groups。
现在Xcode 中会有如下错误提示,则说明需要重新生成开发和生产的证书,因为App ID 中配置了 App Groups。
生成证书过程不再赘述。
需要准备几段音频,因为我们需要播放的是“微信到账11元”,所以第一段就是“微信到账”,然后就是0-9,点、十、百、千、万、元,可通过在线文字转音频网站处理。
把这些声音文件放在主项目中的任意位置就可以。
Have fun.
苹果手机语音播报怎么设置?
以iPhone 7手机为例,设置方法如下:
一、在手机桌面上找到“设置”一项的图标,然后点击进入。
二、进入到设置界面以后,找到“电话”一栏并点击进入。
三、进入电话以后,找到“来电时语音提示”一项,点击进入。
四、进入来电时语音提示以后,将“始终”一项勾选上即可。
iOS开发 - 语音播报功能的实现
近期项目中有个需求就是要实现类似微信或者支付宝的收款时的语音播报功能,于是笔者就开始了漫长的踩坑之路。
刚开始讨论实现方案时,安卓的小伙伴说可以使用WebSocket + 讯飞语音在线合成实现。于是最初的几天笔者自己也一直在这条路上走了很久,基本功能都已经实现了,项目在前台的时候,基本没问题。但是项目一进入后台大概半分钟的时间,就无法播报了。原因是iOS项目如果不做任何处理的话,在进入后台大概30s之后,程序就会进入类似休眠的状态,然后就不会再进行任何操作了
跟安卓的同事讨论之后,发现安卓有方法可以让程序一直在后台处于活跃状态,于是笔者也开始找寻保持项目后台运行的方法,大概有两种
在这里我们并没有发现,程序在后台收到推送时,作相应处理的方法,哪到底能不能收到推送后就进行处理呢?
iOS 10 之后 iOS推出了Notification Service Extension,我们可以在收到推送之后,通过这个Extension 我们可以有三十秒的时间来对这个推送进行处理
完成之后长这样
然后我们配置一下NotificationService
然后我们看下NotificationService.swift文件
在完成上述操作之后,再次收到推送的话,就会走NotificationService的逻辑了,可以打断点或者Log测试一下
需要注意的是 在推送的内容中 必须配置mutable-content字段,结构大致如下
做完上边的操作之后,我们可以知道什么时候去播报语音了,但是语音又要怎么去播报呢?
笔者这边也是试过几个方案,下边一一说来
笔者刚开始使用讯飞发现不行,然后又测试了系统自带的AVSpeech,发现也不好用,查资料才知道,苹果在近期的版本中,停用的在NotificationService中播放语音的功能,之前的某个版本应该可以这么操作。好吧,此方案Pass
既然不让我播,那我存起来总可以了吧,测试发现讯飞在线生成是可以的,也可以存到本地,但。。。是,UNMutableNotificationContent的sound好像只支持提前添加到项目中的文件,并不支持立即生成之后存到本地,然后再设置的功能。。。
笔者在项目中预先生成的文件如下(语音包通过百度语音开放平台在线生成 百度语音在下生成(拉到中间就有了) )
比如说我要播放“支付宝到账100元”,我就会发放多个通知,依次播放wx-pre,1,bai,yuan这几个语音,连贯起来就能达到要求
笔者能力有限,暂时想到的方法就是这个,有好的方法可以多多分享,沟通
网页标题:ios开发语音播报,ios145语音播报
文章位置:http://abwzjs.com/article/phgdji.html