開発したいアプリのアイデアがありますが、オブジェクティブ C と iOS API の学習に多くの時間を費やす前に、やりたいことが実現可能かどうかを確認したいと思います。
私が作りたいアプリは、Google Glass の純粋な聴覚 (音のみ) バージョンです。私は視覚障害者なので、視覚的なものに多額のお金を費やしても、コンテンツを読むことはできますが、それだけの価値はありません。しかし、iPhone を使って Google Glass と同じオプションの多くを提供できれば、それは素晴らしいことです。
片手に杖を持ち、もう一方の手に何かを持っているため、iPhone に簡単にアクセスできない通りを歩いているときに、何度も情報が必要でした。そんな時、コマンドを発すると音声で反応してくれたら最高です。
Apple イヤホンに内蔵されているマイクを音声入力に使用したいのですが、画面がロックされているときに音声入力を聞くことができるかどうかはわかりません。ジェイルブレイクされていないiPhoneでは不可能だと確信しています。
これが可能かどうか誰でも教えてもらえますか?