2018年12月30日日曜日

スマホに新しい触覚をもたらす!?夢の新素材。


視覚障害者にとって「触覚」から得られる情報は貴重だ。
だが、ことICTの世界では、触覚の排除が進められている。スマートフォンからは物理ボタンがどんどん消滅し、自動販売機や券売機はタッチパネルに。最近ではクレジットカードの暗証番号やサインですら、あのツルツルした平べったいディスプレイでやらされることが多くなってきた。
これはおそらくメンテナンスフリーにすることで経済効率化を目指した結果なのだと想像されるが、見えない人間にとってはいい迷惑である。もちろん音声フィードバックによる代替手段も考えられているが、ユーザーの立場からいえばダイレクトに機能へアクセスできる物理ボタンと比べると非効率的である。

もう我々のもとに触覚は戻ってこないのだろうか?
そんな悲歎の日々の中、興味深いニュースが飛び込んできた。

米国テキサス州ヒューストン、ライス大学の研究者は、物質に形状を自由にプログラムしてモーフィングさせる技術を開発した。変形する触覚ボタンや点字を浮き上がらせる、といったガジェットへの応用も期待されている。
これは、LCE)liquid-crystal elastomer、液晶エラストマー)と呼ばれる物質を応用したもの。もともとLCEは電圧を加えると変形するという性質を持ち、人工筋肉やアクチュエイターなどへの実用化を目指して世界中で研究が進められている。LCD(液晶ディスプレイ)が電圧により分子配列を変化させることで光の透過性をコントロールするように、LCEは物質の形状を変化させるもの、という雰囲気のようだが筆者の理解力ではここまでが限界である。難しいよ。

ライス大学の研究では、LCEをプログラムしたい形状の型に入れ、紫外線を照射して硬化させる。LCEは通常の温度ではこの形状を保つが、摂氏80度に加熱すると表面が平滑になり形状は消滅。だが物質の温度が下がるとプログラムした形状が再現される。同じ物質に複数の形状をプログラミングし、切り替える事もできるというのが、既存の形状記憶物質と大きく異なる特徴だろう。

研究者は今後、体温レベルの低温や光を使用したモーフィング、さらには変形させたい部分だけを反応させることを目指しているという。ロボットや機能に合わせて変形する触覚ボタン、低コストな点字ディスプレイなどへの応用も想定しているようだ。支援技術をはじめ、幅広い分野に活用できるだろう。

この技術が確立すれば、もしかしたら近い将来、ディスプレイの表面がぽこぽこ変形しまくるスマートフォンが登場するかもしれない。従来の故障しやすい機械式の物理ボタンや、動作音が木になる点字ディスプレイに大きな変革をもたらす期待の技術だ。妄想が過ぎるとも思うが、夢はみたもん勝ちである。

関連リンク:


スマホに新しい触覚をもたらす!?夢の新素材。

SNSの代替テキスト機能をまとめつつ、あれこれ思う。


先日、Instagramが投稿画像の代替テキストに対応したことをエントリーしたが、FacebookやTwitterではそれに先んじて同様の機能を提供している。ということで改めてSNSにおける代替テキストの現状をざっくりとまとめつつ、その意味などをぼんやりと考えてみる。

・Facebook

2016年4月から利用できる。できることは基本的にInstagramと同じ。
Instagramと同様に、投稿されたイメージをAIが解析し代替テキストを自動生成する。投稿者は機能を意識することなく、見えない、見えにくいユーザーに情報を伝えられる。

ユーザーが手動でより詳しい説明を登録することもでき、投稿した写真に後に代替テキストを加えることも可能だ。この機能はパソコンのWebから利用できたがモバイルアプリやモバイルWebから使用する方法は見つけられなかった。


・Twitter

2016年3月から、ユーザーが投稿した写真に代替テキストを追加できるようになっている。日本語の場合ツイートは140文字だが、代替テキストは420文字まで記載可能。
この機能はWebおよびモバイルアプリから利用でき、一部のTwitterクライアントでも対応している。

ただこの機能を使用するには設定から有効にしなければならず、あまり認知されていない状況だ。知らなければこの機能に気づくのは難しいかもしれない。
また投稿した写真に後から代替テキストを追加することはできない。
FacebookやInstagramのように自動では代替テキストがくわえられないため、視覚障害者がイメージを解釈する手段はいまだに少ないというのが正直な感想。
とにかく、なにゆえこんな隠し機能みたいな扱いになっているのか。

余談だが、画像といえば長文のテキストをイメージ化したり、雑誌や新聞記事を写真撮影してアップロードするユーザーもいまだに少なくなく、結構拡散されてくる。文字数制限のあるTwitterならではの風習だと思うが、見えない筆者は疎外感MAX。この場合、一部のスクリーンリーダー(JAWS、NVDA)ではイメージをOCRする機能を用いルコとで対応できるが、これ公式でOCRしてくれればいいのにねえ。


・LINE

一応、国内では大きなシェアを持つLINEにも触れておくが、画像に対するアクセシビリティの機能は用意されていない。一部のスタンプで読み上げに対応しているものもあるが、全てに的確な説明がつけられてはいない。
LINEはアップデートのたびにアプリのアクセシビリティで問題を指摘されることが多く、個人的には敬遠しているサービス。
でも周りが使っていれば我慢して使うしかないのが悲しいところだねえ。


さて。

自動代替テキストはともかく、投稿者による代替テキスト機能については、「使いたい人は使ってね」的なスタンスのように思える。入力は必須ではないし、そもそも代替テキストを入力するためには通常よりも余分な操作が必要。そもそもこの機能を知らないユーザーは存在そのものに気がつかない可能性も高い。まあ、SNSという場の特性上、混乱を防ぐ意味でも現実的な実装方法ということなのかもね。

周りに見えない・見えにくいユーザーがいない場合、代替テキストをわざわざ入力しようとは思わないかもしれない。ただ、代替テキストを入れなければ、自分のメッセージを受け取れない人々が一定数存在する、という事実をこの機能から感じ取ってもらうためにも、より広く知ってもらうことが重要ではないかと思ったりする。知った上でこの機能を使うかどうかは各人で判断すればいい。

Webbコンテンツ上の画像に対する代替テキストについてはクローラやSEO対策といったインセンティブがあるが、SNSでは広告での効果は若干あるかもしれないが、協力なモチベーションにはつながらないように思える。SNSならではの仕組みが求められるだろう。
例えば代替テキストを上手につければ「いいね」が付きやすくなるとか、其のアカウントに対して現在の「認証済み」的なアクセシビリティ・ステータスを与えるシステムなんかも面白いと思う。絶対いると思うんだよね、イメージを的確かつ情緒的に説明できる人が。

デジタルコンテンツのアクセシビリティというと、どうしてもWebエンジニアやクリエイターの領分といったイメージがあるが、SNSの代替テキスト機能は、多くの一般ユーザーに「アクセシビリティ」という概念に関心を持つきっかけになる可能性を秘めている。この機能で少なからず、スクリーンリーダーの存在や視覚障害者もSNSで活発に活動していることを始めてしったユーザーもいるはずだ。おそらく。

アクセスしたくてもできない、でも工夫と配慮で手が届く人々の存在を知ること。そこがまだ足りていないのが現実だ。それを一部の送り手だけでなく、ユーザー同士で考え合うことができれば、この機能の存在意義はとても大きいと筆者はぼんやりと思うのだった。

2018年12月27日木曜日

「WayAround」。は、あらゆる物にタグをつけ視覚障害者を支援する。



視覚障害者にとって「物を識別する」のは非常に難しいクエストだ。
基本的には、置いておく場所を決めておくとか、触った感覚を頼りに判別する。場合によっては重さや香りを頼りにすることもあるだろう。また点字を印刷したラベルを貼ったり、シールに対応した音声を再生するボイスレコーダー「i-Pen(アイペン)」といった便利グッズもあるが、シールの特性上、すべてのシーンで使える訳ではない。
一方「Google Lens」や「Seeing AI」といった人工知能の画像認識エンジンを用いた物体認識も登場してはいるが、判別はまだざっくりで日常の探し物にはまだ実用的とは言い難い。
この「物を簡単・確実に認識したい」というニーズに応えるべく開発された製品が、あらゆるものにタグをつける「WayAround」だ。
まだ日本では利用できないが、興味深い製品なので紹介しよう。

WayAroundは、NFC(Near Field Communication、近距離無線通信規格)を応用した、視覚障害者をターゲットにした製品。「WayTag」と呼ばれるNFCタグを衣服やキッチンの容器などに取り付け、専用アプリをインストールしたスマートフォンをそれにかざすと、事前に登録した情報を読み取ってスクリーンリーダーで読み上げてくれる。

WayAroundを利用するには、NFCが読み取れるAndroidスマートフォン、もしくはiPhone 7以降が必要だが、それ以外の機種でも同社が販売している周辺機器「WayLink Scanner(99.9ドル)」を用いることで、Bluetooth経由で読み取れる。

このシステムの主役ともいえるNFCタグ「WayTag」には、ステッカーやマグネット、クリップ、衣服などに縫い付けられるボタンといったバリエーションが用意されており、防水・耐熱仕様になっているので選択や乾燥機にかけても大丈夫とのこと。
価格も1個あたり1ドル前後と割安で、いろいろなものに気軽に取り付けられそうだ。残念ながら現時点では日本への発送は行なっていない。

WayTagには最大で2,000文字以上を登録できるので、使い方次第では面白い使い方ができそうだ。公式サイトの説明だけでは、登録された情報がWayTag側に保存されるのか、スマホ側に保存されて紐つけされた内容を表示するのかはわからなかった。
ただiPhoneのNFCは一般的なNFCタグの場合、読み出しはできても書き込みはできない仕様なので(Core NFCの制限)、少なくともiPhone単体で利用する場合はスマホ側に情報が保存されると予想される。
もしWayTag側に情報が記録されれば不特定多数のユーザーに情報を伝える手段として利用できそうだが、どうなのだろう。Androidならタグに書き込む仕様になってたりしないかな。

NFCタグというと、小売業など業務用途をイメージするが、視覚障害者が物を識別する方法として応用したのはアイデアの勝利といった印象だ。価格設定も納得できるし、視覚障害者だけでなく、応用次第で幅広いユーザーに訴求できる製品ではないだろうか。

WayAroundのキモはWayTagのバリエーションにあるのは大前提なのだが、原理としてはシンプルそうなので、市販のNFCタグとNFCが読み書きできるAndroidスマホ、汎用アプリを用いれば似たような仕組みは自作できるかもしれない。
機会をみて実験してみたい。

関連リンク:

[雑記] 視覚は最高のリマインダーである。と思った話。


日常生活では大小さまざまなタスクが発生する。タスクと聞くと、打ち合わせの時間や飛行機の時間などのイベントや、食材や日用品の買い物、薬の服用や毎週チェックしているテレビ番組といった日々のルーティーンなどを思い浮かべるだろう。だが、タスクにはさらにもっと瞬間的に発生するタイプのものも、それこそ意識せずに膨大な量をこなしているはずだ。

例えば。
ホットミルクを飲もうと、冷蔵庫から牛乳パックを取り出し、カップにミルクを注ぐ。電子レンジで加熱してホッと一息のホットミルクタイムを過ごしたとする(わざとじゃないよ)。
この瞬間、「牛乳パックを冷蔵庫に戻す」「電子レンジの扉を閉める」「カップを洗う」というタスクが発生する。もちろんミルクを楽しむ過程でこれらのタスクを消化していけばいいのだが、それはなかなかの難題だ。筆者はすぐにでもホットミルク、すなわち温めた牛乳が飲みたいのだ。さむいし。

で、ほぼ全盲の筆者はよく、牛乳パックを放置してしまう。場合によっちゃレンジの扉も開きっぱなし。結果牛乳はだめになり、あいたママのレンジ扉に頭をぶつけるといった悲しい出来事を生んでしまう。
まあ「不注意」と言われれば二の句が継げないが、もし視覚を持っているならこのようなことにはならないはずだ。
だって目の前に牛乳パックが鎮座しているのだ。明らかに頭にぶつかりそうな扉が開きっぱなしなのだ。見ればわかる。見えているのに片付けないのは別の問題だ。

スマートフォンのアプリでよく利用されているジャンルの一つに「リマインダー」というものがある。日々のタスクを忘れないように登録し、必要に応じて通知してもらったりできるやつだ。
これは、忘れそうなタスクを登録しておくことで「記憶=脳」を拡張するものと言える。いわば記憶のアウトソーシングである。

だがいざ視覚が使えなくなると、実は人間は目で見えるものに結構リマインド、つまり記憶をアウトソーシングしていることに気づく。前述の牛乳パックの件でも、冷蔵庫から出したことを忘れても、キッチンのテーブルにそれが置いてあれば、それを戻すというタスクを思い出せる。つまり視覚がリマインダーとして昨日している。なんて便利なんだろう!!
他にもカップ麺にお湯を注いだまま忘れるとか、スマホを玄関に置いたまま出かけてしまうとか、荷物を整理中何らかの理由で中断してそのまま放置、といった失敗も「見れば思い出す」レベルのタスクといえよう(ていうかやらかしてるな自分)。見えていてもこのような失敗をしでかすのは、くどいようだが別の問題だ。

この問題、結局「忘れない」という解決法くらいしかないのが悲しい。いや、もしかしたら自分だけか。今その可能性を感じ戦慄している。
こういうのを解消するテクノロジーが出現すれば便利と思ったりするが、いやちょっと煩わしいかもしれないなあ。しっかりしろよ自分。

2018年12月24日月曜日

[一般]「Googleマップ」でサンタさんの現在地がわかるよ。

Googleマップ for iOS Screenshot

おそらくクリスマス期間限定。
モバイル版「Googleマップ」アプリで、サンタクロースの現在位置が確認できるようになっている。(iPhone版にて確認)
使い方は簡単。メニューを開き、「現在地の共有」を開くと「サンタクロースさん」が現在地を共有してくれている。ユーザー側で現在地を共有する必要はないようだ。
これをタップすると、現在地をマップ上に表示して、サンタさんが今どこで何をしているかがわかる。今現在(12/24、0:18)は、「空を移動中」「プレゼント配達中」とのことだった。
「サンタを追いかけよう」をタップすれば、ブラウザが開いてミニゲームも楽しめる。(多分。筆者は見えないのでプレイできるかはよくわからず)
もし表示されないようなら、アプリのアップデートを確認してみよう。

これからサンタさんがどのようなルートで移動するか、チェックしてみてはいかがだろうか。
ではみなさま、よいクリスマスを。


2018年12月23日日曜日

盲導犬・ミーツ・ロボット。安全は確保されるか。

その実現はまだ先と言われている自動運転車の安全性については、すでにあちこちで活発な議論が繰り広げられている。だが一方で、それに先んじて、人々の生活に進出しつつあるロボットやドローンの安全性については、どれだけの検証がなされているのだろうか。 サンフランシスコのスタートアップ、スターシップ・テクノロジーは、かつてのSkypeの共同創業者、Ahti Heinla氏とJanus Friis氏が2014年に設立したロボット開発会社だ。同社は歩道を自動走行して荷物や食料品をデリバリーするロボットを実用化し、世界各国で事業を展開。着実にビジネスを拡大させている。 この配送ロボットは歩行者と同等のスピードで自律移動し、障害物はセンサーでけんち。トラブルが発生した際は搭載されたカメラを通して遠隔操作される。ピザやドリンクを積んで街中を闊歩する配送ロボットの姿は、未来的光景として受け入れられつつあるようだ。今のところ目立った事故は発生していないという。 だが、盲導犬のような障害者を補助する動物にこのロボットがどのような影響を与えるかは未知数だった。散歩中の犬なら飼い主が危険を察知して回避できるが、もし盲導犬がパニックなど何らかのトラブルに遭遇した場合、ユーザーである視覚障害者の身にも危険が迫る可能せがある。 スターシップ社は、英国イングランドにあるタウン、ミルトン・キーンズの盲導犬協会と協力し、街中を移動する配送ロボットが視覚障害者および盲導犬にどのような影響を与えるかの実験を行なった。 実験では、ロボットと盲導犬がすれ違う、正面から向かってくるといったさまざまなパターンで行われた。 参加した全ての盲導犬は近づいてきたロボットに対して冷静に対処し、ほとんどは歩行を停止したという。盲導犬、ロボット共に害を与えるといったトラブルは見られなかった。この結果を踏まえ、盲導犬はロボットを路上の他の障害物と同様に扱うように訓練される。同社は引き続き広範囲な実験を実施していくという。 この例では大きな問題は発生していないようだが、公共スペースに突然現れたロボットやドローンは、明らかに「異物」である。人間は理解できても、動物にどのような影響を与えるかはわからないし、トラブルにとっさに対応できない人々、視覚障害者や車椅子、高齢者やベビーカーなどにとって危険をもたらさないかは、入念に設計・検証されるべきだろう。 我が国でも、2020年に向けて警備や誘導などのロボット導入や、物流分野でのロボット活用が計画されている。そしてその先には、自動運転車の時代が待ち構えている。 新しいテクノロジーが社会へデビューしていく中で、全ての人や環境に対し以下にして安全性を確保していくのか、企業の姿勢が問われる。 関連リンク: Guide Dogs and Robots Get Along Just Fine, Study Says - Robotics Business Review

[一般] Macの「ボイスメモ」で録音データを取り出す方法と入力ソースのお話。

macOS Mojave、ボイスメモのスクリーンショット

macOS Mojave (10.14)で登場した標準録音アプリケーション「ボイスメモ」。
これまでMacでオーディオを録音するには「QuickTimeプレイヤー」かサードパーティー製アプリを使用するしかなかったが、これでMacでも手軽に録音できるようになった。
まずはMac版ボイスメモの特徴をおさらいしよう。

iCloud Driveを経由してiOSデバイスの「ボイスメモ」と瞬時に同期できる
録音した音声をメールやメッセージなどへ共有できる
録音したデータのトリミング、再録音が可能
録音する音声品質は2種類から選べる
位置情報をもとに録音名をつけられる
削除したデータは設定に応じて一定期間保存される


録音データをFinderにコピーする


録音したデータはツールバーの「共有」から外部アプリへ渡せるが、Finderにコピーすれば、好みの音声編集アプリで開いたり、ムービーの音声トラックに利用するなどさらに活用範囲が広がる。
ただ、ボイスメモのメニューからは音声データをエクスポートする機能はよういされていない。でもご安心。ちゃんとできます。
Finderへコピーする方法は2通り。

1. 録音リストから保存したい録音名をFinderへドラッグ&ドロップする

2. Finderで「ライブラリ」を開き(「移動」メニューでOptionキーを押してアクセスできる)、「/Application Support/com.apple.voicememos/Recordings」を開くと、その中に「.M4A」形式のファイルが保存されている。これが録音データなのでこれをコピーする。

なお「ライブラリ」の中のファイルやフォルダを不用意に改変するとmacOSやアプリケーションの動作が不安定になる可能性があるので注意。録音データを取り出す場合も、ファイルをコピー、保存先にペーストして保存し、録音の削除は「ボイスメモ」アプリ上で行うようにしよう。


録音元となる入力ソースを選ぶ


「録音」ボタンをクリックして録音したボイスメモを確認しても、思ったような音が入っていない、という場合は「入力ソース」を確認しよう。iPhoneではマイクからのみ録音可能だったが、Macでは様々な音源から録音できるようになっている。

「ボイスメモ」で録音する音声は、システム環境設定の「サウンド」パネルを開き、「入力」タブにある「サウンド入力装置」で選択できる。BluetoothマイクやUSBカメラなどを接続した状態でMacBookのマイクから録音したい場合などはここから入力ソースを選ぶ必要があるかもしれない。
また、オーディオ入力が可能なMacやUSBオーディオインターフェイスを使えば、ライン入力で高音質な録音もできる。録音レベルもここから設定可能だ。

※本記事はmacOS Mojave 10.14.2にて執筆しました。


2018年12月21日金曜日

見えなくても撮影した写真を判別する方法を考えてみる。


この秋はいくつかのイベントに参加させていただいたが、その時、自分のテーマの一つだったのが「写真撮影」。要するに取材のリハビリである。

見えていた時の取材スタイルは、デジカメと紙のノート。あまりヘビーな取材はしてなかったのでこれでも十分成立していたのだが、いざ目が見えなくなると、これでは何もできないことに気がついていた。
もっとも困ったのが「写真」である。今はデジカメではなくiPhoneを使って撮影する。撮影時のフレーミングなどは同行者に手伝ってもらいつつなんとかこなせるのだが、いざその写真を素材に記事を執筆する段階になると、写真の判別ができない。撮影時かんや撮影地などのメタデータで判断するにも限界がある。さて困ったぞ。

色々考えた末、写真を目で確認できないのであれば、何を撮影したかをテキストなりボイスなりでメモしながら撮影するよう工夫すればいい、という結論に到達した。
というわけで、実際に色々試した結果をメモしてみよう。


その1:Twitterに投稿するスタイル


まず試したのが、Twitterに写真とメモを投稿していくという方法。
使用したのはiPhone用の公式アプリ。新規ツイートを開いて写真を撮り、説明をコメントに加えてツイートしていけば、撮影した時系列に写真を見返せる。
後日写真を使う時は、パソコンのTwitterクライアントやWeb版Twitterを開き、説明を頼りに写真をダウンロードすればいい。

難点は、撮影の一部始終をフォロワーに晒してしまうということ、そしてダウンロードした画像の解像度がiPhoneのカメラで撮影する時よりも低くなってしまうことだ。
MacではTwitterrificを用いてダウンロードしたが、写真の解像度は「1024 × 768ピクセル」となった。Webでもちょっと物足りないクオリティのような気がする。
この解像度が、iPhoneアプリのせいなのか、Macアプリのせいなのか、使い方がまずかったのかはわからないが、これ以上手間をかけるのはイヤなので、コウイウモノダロウト判断。

この方法はVoiceover操作でも比較的簡単に写真とメモをセットにして管理できるが、写真の画質に不安が残る。タイムラインをお騒がせする割にはメリットは少ないような……。


その2:クラウドノートを使うスタイル


次に考えたのは、写真とテキストを扱えるエディタやノート系アプリを用いる方法。
写真を撮影してノートに貼り付け、それに続けて写真の説明をメモしていけば、後で写真の判別ができる。
この手段が使えるアプリは選択肢が多いが、パソコンに写真を転送する手間を考慮すれば、データを簡単に同期できるクラウドノートがベターであろうと考えた。

クラウドノートにもいくつかあるが、Evernoteは無料プランユーザーなので却下。OneNoteはアプリの使い勝手がイマイチ。Google Keepは使いやすいがWebから写真を引っ張ってこなければならず面倒。筆者はMac使いなので、デスクトップアプリケーションが用意されているiPhone標準の「メモ」を使うことにした。

まず外出前に新しいメモを作成し、タイトルをつけておく。
あとは写真を撮影する時に「挿入」ボタンをタップして写真を撮影し、メモ本文に写真が貼付されたら、その直後に写真の説明を書き込んでいく。
音声入力でざっくりとした内容でも問題ない。キーボードが表示されたら2本指ダブルタップで音声入力を開始、もう一度2本指ダブルタップで入力を修了できるので覚えておくと便利だ。
ただ、慌ててしまい、うっかり画面を不用意にタップしてしまうと、挿入ポイントがずれてしまうことがあり、さらに慌てる。Voiceover操作に慣れていないと難しいかもしれない。

撮影した写真の取り込みは、Macの「メモ」で簡単に行える。写真の解像度もiPhoneのネイティブ(3024 × 4032ピクセル)なので画質的にも問題ない。
この方法の問題は、やはり操作性。練習すればミスせず使えるようになるが、イベント中の時間のない時に確実に写真を貼付しつつ説明を書き加えていくのはなかなかの難易度である。


その3:写真に直接メモするスタイル


これはTwitterで知った情報。
iPhoneの「写真」アプリで、撮影した写真のサムネイルに、Voiceoverの「ラベル」をつける方法だ。

手順は簡単。「写真」アプリを開いて撮影した写真のサムネイルにVoiceoverカーソルを合わせ、「2本指でダブルタップ&ホールド」すれば効果音が鳴りラベル入力フォームが開く。あとは写真の説明を入力して「保存」を実行すればOKだ。

注意したいのは、ここでつけられるラベルは、あくまでも「写真」アプリのサムネイルにつけられるものなので、他のアプリでは読み上げない。また写真をエクスポートしてもラベルの情報は受け継がれない。同じ理由で「カメラ」アプリの「写真トビデオビューワ」でラベルをつけても「写真」アプリではそのラベルは利用できない。そのため写真を撮影しながらラベルで説明を加える、という目的を達成するにはカメラアプリと写真アプリを行き来しなければならず、ちょっと手間がかかると感じた。

だが一通り写真を撮影してから、ゆっくり見えるひとに聞きながらラベルをつける使い方は、覚えておくと絶対便利。旅行などで良い写真が撮れたらラベルをつけておき、後でその写真を「写真」アプリの「共有」ボタンから簡単にSNSやメールなどで利用できる。


現時点ではクラウドノートが一歩リード!?


ここまで試した範囲では、現時点ではクラウドノート、自分の場合は「メモ」を用いる方法がベター、という結論である。写真のクオリティってやっぱり大事。
撮影時間が短い時に、慌てず素早く操作できるかが今後の課題だろう。

もっと簡単に、撮影した写真にテキストなりボイスメモを加えられるカメラアプリがあればいいのだが、配布終了したものしか見つけられなかった。
もっと良いソリューションをご存知であれば、@chimeracraftまでご一報ください。


2018年12月20日木曜日

[一般] にわかに活況!? Apple Booksのオーディオブック最新事情。

Apple Books for iPhone Screenshot

スマートフォンやタブレット端末の普及により、読書は電子書籍で、というユーザーが増え続けている。そして成長を続ける電子書籍マーケットの中でも、新しい読書スタイルとして注目されているのがオーディオブックだ。
米Amazon傘下の「Audible」を筆頭に、オーディオブック市場は広がりを見せつつあるが、古株でありながら今ひとつ精彩を欠いているのがアップル。2018年秋には、iOS12のリリースに合わせ電子書籍アプリのブランドを「iBooks」から「Apple Books」にリニューアルしたものの、あまり話題にならないという状況だ。Apple Booksにオーディオブックのカテゴリが存在していることに気がついていないユーザーも少なくない(と思う)。Apple MusicやAppStoreの盛況ぶりとは対照的に見える。

だがこのところのオーディオブック市場の盛り上がりに反応したのかはわからないが、Apple Booksでのオーディオブックに関するいくつかのニュースが入ってきた。

2018年12月14日、アップルは同社が運営する電子書籍ストア「Apple Books」にて、iTunes Connectを通したオーディオブックの販売を開始すると発表した。これで、オーディオブックコンテンツを持つ会社はAppleのBooksアプリのストアで自社のオーディオブックを販売できるようになる。、
そして12月18日、オーディオブック配信サービス「audiobook.jp」を運営する株式会社オトバンクが、Apple Booksにオーディオブックを提供するニュースが報道されている。これで、Apple Booksにおけるオーディオブックのラインナップのさらなる充実が期待できる。

また海外では12月17日、Apple Booksで、6タイトルの無料オーディオブックを配信するというニュースもあった
これらの作品は、これまでApple Booksで無料公開されていたパブリック・ドメインの書籍を有名俳優やコメディアンによりナレーション収録したもの。「オズの魔法使い」「秘密の花園」「くまのプーさん」といったクラシックな名作がラインナップされている。ただ残念ながら、日本からはダウンロードできないようだ。
無料オーディオブックは、Apple Booksでオーディオブックを楽しむ最初のきっかけになる。無料ブックでオーディオブックの良さを体験した後、そこに読みたい本がラインナップされていれば、自然とユーザーは増えていくだろう。

Apple Booksには、iPhoneですでにアプリなどを購入しているユーザーなら、その決済情報を用いて簡単に電子書籍やオーディオブックを購入できるというアドバンテージがある。無料で読める作品の提供や、注目作品をラインナップすることで、Apple Booksにアクセスするユーザーが増えれば、オーディオブック全体の活性化にも繋がるに違いない。

関連リンク:


表情を視覚障害者に伝えるアプリ「Facing Emotions」。


円滑な対人コミュニケーションには、相手からあらゆる情報を得て、それに併せたリアクションを取ることが重要だ。会話の内容はもちろん、声のトーンや間の取り方、ちょっとした仕草、顔の表情に至るまで、情報が多ければ多いほど、会話の行き違いや誤解も減るし、うっかりNGワードを投下してしまい、それに気がつかず破滅的な結果を招くこともないはずだ。「空気を読む」なんて言われるが、実際に読んでいるのは相手から発信されるさまざまな情報である。

そう考えてみると、目が見えない筆者が「空気を読まない」と非難されるのは仕方がない話。僕の話で相手の顔が猛スピードで曇っていったとしても、話題を変えることは相当に困難なのだ。想像するだけで背筋が寒くなる話である。

中国のIT大手・ファーウェイは、同社が販売するハイエンドAndroidスマートフォン「Mate 20 Pro」で動作するアプリ「Facing Emotions」をリリースした。
これはスマートフォンのカメラが捉えた人物の顔を人工知能技術を用いて解析し、その表情を7つの感情に分類。その結果に合わせたサウンドを鳴らすことで、見えない・見えにくいユーザーが相手の表情を理解する手助けをする。

「Facing Emotions」を使えば、Mate 20 Proに搭載されたAI専用デュアルプロセッサが、人物の目、鼻、眉、口の位置などをもとに、表情をリアルタイムに判別する。現時点では以下の7種類の感情を音で表現するという。

・anger(怒り)
・fear(恐怖感)
・disgust(嫌悪感)
・happiness(幸福感)
・sadness(悲しみ)
・surprise(驚き)
・contempt(軽蔑)

うーん、どうもネガティブな表情が多いようなきもするが、それだけ「負の表情」は特徴的、ということなのかもしれない。少なくとも、話している相手が機嫌を損ねた時は、即座に警告してくれそうだ。

AIを用いた顔認識技術は「Seeing AI」や「Orcam Myeye」といった視覚支援デバイスではすでに実用化されているが、Facing Emotionsは「表情」に着目している点がユニーク。これは直接対面するシーンを想定されているが、Skypeなどのビデオ通話アプリに組み込まれたりするのも面白いだろう。そういえば、Skypeでは近年、音声をリアルタイムに字幕表示する機能が搭載されたが、視覚障害者向けにも服装や表情を音声で知らせてくれる、なんて未来もそう遠くないのかもしれない。

ファーウェイは他にも、子供向けの書籍を手話に翻訳するアプリ「StorySign」をリリースするなど、AIをアクセシビリティへ応用する試みを行っている。

関連リンク:


2018年12月19日水曜日

[一般] 実はかなり使える!? iPhoneの「低電力モード」。

iOS12のバッテリー設定画面

外出先で活動することが多い人々にとって、スマートフォンのバッテリー問題は深刻だ。モバイルバッテリーなどで対策したつもりでも、肝心のバッテリーが充電されておらず、慌ててコンビニにダッシュした経験もあるだろう。いや、近くにコンビニがあるだけそれはまだ運が良かったと言えるかもしれない。

iPhoneのバッテリーを、できるだけ長持ちさせるTipsにはさまざまなものがあるが、最も簡単で効果が高いのが「低電力モード」を有効にする方法だ。iPhoneのバッテリー残量が20%を切ると、このモードを有効にするよう通知が開くので、この名前だけは知っているというユーザーは少なくなりだろう。

だがこのモードを有効にすると何が起きるのか、戻せなくなるのではないかと心配して低電力モードを使ったことがないユーザーは意外と多い。
低電力モードの仕組みを理解し、このモードをうまく活用できるようになれば、バッテリーの心配はかなり軽減されるはずだ。


低電力モードの使い方


低電力モードを切り替えるには、3つの方法がある。

  • 設定>「バッテリー」から切り替える
  • コントロールセンターに「低電力モード」を追加して切り替える
  • バッテリー残量が20%を切ったタイミングで表示される通知から切り替える

低電力モードがオンになると、ステータスバーのバッテリーアイコンが「黄色」に変化し、残量が%表示されるのでひとめでわかるはずだ。Voiceoverユーザーは、バッテリーアイコンにカーソルをフォーカスすれば「低電力モード」と読み上げる。

設定やコントロールセンターから低電力モードオンにした場合は、手動でこのモードをオフにするまで低電力モードのままになる。通知からオンにした場合は、充電し残量が80%を超えれば自動的にオフになる(手動でオフにすることも可能)。


低電力モードで影響する機能


では低電力モードをオンにすると、iPhoneはどのような状態になるのか。
このモードは基本的に、iPhoneのパフォーマンスを一時的に落とすことで電力消費をセーブする。そのほか、いくつかの機能が制限される。以下が、影響のある機能のリストだ。

  • 画面の自動ロックを30秒に固定
  • 一部の画面エフェクトをオフ
  • 「Hey Siri」をオフ
  • メールのフェッチ受信をオフ
  • アプリのバックグラウンド更新をオフ
  • 自動ダウンロードをオフ
  • iCloudのフォトストリーム更新を一時停止

最も影響があると思われるのがメールのフェッチ受信だが、「メール」を開いて手動で受信することは可能。もちろん電話やSNSのやりとりにも影響しない。これらの影響を受けないのであれば、外出中は常に低電力モードを有効にすることで、バッテリー駆動時間の大幅な改善が期待できる。
高度な画像編集処理など能力を求められるアプリを使う場合、動作が重くなる可能性があるが、その時だけ低電力モードを切るようにすれば問題ないだろう。


バッテリー節約術っていろいろあるけど…


巷には、iPhoneのバッテリー節約Tipsが溢れかえっている。中にはかなり眉唾なものもあるが、これらは、大きく3種類に分けられると筆者は考えている。

1.日常のメンテナンスで対処する方法
不要な通知や位置情報サービスを無効にしたり、不要なアプリを削除するなど、iPhoneの状態をできるだけ無駄のない状態にメンテナンスすることでバッテリー消費を抑えるアプローチ。

2.設定の切り替えで対処する方法
TPOに合わせ、Wi-FiやBluetoothをオフにしたり、画面の明るさを調節するなど、日常使っている設定を一時的に変更することでバッテリーの持ちを改善させるアプローチ。

3.ハードウェア的な対処法
モバイルバッテリーを持ち歩く、iPhone内蔵バッテリーを交換するアプローチ。

世間的には「2.」のアプローチをよく見かけるきがするのだが、いざ実践しようとすると、いちいち設定を切り替えるてまを感じるし、帰宅してうっかりWi-Fiをオンにし忘れデータ通信量を無駄にしてしまう、なんてこともよくあるお話。結局いつの間にかそのような工夫も忘れ、外出先でバッテリー切れに難儀するというループに突入しがちだ。いくら効果的なTipsでも、継続して使い続けられなければ意味はない気がしなくもない。

その意味でも「低電力モード」はシンプルで覚えやすく、影響する機能も限定的。なおかつパフォーマンスを落とすという根本的な対策を実行できるので効果もてきめんだ。
今まで使ったことがなかったiPhoneユーザーは、一度この機能の実力を体験してみてはいかがだろうか。

関連リンク:

※この記事はiOS 12.1.1にて執筆しました。


2018年12月18日火曜日

Instagramの自動代替テキストは、視覚障害者に何を伝えるのか。

Instagram for iOS Screenshot

2018年11月29日、Facebook傘下のInstagramは、投稿された写真や動画のサムネイルなどのイメージにAIによる自動代替テキストを追加する機能と、写真投稿者による代替テキストの編集機能を公開した。

ユーザーが写真を投稿すると、Instagramはその写真に何が写っているかを解析して代替テキストを生成する。その内容はスクリーンリーダーを用いることで音声として確認できる。写真についてはユーザー自身で代替テキストを追加することもでき、より的確な写真の説明を、見えない・見えにくいユーザーに伝えられる。

この機能は、iOSおよびAndroid版アプリのほか、パソコンでもブラウザのユーザエージェントをモバイル用ブラウザに変更することで利用できる。


代替テキスト機能の使い方


自動代替テキストは、通常通り写真や動画を投稿すれば特別な操作なしで追加される。
写真の場合は、投稿者が任意の説明文を代替テキストとして指定できる(動画は不可)。この場合、テキストの自動生成は行われない。
ユーザーが手動で説明を追加する手順は以下の通り。(iPhoneアプリの例)

1.画面下中央の「Open camera」をタップ
2.写真を撮影する、もしくはライブラリから写真を選ぶ
3.フィルタ設定/編集を行い「次へ」をタップ
4.「新規投稿」画面になるので「詳細設定」をタップ
5.「アクセシビリティ」にある「代替テキスト」をタップして編集する
6.「Share」をタップして投稿

また自分が投稿した写真なら、代替テキストを後で追加することもできる。自動生成された代替テキストの確認もここから可能だ。

1.「プロフィール」タブから写真を開く
2.「More options」をタップ
3.「編集する」をタップ
4.「代替テキストを追加」をタップして代替テキストを編集する
  もし自動で代替テキストが追加されている場合はその内容を確認できる
  また手動代替テキストを消去すると自動生成テキストに戻る
5.「完了」をタップして編集を終了する


自動生成されたテキストはどんな感じ?


スクリーンリーダーで代替テキストがどのように読み上げられるかは、実際に試して見るとわかりやすい。iPhoneならSiriに向かって「ボイスオーバー オン」と話しかければ、標準搭載されている「Voiceover」が有効になる。この状態でイメージをシングルタップすれば、代替テキストが読み上げられるはずだ。
確認が終わったら、Siriに「ボイスオーバー オフ」と告げれば通常の操作に戻る。
Androidデバイスなら、同様に「Talkback」と呼ばれる標準スクリーンリーダーを用いて確認可能。ただ端末によってはインストール作業が必要だったり起動方法が異なるので注意が必要だ。

Instagramで生成される代替テキストはこんな感じ。
全てのテキストには「画像に含まれている可能性があるもの」と接頭語がくっつく。

・猫、室内 イメージ
・植物、花、木、屋外、自然 イメージ
・1人、あごひげ、帽子、クローズアップ イメージ
・1人以上、座ってる(複数の人) +6
・1人以上、ダンス(複数の人)、立ってる(複数の人)、オンステージ(複数の人)、靴

どのような写真なのかイメージできただろうか。
最後のものなど、よくわからないがいかにも賑やかな風景が想像できる。にしても「靴」ってなんだ。
人物についてはクローズアップならある程度の特徴も説明してくれるようだ。ただ現状では基本的に大まかなオブジェクトの種類を判別するレベルだ。
それでも一切の手がかりがない状態に比べれば、全く見えない状態でも想像力を働かせ、それなりにメッセージを受け取れる。ただInstagramの特性上、キャプションが省略されている投稿も多く、見えなくても楽しめるかと聞かれれば「微妙」と言わざるを得ない。
それはInstagramほぼ初挑戦の筆者が、楽しみ方を知らないだけかもしれないが。

なお、筆者が確認した範囲では、投稿者による手動代替テキストには出会うことはできなかった。まだ導入から日が浅いこともあるだろう。インフルエンサーがこの機能を積極的に使ってくれれば普及するかも、と思ったものの、代替テキストに気がつくのはスクリーンリーダーユーザーだけなので、認知度を上げるのは結構難問かもしれない。
しばらくは、見えない・見えにくいフォロワーを持つユーザーを中心に利用される機能なのだろう。でもいつかは人気Instagrammerが、写真を説明してくれるようになると嬉しいなあ。


見えなくてもInstagramを満喫できる日は来るのか


Instagramは、代替テキストに続き、オーディオによるダイレクトメッセージやトランシーバー的なボイスメッセージ機能も提供を開始するなど、視覚に依らないコミュニケーションにも力を入れ始めているようだ。

今後の動き次第では、今まで自分とは無縁と感じていたユーザーにも魅力的なサービスに変貌するかもしれない。
ただそれには、Instagramを利用しているすべてのユーザーに、見えない・見えにくいユーザーも自分の投稿を目にするかもしれない、という認識が浸透しないと難しいだろう。それはInstagramに限った話ではなく、デジタルコンテンツのアクセシビリティの根幹に関わる課題でもある。

関連リンク:

[一般] 夜の読書も快適に。iPhoneの画面を暗くする4つの方法


iPhone Screenshot

朝起きてから就寝まで、日がな一日スマートフォンから目が離せないという人は少なくないのではないか。今やスマートフォンは、日常生活になくてはならない存在になっている。
だが一方で、スマートフォンを長時間使うことによる弊害も指摘されるようになってきた。その中でも目立つのが、ディスプレイカラ放射されるブルーライトが健康を脅かすというもの。スマホを長時間見ていて、目の疲れはもちろん、肩こりや睡眠不足などの不調を感じた経験があるユーザーもいるかもしれない。

本来ならスマホを使用する時間を短くするのがベストだろう。だがそれがもし難しいのであれば、せめて目の負担をできるだけ抑える工夫くらいはしたい。例えば就寝前、部屋を暗くしてスマホで読書やSNSを眺める時、画面を通常通りの明るさのままにしていないだろうか? このような状況では、スマホの画面はできるだけ目に負担が少ない明るさに調節するべきだ。

iPhoneには、ディスプレイの明るさを調節する設定が複数用意されている。設定によっては、通常の明るさ設定の限界を突破した「暗さ」を実現できる。
一日の締めくくり、就寝前のリラックスしたスマホタイムを、少しでも快適にするためにも、自分に最適な「画面の暗さ」を追求しよう。


Level 1:基本は明るさの調整とナイトシフト


まずiPhoneユーザーなら知っているとは思うが、念のため確認の意味で解説しよう。画面の明るさの調整は、「設定」の「画面表示と明るさ」から行える。

1.「設定」を開き、「画面表示と明るさ」をたっぷ
2.「画面の明るさ」スライダを動かして明るさを調節する

また、どのアプリを開いていても、画面の一番下から1本指で上へスワイプすれば「コントロールセンター」が開く。この中にある「明るさ」のスライダを調節しても明るさを調節できる。昼は明るく、夜は暗くといった感じで頻繁に調節するときはコントロールセンターがラクだろう。

さらに「画面表示と明るさ」設定では「ナイトシフト」という機能を利用できる。このモードを有効にすると、画面全体のカラーが暖色系に切り替わり、目の疲労を軽減する効果が期待できる。ナイトシフトは即時オンにできるほか、時間を指定して自動的に切り替えることも可能だ。
また画面の明るさやナイトシフトはSiriに頼んで設定を変更することもできる。「画面を明るくして」「ナイトシフト オン」などと話しかけて見よう。

ただこの「画面表示と明るさ」設定では、一定以上、画面を暗くすることはできない。人によってはまだまだ「まぶしい」と感じるレベルだろう。


Level 2:アクセシビリティのカラー反転を活用


iPhoneの画面は基本、白い背景の上にテキストやイメージを表示するデザインに設計されている。しかし、暗い場所ではどんなに画面の明るさを暗く設定しても、この白い背景がとても眩しく感じてしまう。また消灯した航空機の中や、隣で誰か寝ているときにはiPhoneのディスプレイから放射される白い光はかなり目立つし、場合によっては大きな迷惑にもなりかねない。
iPhoneには、目が見えにくいユーザーのために負担なくディスプレイを見られるための設定が用意されている。「色反転」もそのうちの一つだ。この機能を使えば、画面のカラーが反転する。つまり白基調の画面が、黒をベースにしたデザイン、いわゆる「ダークモード」に変更される。この機能を有効にし、さらに明るさを暗く調節すれば、画面の明るさをかなり抑えることができ、夜の読書も快適になる。
なお色反転は「ナイトシフト」との併用はできないので注意。

色反転には「反転(「スマート)」と「反転(クラシック)」の2種類があり、前者は基本的なUIのカラーだけを反転しイメージやアイコンの色は変わらないのに対し、後者はイメージを含めた全ての要素が反転する。どう考えても前者の方が便利そうだが、利用するアプリによっては「反転(スマート)」には対応していない場合があるので気をつけよう。

1.「設定」を開き、「一般」をタップ
2.「アクセシビリティ」、「ディスプレイ調整」の順にタップ
3.「色を反転」をタップ
.4.「反転(「スマート)」もしくは「反転(クラシック)」を有効にする

色反転はSiriを使ってもオン/オフできる。Siriに「色反転 オン」「スマート反転 オン」と伝えてみよう。戻すときは「~オフ」でOK。
またアクセシビリティのショートカットに「色反転」を設定すれば、ホームボタンまたはサイドボタン3回押しで反転のオン/オフを簡単に切り替えられる。

1.設定を開き「一般」をタップ
2.「アクセシビリティ」、「ショートカット」の順にタップ
3.「色を反転(スマート)」もしくは「色を反転(クラシック)」にチェックを入れる

これでホームボタンもしくはサイドボタン(iPhone X)を3回押せば色反転機能をオン/オフできる。なおショートカットで2つ以上の項目を有効に設定した場合は、機能を切り替えるメニューが表示されるので、それぞれの色反転機能をタップしてオン/オフを切り替える。さらにアクセシビリティのショートカットは、コントロールセンターから開くこともできる。


Level 3:ズーム機能の「低照度」フィルタを使う


「ズーム」機能も、iPhoneに搭載されている視覚サポート機能の一つ。
この機能にも、iPhoneの画面を暗くするための設定が用意されている。

1.「設定」を開き、「一般」をタップ
2.「アクセシビリティ」、「ズーム機能」の順にタップ
3.「ズーム領域」を「フルスクリーンズーム」に設定
4.「ズーム機能」をオンにする

ここでiPhoneの画面が拡大表示される。慌てないよう、ズーム機能での操作を覚えておこう。今回は画面を暗くするのが目的なので、ズーム比率は等倍にしておく。

ズームの有効化:3本指ダブルタップ
ズーム領域の移動:3本指でドラッグ
拡大倍率を変更:3本指でダブルタップしたままドラッグ

画面の拡大率が標準状態に戻ったら、「ズームフィルタ」を「低照度」に設定する。これで画面全体の明るさが一段階低くなる。試しにコントロールセンターで明度を低くすれば、通常よりもさらに画面を暗く設定できる。
色反転での解説と同様、アクセシビリティのショートカットを設定しておけば、ズームのオン/オフで画面の明るさを簡単に暗くできるようになる。

1.設定を開き「一般」をタップ
2.「アクセシビリティ」、「ショートカット」の順にタップ
3.「ズーム機能」にチェックを入れる

これでホームボタンもしくはサイドボタン(iPhone X)を3回押せばズーム機能をオン/オフできる。なおショートカットで2つ以上の項目を有効に設定した場合は、機能を切り替えるメニューが表示されるので、「ズーム機能」をタップしてオン/オフを切り替える。

もちろんズーム機能は画面を暗くするためだけでなく、本来の目的である「画面を拡大」するために使うのも便利だ。ピンチアウトでは拡大できない写真をズームして調べたり、小さくて読みにくいゲームのステータス表示を確認する時などに活用しよう。


Level 4:それでも明るいと感じるなら「ホワイトポイント」を下げる


ここまでの設定でも、まだ画面が明るい、目が疲れるとお嘆きなあなたに、最終兵器をご紹介しよう。
それが「ホワイトポイント」の調整だ。
ホワイトポイントとは、画面の中で最も明度の高い部分を指す。この部分の明るさを低く設定することで、「全く見えなくもないが、ほぼ見えない」レベルにまで画面を暗くできる。そこまで暗くしなくても、コントラストも下がるため、より目に優しい画面に設定できる、という効果もある。
極限まで画面を暗くすれば、真っ暗な環境でも目に負担をかけずにディスプレイを見られるはず。ここまでくると、既に「夜の読書」というよりは、どこまで画面を暗くできるかのチャレンジ的な意味合いも出てくるような感じだ。

1.「設定」を開き、「一般」をタップ
2.「アクセシビリティ」、「ディスプレイ調整」の順にタップ
3.「ホワイトポイントを下げる」をタップ
4.「ホワイトポイントヲサゲル」をオンにする
5.スライダで明るさを調整する

もちろんホワイトポイントの調整も、アクセシビリティのショートカットに登録して、ホームボタンやサイドボタンから一発切り替え可能。

1.設定を開き「一般」をタップ
2.「アクセシビリティ」、「ショートカット」の順にタップ
3.「ホワイトポイントを下げる」にチェックを入れる

これでホームボタンもしくはサイドボタン(iPhone X)を3回押せばホワイトポイントを下げる機能をオン/オフできる。なおショートカットで2つ以上の項目を有効に設定した場合は、機能を切り替えるメニューが表示されるので、「ホワイトポイントを下げる」をタップしてオン/オフを切り替える。


程よい「暗さ」で快適なiPhone生活を


おなじみのものから「そこまで暗くしろとは一定ない」レベルまで、iPhoneの画面を暗くする方法を解説した。
とかくディスプレイの美しさがアピールされがちな昨今ではあるが、目の健康を考えれば、必ずしも美しく明るいディスプレイばかりが正義ではない。今後はTPOに合わせて、ディスプレイの明るさ、いや「暗さ」を意識することが重要な時代になってくるだろう。。
画面を暗くして、明るく健康的なスマホ生活を楽しもう。

2018年12月17日月曜日

見えない立場から「この画像説明して」サービスを妄想。


以前、スマートフォンなどを介して視覚障害者をサポートする技術についてエントリーしたが、これらのサービスは基本的に晴眼者とリアルタイムに接続し、目の代わりをしてもらう、というコンセプトだ。この方法はオールマイティだし緊急時に大きな助けになるのだが、利用する側としては、支援者の時間を拘束してしまうためスナック感覚で利用するには若干ためらいを感じるのも事実。「TapTapSee」は手軽さはあるのだが、見て欲しいポイントをリクエストできないもどかしさもある。

「急ぎではないので、暇な時にちょっとこれ見てもらいたい」的なサービスがあればいいのになあ、とぼんやり考えたのでちょっとメモ。

※以下は筆者の妄想なので軽くお読みください。

このようなゆるい感じで筆者が見て欲しいのが、画像の判別だ。
近年ではAIによる画像解析が進歩し、Facebookの自動代替テキストや「Google Lens」、本ブログでも度々登場するアプリ「Seeing AI」などにその成果が現れている。視覚障害者にとっては「全く手がかりなし」の状態から、画像に何が含まれているのか、どのような雰囲気なのか、どのような人物かを知ることができるようになったのは革命的な出来事といっていいだろう。
ただ、現時点ではAIから受け取れる情報は必ずしも視覚障害者のニーズを満たせているとは言い難い。どうしても人の目に頼らなければ解決しにくい問題もある。
例えばこんな感じ。

・アプリの画面構成、読まないボタン名を知りたい
スマホやパソコンでスクリーンリーダーを用いアプリを使う際、読み上げカーソルがフォーカスはするが正確にラベル付けがされていないボタンやパーツにしばしば出会う。このボタンの名前がわかれば主導でラベルを付与できるのに! そのような時にスクリーンショットを見て教えてもらえるととても助かりそう。また使い慣れていないアプリでは、全体の画面構成やボタンのレイアウトをざっくり教えてもらえれば、それをイメージして利用できる、と思う。

・ネット通販で商品の外観を知りたい
ネットショッピングは視覚障害者にとって欠かせないサービスだが、商品の説明が不足しているものも少なくない。特にスペックや機能説明では判別できない外観やデザイン、ギミックは写真を見て判断してね、という雰囲気をビシビシ感じて切なくなる。Amazonなど質問できる場合もあるが、「見えない」ことが伝わらないと的を射た回答が得られないこともある。商品が到着して触れてみると思ったものと全然違った、なんて日常茶飯事である。もしかしたら配送ミスの可能性もあるけど多分違うと思う。

・撮影した写真を判別したい
筆者も外出時などで同行者に手伝ってもらいつつ写真を撮影するのだが、いざその写真を誰かに送ったりSNSやブログにポストしようとすると、どれがどの写真か判別できなくなることがある。撮影時に取ったメモや撮影地・日時を手掛かりにしても自信んが持てない写真を「これ、あの写真ですか?」とお聞きしたい。

このようなニーズは、さほど急がないものの、AIで解決するのは難しい。
いま筆者が「こんなのあればいいなあ」と思っているのは、視覚障害者が確認してほしい画像や写真をアップロードし、それを晴眼者が確認して知りたい内容をコメントしてくれるようなWebサービス。モバイルで使えるのが望ましい。


画像を文字で説明するのは難しいケースもあるかもしれないが、回答者が返信しやすいように、知りたいポイントを明確にする仕組みが必要だろう。アプリの画面説明など重複しやすい質問はデータベース化して共有できる仕組みも欲しい。
また回答者に対して、依頼者からメッセージを受け取る他にも「いいね」やポイントのような何らかのインセンティブがあれば、モチベーションも上がるのではないか。

……という感じ。
もしかしたら既にこのようなサービスが存在するかもと心の片隅に不安を抱きつつ妄想を書き連ねてしまった。そもそも既存の写真共有サービスやSNSで質問すればよくね?というツッコミはあると思うのだけれど、知識を集約することで情報の共有もできるし、見えない・見えにくい人がどのようなケースで困っているかをアピールすることもできるのではと考えた次第。
ネットワークを通じた障害者支援にも、もっとさまざまな形態があって良いのになあ、と思う今日この頃。以上、思いつき失礼しました。


2018年12月16日日曜日

MacのVoiceover環境で翻訳ツール「Miya Translate」を試す。


筆者は英語が苦手だ。
見えていた頃はもう少し英文を読めていた気がするのだが、スクリーンリーダー使いにクラスチェンジしてからはさっぱりである。英文を読み上げで聞いていると頭痛、悪寒、だるさ、吐気、やがて猛烈な睡魔が襲いかかり意識が遠のいてしまう(一部誇張)。要するにリスニングがだめなのだ。
もちろん単語レベルでゆっくり読めば多少ましではあるが、それでは量をこなせない。そこで月並みだがGoogle翻訳のお世話になっている。一昔前までは訳文の破綻が著しくあまり役にたつイメージではなかったが、近年ではかなり賢くざっと意味を把握する助けには十分の精度。ありがたや。

例えばWebページであれば、Safariの機能拡張「Translate」を組み合わせたり、Chromeを使えばコンテキストメニューから簡単にページを翻訳して読めるし、Twitterクライアントなら「Twitterrific」「夜フクロウ」のツイート翻訳機能をショートカットキーで即座に呼び出せる。とっても便利。


RSSリーダーで記事を翻訳したいのだが。


問題はRSSリーダーである。
筆者が使っているのは「ReadKit」。ありがたいことにVoiceoverで問題なく使えるのだが、残念ながら翻訳機能は搭載されていない。
しばらくは自力でなんとか英文を読み、興味のありそうなニュースをSafariで開いて翻訳していたが、思ったような内容ではなかったり、そもそも英語以外の記事は片っ端からSafariで翻訳するしかなく、これでは時間がいくらあっても足りなくなることに気がついた。
とはいえ翻訳ができるRSSリーダー、しかもVoiceoverで使えるものは見つからない。となると、ReadKitで受信した記事をSafariで開かずに、ヘッドラインを簡単に翻訳する手段を用意する必要がある。
テキストをコピーして素早く翻訳するツールを探したところ、「Translate Tab」「Miya Translate」あたりが良さそう。どちらもクリップボードの内容を自動翻訳でき、ホットキーで起動できるらしい。
悩んだあげく選んだのは「Miya Translate」。決め手はお値段でしたとさ。高いお金を出して購入してもVoiceoverで使えなければ無駄になるので、失敗してもダメージが少ない方を選びがち。スクリーンリーダー使いあるあるである。

Miya Translateは、メニューバーに常駐して、いつでも翻訳ウィンドウをポップアップして利用できるユーティリティ。こいつとVoiceoverの読み上げコピーを組み合わせて、できるだけ素早くRSSリーダーの英文を翻訳しようという算段である。


Voiceover環境でMiya Translateを使う


このツールを起動したら、まず設定を開いて「Automatically translate Clipboard」にチェックを入れる。これでクリップボードにコピーされた内容を自動的に翻訳してくれる。
あとはReadKitで翻訳したい記事のヘッドラインが読み上げられたら「VO+Shift+’C’」を押して読み上げられた原文をクリップボードへコピー。
「VO+’M’」を2回押してメニューバーからMiya Translateを選んで開けば、ウィンドウがポップアップして翻訳結果が表示される。

このウィンドウはGoogle翻訳のWebコンテンツそのものなので、ローターで「テキストフィールド」を選んで移動し、「VO+’右矢印’」を5回押せば翻訳文を読み上げる。Webスポットに登録すれば楽かなと思ったがポップアップを閉じるとWebスポットがクリアされてしまうようで使えなかった。
まあ、ローターの選択項目は再現されるのでポップアップが開いたら「VO+Command+’下矢印’」、「VO+’右矢印’」5回と覚えておけばさほど苦にならない。はず。
メニューバーのMiya Translateアイコンを押せば、ポップアップが閉じて元のアプリケーションに復帰する。

ポップアップが開けば翻訳結果がポンと読み上げられるのが理想だが、やはりお値段なりということか…。


ホットキーでMiya Translateを呼び出す


Miya Translateは、いつでも機能を呼び出せるホットキーが利用できる。Voiceoverではメニューバーアイコンを操作するのがやや面倒なのでホットキーの利用が便利だ。ホットキーはMiya Translateの環境設定から登録できるのだが、ちょっと工夫が必要なのでメモ。

まずこのホットキー設定、設定ボタンをクリックしてホットキーを登録するのだが、この設定ボタンは「VO+’スペース’」では押すことができない。マウスでクリックしなければならないので、キーボードだけで設定する場合は以下のように操作する。

1.VOカーソルを設定ボタンにフォーカス
2.VO+Command+’F5’でポインタを移動
3.VO+Shift+’スペース’でクリック操作
4.設定したいホットキーを押す
5.「Shortcut set」と読み上げられれば成功。

なおホットキーの代わりにDeleteを押せば「Shortcut cleared」と読み上げられて設定がクリアされる。デフォルト値ではVoiceoverとキーコンビネーションが被る可能性があるのでクリアしておいた方が無難だろう。

では実際にホットキーを使ってみる。
まず翻訳結果をポップアップするホットキーを「Menu Bar Translator Window」に設定する。これで「VO+Shift+’C’」で原文をコピーし、このホットキーを押せば翻訳されたウィンドウが開く。大成功。

だが困ったことに、このホットキーではポップアップが閉じてくれない。なぜだろう。わからない。
そこで「Show/Hide Translate App」に別のホットキーを設定すると、このキーを3回押せばポップアップが閉じることがわかった。
ややスマートさには欠けるが、まあいいだろう。
「Translate Tab」の方もきになるのだが、どうなんだろうなあ。お値段3倍ですし。

何はともあれこれでRSSリーダーのヘッドラインを記事をSafariで開くことなく翻訳して確認できるようになり、結構な時間短縮を実現できた。めでたい。
RSSリーダーに限らず、テキストがコピーできるものなら(さらにいえばVoiceoverで読み上げられるものなら)簡単に翻訳できるのでこれは心強い。もちろん日本語を他言語に翻訳する時にも使えるだろう。

あ、今気がついたがRSSリーダーに限ると、もしかしたらFeedlyのようなWebベースのRSSリーダーとWebブラウザの翻訳機能を組み合わせた方が簡単かもしれないが、試していない。この件については、RSSリーダーサービスのアクセシビリティを含め、機会をみて検証したい。


※この記事はmacOS Mojave 10.14.2にて執筆しました。

2018年12月13日木曜日

Orcam社の「Myme」は、人間関係をトラッキングする。


視覚障害者を強力にサポートする小型ウェアラブルAIデバイス「Myeye 2.0」で一躍世界の注目を集めたイスラエルのスタートアップOrcam社は、2018年12月12日、新製品「MyMe」のクラウドファンディングサイトKickstarterでの出資キャンペーンを開始した。

「OrCam MyMe」のターゲットは、日々多くの人々とコミュニケーションしているビジネスパーソンだ。会議や取引先とのミーティング、イベントやパーティーでは多くの人物と出会う。名刺やスマートフォンの連絡先を交換したとしても、しばらく会わなければ名前と顔を一致させるには相当の記憶力が必要だろう。「以前お会いしましたね?」と話しかけられ、記憶の糸を延々と手繰り寄せる気まずい時間を誰でも体験したことはあるはずだ。

役1,300万ピクセルの広角カメラを内蔵した親指ほどのこのデバイスは、スマートフォンやスマートウォッチとペアリングして使用する。これをシャツやネクタイなどに装着しておけば、およそ1秒に1枚程度の間隔で画像を解析し、顔認識技術で人物をリアルタイムで判別。認識された顔に名前を登録しておけば、以降その人物と会った時に通知してくれる。認識された人物には様々なタグを付与したり、連絡先との紐つけが可能だ。

Mymeは、ただ顔を認識するデバイスではない。その人と以前いつどこで会っているか、どのくらいの時間を過ごしているかをロギングしたり、グループ化して交友関係を定量化できるのが大きな特徴である。
フィットネストラッカーが健康状態を記録するように、Mymeは人間関係をトラッキングする。フィットネストラッカーが運動不足や睡眠時間をアドバイスするように、Mymeは、多忙であまりゆっくり過ごせていない家族との時間や疎遠になっている友人とのコンタクトをレコメンドしてくれるかもしれない。それを望むかどうかは別として。

Mymeではさらに、顔データにOCR(光学文字認識)で検出した名刺や名札の情報を関連づけたり、メモやSNS情報と結びつけることもできるようだ。「この人誰だっけ?」となかなか顔と名前が一致しない人には便利かもしれないが、面会した瞬間その人のTwitterやFacebookの投稿がポップアップするのは場合によっては気まずい空気になるかもしれない。

検出された顔データはローカルで処理されクラウドへは送信されない、鮮明な画像は残さないなど、プライバシーには配慮しているようだ。ただ、撮影される側としては勝手に顔を撮影され人間関係をトラッキングされるのは、抵抗感があるかもしれない。顔検出技術の応用として興味深い製品であることは間違いないが、賛否は大きく分かれそうだ。

ただ視覚障害者にとっては魅力的なデバイスであることは確か。Myeye 2.0の顔検出機能は認識した顔を登録しておけば名前を読み上げるというシンプルなものだったが、Mymeなら名前以外のさまざまな情報を紐つけることで、コミュニケーションを円滑かつ豊かにすることができそうだ。Orcam Myeyeを開発した同社だけに、アクセシビリティは問題ないはず。ああ、でもスクリーンリーダーで使う時はイヤホンが必須かもしれないなあ。

Orcam Mymemの予定価格は399ドル。現在Kickstarterキャンペーンで、半額の199ドルから出資可能。英語バージョンの出荷は2019年春頃に予定されている。公式ページではプロモーションムービーなども公開中。

関連リンク:

支援技術関連記事まとめ(2022年10月)

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...