2020年2月29日土曜日

[iOSメモ] Twitter公式アプリのタイムラインから海外のWebページを開いて翻訳する。


日本語ネイティブな私でも海外からの情報をキャッチできるのは、一重に翻訳ツールのおかげ。ここではiOSで海外のWebページ、特に公式Twitterアプリのタイムラインに流れているWebを翻訳して読む2通りの方法をメモしてみる。筆者のTwitterもよろしくね。
なおVoiceover使用を前提にしています。iOSのバージョンは13.3.1。

1. Twitter内蔵ブラウザとMicrosoft翻訳を組み合わせる。


Microsoft翻訳(Translator)は、Microsoftの翻訳エンジンを用いた翻訳アプリ。テキスト翻訳や音声、画像翻訳に加え、Safariの機能拡張も含まれており、Safariの共有メニューから簡単にWebページを翻訳できるのが特徴となっている。

開発 Microsoft Corporation
価格 無料
執筆時のバージョン 3.2.17B3287

・翻訳の設定

  1. Translatorを起動し「設定」を開く。
  2. 「Safari翻訳言語」を開いて「日本語」を選択。
  3. 「戻る」をタップ。

・翻訳を実行する

  1. Twitter公式アプリでリンクが含まれるツイートを選択。
  2. 上スワイプして「リンク」と読み上げられたらダブルタップ。
  3. もしくはツイートを開いてリンクをタップ。
  4. TwitterのWebブラウザが開きページが読み込まれたら「共有」をタップ。
  5. 共有アクションシートが開くので「Translator«」を探す。もし「Translator」が表示されていなければ「アクションを編集」をタップしてTranslatorを有効にする。ここで表示順序を上げておくと便利かも。
  6. 「Translator」をタップ。
  7. ページが日本語に翻訳される。必要に応じて「フォーマットのオプション」を開いてリーダーを有効にすれば、さらにVoiceoverで読みやすくなる。
  8. 「完了」をタップしてタイムラインに戻る。

この手順ではTwitterアプリに内蔵されているブラウザを用いているが、Safariでも同様の手順でページを翻訳することができる。
ただ、ページの内容によってはうまく翻訳されない場合もある。その時は以下の手順を参考にChromeで翻訳してみよう。
またどういうタイミングかは謎だが、Translator設定のSafari翻訳言語がリセットされている(英語に設定されている)ことがある。うまく翻訳されないと感じたら設定を確認してみよう。

2. Google ChromeでWebを開いて翻訳する。


ChromeはGoogleが開発しているWebブラウザ。ブラウザ自体に翻訳機能が搭載されており、表示したページをワンタップで翻訳できる。翻訳エンジンは当然Googleだ。

開発 Google LLC
価格 無料
執筆時のバージョン 80.0.3987.95

・翻訳を実行する

  1. Twitter公式アプリでリンクが含まれるツイートを選択。
  2. 上スワイプして「リンク」と読み上げられたらダブルタップ。
  3. もしくはツイートを開いてリンクをタップ。
  4. TwitterのWebブラウザが開きページが読み込まれたら「共有」をタップ。
  5. 共有アクションシートが開くので「Chrome」をタップ。環境によっては「そのた」を開くとその中に「Chrome」を見つけられるはず。
  6. 「Chromeで開く」をタップ。
  7. Chromeが起動してページが読み込まれる。
  8. 日本語以外のページを開くと画面下部に翻訳オプションがポップアップする。左した隅の「戻る」にフォーカスして左スワイプすればすぐに見つかる。ここにある「日本語」をタップする。
  9. もしくは「メニュー」を開き、「翻訳」をタップ。
  10. ページが日本語に翻訳される。

読み終わったら「タブを表示」をタップしてタブを閉じておくことも忘れずに。
なおChromeの翻訳オプションは設定の「言語」から無効にできる。また言語ごとに翻訳オプションを表示するかどうかを設定することも可能だ。

TranslatorとChrome、どちらを使うべきか。


Microsoft翻訳、少し前までは翻訳の精度的にいまひとつというイメージがあったが、最近ではクオリティが上がっているようで、かなり自然で読みやすい訳文が生成される。ただそれでもまだGoogleの訳文の方が読みやすいのも事実。
使い勝手としてはTwitterアプリで翻訳が完結するTranslatorの方が便利だが、翻訳の品質はChromeの方が上。悩ましい所だ。

ただSafariには協力なリーダー機能があるので、現時点では普段使いとしてSafariとTranslatorの組み合わせがベターかな? 翻訳に失敗したり翻訳結果に難がある、長文の時にはChromeを使う。要するに使い分けるのがよろしいのではないかと。


なおiOS版Microsoft Edgeの翻訳も試してみたが、うまく翻訳されないページが多くまだ実用的とはいえないという印象。ただEdgeはページがロードされたタイミングで翻訳を自動的に実行できたりするので今後の開発に注目したい。とことんズボラな筆者なのである。

2020年2月10日月曜日

Amazon、英国RNIBと提携。ALEXAによる視覚支援情報サービスを提供。


2020年1月24日、英国の視覚障害者支援団体RNIB(The Royal National Institute of Blind People)は、Amazonと提携し同社の音声アシスタント「ALEXA」を用いた情報提供サービスを開始した。
これにより見え方に何かしらの不安を感じているユーザーがスマートスピーカーやスマートフォンを用いて、支援サービスや支援技術に関する様々な情報を音声で得られるようになる。
RNIBとAmazonの提携といえば昨年9月に発表されたALEXAのCMが記憶に新しい。視覚障害者にとって音声アシスタントが有用であるという両者の共通認識が今回のサービス提供につながったと言える。

視力を失う要因には緑内障や網膜色素変性症、黄斑編成など様々な疾患がある。もしもこれらの診断が告げられ、視力の回復が見込めないことがわかったら、できるだけ早く支援につながることが重要だ。今回発表されたサービスでは、例えばこのようなフレーズに答えてくれるという。

“Alexa, how do I register as sight impaired or severely sight impaired?”
視覚障害者として登録するにはどうすればよいですか?
“Alexa, what assistive technology do blind people use?”
視覚障害者が使用する支援技術には、どのようなものがありますか?
“Alexa, what should I do if I think I’m losing my sight?”
目が見えなくなったと感じたら、どのように行動すれば良いですか?

このようなフレーズをALEXAに話しかければ、RNIBのデータベースを通じて適切なアドバイスが音声で返答されるという。これらの情報はRNIBのWebサイトにも掲載されているが、ALEXAを用いることでパソコンやスマートフォンの操作に不慣れな人々でも簡単に情報へリーチできるメリットがある。
例え見えていた頃はスマートフォンやパソコンを使えていたとしても、見えにくくなりすぐにスクリーンリーダーなどの支援技術を活用できるかといえば、それはかなり難しいだろう。そのような人々にもこのサービスは役立つ。
もちろん電話など旧来からのチャンネルは存在するが、自らの障害を受け入れいきなり連絡するというのは結構ハードルは高い。その点、基本的な情報に手軽にアクセスできるALEXAは、特に中途視覚障害者にとっては支援につながるための第一歩として価値のある情報源の一つとなり得るかもしれない。

視覚に障害を持っても、どのような支援があり、その支援にどうやってつながることがデきるのかといった情報を得るのは難しい。なぜなら多くの人々にとって障害者の世界はあまりにも縁遠く、自分が視力を失う可能性など考えていない。いや考えることを避けているからだ。人生半ばで視力を失った人々の中には、まるで見知らぬ世界に突然放り出されたかのようにうろたえてしまう者も少なくない。。支援する側としても、このような人々をいかにして支援につなげるかは大きな課題となっている。
ALEXAを用いた情報提供は、このような「情報から突然社団されてしまった人々」にとって大きな力になるだろう。今後の英国における評価に注目したい。


2020年2月9日日曜日

Twitter、GIF画像に代替テキストを追加する機能を公開。アプリ版にも対応。


Twitterは2020年1月31日、GIF画像に説明文(代替テキスト)を追加する機能を公開した。同社は2016年に画像に説明文を追加する機能を実装したが、同様の機能がGIF画像でも利用できるようになる。

※2020年3月5日、、iPhoneおよびAndroid版アプリでも同様の機能が利用できるようになった。なおTwitterのアクセシビリティ・ヘルプはまだアップデートされていない。

GIF画像とは、複数枚の画像を連続表示して簡単なアニメーションを再生する画像のこと。ツイート投稿時に用意されているGIF画像を選ぶことで追加することができる。一般的にはツイートを目立たせるための装飾的な意味合いで用いられることが多いが、本文を入れずにGIF画像のみで感情を伝える、いわばLINEのスタンプのような使われ方もされている。

ただこのGIF画像、スクリーンリーダーでは「動画」としか読み上げられず、画面読み上げ機能を利用しているユーザーにはその画像で表現する意味は伝わらな買った。今回の機能追加によりそのような人々にもGIF画像でメッセージを伝えることができるようになる。

GIF画像に説明文を追加するには、事前にTwitterの設定からアクセシビリティ機能を有効にする必要がある。この設定は画像の説明文を追加する機能と共通のようだ。

・Web版の設定

  1. 「その他のメニュー」から「設定とプライバシー」を開く。
  2. 「アクセシビリティ」タブをクリックし画像の説明を追加」にチェックを入れる。

・iOS版アプリの設定

  1. アカウントメニューを開き「設定とプライバシー」を開く。
  2. 「アクセシビリティ」を開き、「画像の説明を追加」をオンにする。

・Web版でGIF画像に説明文を追加する手順

  1. 「ツイートする」をクリックするか「N」をおす。
  2. 「GIF画像を追加」をクリックしてツイートに追加するGIF画像を選ぶ。
  3. 「説明文を追加」をクリック。
  4. テキストフィールドが表示されるので説明文を入力してツイートする。

・iOS版アプリでGIF画像に説明文を追加する手順

  1. 「ツイートする」をタップする。
  2. 「GIF画像ライブラリ」をタップしてツイートに追加するGIF画像を選ぶ。
  3. 「この画像に説明を追加」をタップ。
  4. テキストフィールドが表示されるので説明文を入力してツイートする。

説明文は最大420文字まで入力できる。この手順で投稿されたツイートをスクリーンリーダーで読むと、GIF画像の部分で「動画」に続き入力された説明文が読み上げられる。これでスクリーンリーダーユーザーにとって存在しないも同然だったGIF画像が意味を持つことになる。

しかしいくら機能が追加されたとはいえ使われなければ意味はない。画像の説明文機能ですらほとんど利用されていない現状を考えると、多くのTwitterユーザーが積極的にこの機能を使うための工夫が必要だろう。画像の説明文もそうだが、この機能がデフォルトで有効になっていないことも、利用されない大きな要因の一つなのは間違いない。
ことGIF画像は手軽に感情表現するために用いられることも多い。これに代替テキストを入れるユーザーがどれくらいいるのかは疑問だ。自動代替テキストなどシステム側からのアプローチも必要なのではないだろうか。



2020年2月5日水曜日

米国。電動車椅子がゲームコントローラーになる「Freedom Wing Adapter」。


2018年にMicrosoftが発売した「Xbox Adaptive Controller(XAC)」は、Xbox OneおよびWindows PCと、障害者向け適用ゲームコントローラー(大きなスイッチやペダルなど)を接続するハブの役目を持つ周辺機器だ。XACの技術仕様は公開されており、汎用部品と3Dプリンター、簡単な電子工作の知識があれば障害の状態に合わせたカスタムコントローラーを簡単かつ安価に作成できる。
また米LogitechはXACに接続して利用できるコントローラーセット「Adaptive Gaming Kit」を販売するなどXACの登場により、主に運動障害を持つ人々のゲームに対する障壁は大きく下がりつつある。

ただ身体の動きが制限されている状態では、専用設計されたコントローラーといえども、その操作を習得するのは簡単なことではない。またゲームをプレイするたびにスイッチ類をテーブルや車椅子に固定するなどセットアップの手間もかかり、大きな負担を余儀なくされている。
だったら普段の操作に慣れている、電動車椅子のジョイスティックでゲームを操作できれば良いのでは?
「Freedom Wing Adapter」は、そんな逆転の発想から生まれたXAC用のアダプタだ。

米国で障害者のゲームプレイ環境を支援する団体AbleGamersと、ATmakersのクリエイターとの提携によって生まれたFreedom Wing Adapterは、電動車椅子の9ピン端子を経由しXACと接続する。これにより電動車椅子を制御するジョイスティックやボタンを使用して、Xboxのゲームを操作することができる。いわば電動くるまいすをXboxのコントローラーに返信させてしまうアダプタなのだ。

AbleGamersが公開したビデオでは、同団体のCOOであるSteve Spohn氏が車椅子のジョイスティックとシフトボタンを器用に操作し、カーアクションゲーム「ロケットリーグ」をプレイする様子が修められている。
日常的に使いこなしている支援装置にアダプタを接続するだけででゲームをプレイできるというのは、障害者への負担を最小限に抑えつつゲームに集中して楽しむ助けをしてくれるだろう。

Freedom Wing Adapterは、AbleGamersを通じて希望者に無料で提供される。また回路図が公開されており、30ドル程度で自作することも可能という。導入コストが抑えられれば、障害者のゲームに対するハードルはさらに下がるはずだ。

障害者の「ゲームで遊びたい」という欲求は、これまでも数多くの支援者の力により「適用コントローラーの自作」という形で実現されてきた。
ユーザーの障害や身体の特性にあったカスタマイズが容易に行えるXACはこのような人々の背中を押しつつ、より高度で低コストな環境を提供しようとしている。今後もこのような創意工夫にあふれた製品が出現してくるに違いない。なおXACは先日日本でも販売が開始されたが、これを執筆している現在は在庫切れとなっているようだ。

願わくば、これがXboxやPC以外の環境へ広がることを期待したい。ことアクセシビリティに関しては、メーカーの垣根を超えた動きがあっても良いのではないだろうか。



2020年2月3日月曜日

[粗訳] iPhone用オーディオゲーム「Audio Rush」。


「Audio Rush」は、iPhoneでプレイできるオーディオゲーム。音の速さを聞き分け、左右スワイプで素早く障害物を避けながら、ひたすら遠くまで進むアクションゲームだ。ゲームが進むほど難易度は上がっていく。視覚効果もあるようだが、私にはわからない。

Audio Rush (V 1.1)
開発 Vaclav Smital
価格 無料

・メインメニュー

Get started:チュートリアルを表示。
Play:ゲームを始める。
Visibility:障害物を非表示(enabled.)表示(disabled.)を切り替え。
Leaderboards:Game Centerに接続。
difficulty:難易度切り替え(3段階)。

・チュートリアル翻訳

Audio Rush is an arcade game focused on accessibility
オーディオラッシュは、アクセシビリティに焦点を当てたアーケードゲームです

Move finger left or right to avoid moving obstacles
動き回る障害物を避けるため、指を左右に動かします

Quieter tones means you need to move longer distance.
Tap continue to hear them
より遠くを目指すために、音の速さを聞き分けます。
Continueをタップして、聴いてみましょう。

Slow tone means move right
遅い音が聞こえたら、右へ移動します。

Fast tone means move left
速い音が聞こえたら、左に避けます。

Tap anywhere with two fingers to pause
画面のどこかを2本指でタップすれば、一時停止します。

Would you like to make obstacles invisible?

障害物を見えないように設定しますか?

アクセスできないアプリやWebを「Seeing AI」で探索する。

Seeing AIでアプリ画面を解析。

さて全盲の筆者は、普段iPhoneをVoiceover(音声読み上げ機能)を駆使しながら活用している。そのような日々の中で痛感しているのは、音声読み上げ環境で利用できないアプリやWebがあまりにも多いということ。せっかく便利そうなアプリを見つけ、ワクワク気分でインストールしたとしても、その期待はすぐに失望へと変わってしまう。

アプリを起動しても、
  • 画面をタップしようがスワイプしようが、ウンともスンとも言わない。
  • アプリ本編に進むためのボタン(使用許諾の同意ボタンなど)が見つからない。
  • ボタンにラベル(名前)がつけられておらず、音声で機能を把握できない。

こんなことは日常茶飯事。これはアクセシブルでないWebでも同じだ。
メガ見えるそこのあなた、こんなアプリやWebを想像して見て欲しい。
「画面が真っ暗」。「どこをタップしても無反応」。「ボタンに何も書かれていない」。
結構、絶望するでしょ?
Voiceoverユーザーは日常的にこのような「ガッカリ体験」を否応なく浴びせられているのである。それもこれも、多くのアプリやWeb開発者が、Voiceoverなどのスクリーンリーダーを使う人々のアクセシビリティを考慮していないことが原因なのだ。

大抵はこの瞬間テンションが劇さがりし即刻アプリを削除したりWebから立ち去ってしまうものだが(さようなら)、どうしてもそのアプリやWebを使わなければなら無いこともある。いや、使いたいからインストールしたんだけどね。

「今Voiceoverが立ち往生しているこの画面。一体何が映し出されているのだろうか?」
それがわかれば、何か大作を寝ることができる(かもしれない)。
そこで役立つのが「Seeing AI」である。

このアプリの画像認識AIを用いれば「画面に表示されているであろうなにか」を、音声で知ることができる。それを知ったからといって何かがすぐに解決するわけではないかも知れない。だがユーザーをガッカリさせたアプリの姿だけでも拝んでおくことができる。

では実際の手順。
アプリやWebにアクセスしVoiceoverがダンマリを決め込んだら、ここですかさず「スクリーンショット」を撮影しよう。ホームボタンがある機種ならスリープボタンとホームボタンを同時に押す。iPhone X以降ならサイドボタンと音量を上げるボタンを同時に押せばいい。シャッター音が聞こえれば成功だ。スクリーンカーテンはオンのままでもOK。

スクリーンショットが撮れたらSeeing AIを起動し「メニュー」>「写真の参照」をタップ。先ほど撮影したスクリーンショットを開くことでイメージが解析され、画面に写っている文字、場合によってはグラフィックスなどが説明される。ボタン上のテキストや説明文、初回起動時に表示されるインストラクション、何かの警告文、使用許諾画面……Voiceoverではわからなかった様々な情報が得られるだろう。
さらに「写真を探索」をタップし、認識された情報の位置をタッチで確認することで、画面のレイアウトが(大雑把だが)イメージできる。

もしタップできそうなボタンが見つかったら該当アプリへ戻り、Voiceoverをオフにしてその部分をタップしてみる。インストラクション画面なら、画面を何回か左スワイプしてみるのも有効だろう。「ラジオクラウド」は、この方法でアクセスできるようになったアプリの一つだ。(最新バージョンでは未確認)

またVoiceoverで操作はできるものの、ボタンに適切なラベルがつけられていないような場合も、この方法を用いてボタンの機能を把握するヒントが得られるかも知れない。ボタン上のテキストが判別できたら、項目をダブルタップ&ホールドしてカスタムラベルを付けレバいい。
例えば最近リリースされたマクドナルドの「モバイルオーダー」の商品を選ぶ画面を認識させたところ、画面にある読み上げないボタンの位置に「レギュラーメニュー」や「サイドメニュー」といったテキストが見つかった。
これまで見える人に手伝ってもらうしか確認しようがなかった画面を単独で把握できるようになったことは、率直に言って非常に画期的。すごいよSeeing AI。

とは言えこの方法でアクセスできるアプリは少数派だろう。アクセスできないアプリやWebは、首尾貫徹してアクセスできないことが多いためだ。結局のところ、開発者へフィードバックし改善を求めるしかない。ただこの場合でも、Seeing AIで内容を確認し「どこがアクセスできないか」を把握しておけば、より具体的な提案が可能になるはずだ。

まあ、そもそもアプリやWebは、このような工夫をすることなくアクセシブルであるべきである。いかなる理由があろうとも、スクリーンリーダーで使えないのは「不具合」である、という考え方が早く浸透して欲しいものだ。


2020年2月2日日曜日

「Seeing AI/Envision AI」でカメラ以外からのイメージを解析する方法。


Seeing AI」および「Envision AI」」は、いずれもスマートフォンのカメラを通じて紙に印刷された文字や人物の顔、街の風景や室内のようすなどを音声で説明してくれるという、画像認識AIを応用した視覚障害者必携のアプリだ。

これらのアプリはスマートフォンのカメラを用いて認識したいものを撮影するのが基本となっているが、実はカメラ以外の画像を読み込ませて、その内容を調べることもできる。この機能を使えば、Twitterのタイムラインに流れてくるテキストが含まれる画像や、パソコンに保存してある昔撮影した写真などの内容を(大まかに)確認できるようになる。

なおEnvision AIはAndroid版もリリースされているが、ここでは諸事情のためiOS版に限定して解説する。


Twitterに投稿された画像を解析する。


おそらく最も使用頻度が高いと思われるのが、Twitterのタイムラインに流れてきた画像の解析だろう。
Twitterには手動で画像に説明文(代替テキスト)を追加する機能が提供されてはいるのだが、説明文が入った画像に出会すことはかなり稀だ。
ツイート本文だけを読んでも意味が通じず、かつ画像が添付されている場合は、かなりの確率で画像に何かしらの情報が含められている可能性が高い。視覚障害者としては忸怩たる思いだ。140文字という制限を超えて情報を伝える手段として編み出された「テキストの画像化」だが、それは画像を見ることができない人々にとっては単なる「バリア」である。このところ情報の記録や共有にスクリーンショットを用いる慣習がスマートフォンユーザーの間に浸透しているという。また、あえて記事を画像化してSNSへ配信するメディアも登場しており(@buzzfeedkawaiiなど)、このような流れはアクセシビリティを重視する近年のWebトレンドに逆行する流れのように思う。画像説明文機能の啓蒙やFacebookのような自動代替テキスト機能の実装が急がれるだろう。

話が少しそれた。
まあ今のところは、そのようなツイートは読み飛ばしてしまえば良いのだが、Buzってるツイート、ちょっとどんなものか知りたいというのが人情ってものである。

そこで役立つかもしれないのが、「Seeing AI」や「Envision AI」の画像認識機能だ。Twitterの画像をこれらのアプリへ送信することで、その画像に含まれるテキストやオブジェクトを知ることができる。もちろん目で見る場合と比べると得られる情報は限られてしまうが、ざっくりと雰囲気を味わうことはできるだろう。
ここではTwitter公式アプリからの解析手順を紹介しよう。

  1. 公式Twitterアプリで画像を含むツイートを開く。
  2. 画像を開く。(風景 イメージや、人物画像 イメージと読み上げられる部分)
  3. 画像が開いたら「その他のアクション」をタップする。
  4. 共有アクションシートから「Seeing AIで認識する」もしくは「Envision It」をタップ。
  5. 各アプリが開き、画像の内容が解析される。

Voiceoverでツイートを開き画像をタップすると、なぜか返信画面になることがある。これはTwitterアプリの不具合なのかな。2本指トリプルタップで項目セレクタを開き指定する方法もある。
なおSeeing AIもしくはEnvision AIがインストールされており、正常に起動するにもかかわらず共有アクションシートに「Seeing AIで認識する」もしくは「Envision It」が表示されない場合は「アクションを編集…」をタップしこれらの機能を有効にする。


パソコンにある画像を解析する。


パソコンに保存されている画像の内容を解析して音声で内容を知りたい場合、テキストだけであればOCRソフトやGoogle Chromeのイメージ取得機能、Windows 10であればNVDAを使って画像からテキストを抽出することができる。だがオブジェクト認識、つまり「何が写っている」かを解析する手軽な方法は、今のところなさそう。
Chromeのイメージ解析機能がオブジェクト識別に対応してくれると良いのだけど、筆者の環境ではまだ使え無いみたい。もしかしてウチだけ?

ということでSeeing AIもしくはEnvision AIを使い、パソコンに保存されている画像に何が写っているかを調べてみる。何かしらの方法で画像ファイルをiPhoneへ送信し、Seeing AIやEnvision AIに渡してやれば良い。
一例としてここではiCloud Driveを経由してiPhoneの「ファイル」アプリから各アプリへ共有する手順をご紹介しよう。
前準備として、macOSではiCloud環境設定からiPhoneと同じApplle IDを登録。Windowsの場合はWindows用ICloudをインストールし、iPhoneと同じApple IDでログインする。

  1. 認識させたい画像をパソコンのiCloudドライブへ同期する。
  2. iOSの「ファイル」を起動し同期した画像ファイルを開く
  3. 「共有」をタップする。
  4. 「Seeing AIで認識する」もしくは「Envision It」をタップ。
  5. 各アプリが起動し画像が認識される。

iCloudの代わりにDropboxを使用する場合は、パソコンからファイルを同期しiOSアプリ側で解析したいファイル名にフォーカス。カスタムアクション(上下フリック)を開き「エクスポート」を選択。アクションシートから「別のアプリで開く」をタップして、各アプリへ共有する。「共有」ではなく「エクスポート」を選ぶのがポイントだ。

またMacの場合はAirDropを使う方法もある。
Finderから画像のコンテキストメニューを開いて「共有」>「AirDrop」を開き送信先のiPhoneを指定する。iPhone側のファイル受診画面から「共有」をタップし、「Seeing AIで認識する」もしくは「Envision It」をタップすレバ画像が認識される。Macならこの方法が最も簡単だろう。


iPhoneのSafariで表示された画像を解析する。


Twitterと同様、Web上の画像も、まだまだ代替テキストが的確につけられているものは少ない。代替テキストが設定されていなければ、視覚障害者は画像から得られるはずの情報を受け取ることはできない。これも本来ならコンテンツ提供者が用意すべきものなのだが、致し方ない。これもアプリを使って解析するほかない。

ただiPhoneのSafariで表示された画像を認識するには、ちょっと手間がかかる。Safariの共有アクションシートに「Seeing AIで認識する」と「Envision It」が表示され無いためだ。
そのためSafariから一旦、iPhoneのフォトライブラリもしくはストレージに画像を保存してから、保存先でSeeing AIやEnvision AIに画像を共有する必要がある。
これは標準メールアプリでも同様で、画像の共有アクションシートからSeeing AIやEnvisionが選べ無い場合はこの方法を用いる必要がある。
Safariで画像を保存する方法は以下のとおり。

  1. Safari上の画像をダブルタップ&ホールドしコンテキストメニューを開く。
  2. 「写真に追加」をタップすると画像がフォトライブラリへ保存される。
  3. または「共有」をタップして「ファイル」や「Dropbox」などに保存する。

「ファイル」や「Dropbox」へ画像を保存した場合は先述の手順で各アプリから画像をSeeing AIもしくはEnvision AIへ共有して認識させる。
フォトライブラリへ保存した場合は「写真」アプリを起動し、先ほど保存した画像を開き「共有」からSeeing AIやEnvision AIを選択し画像を解析する。

またSeeing AIを用いる場合はフォトライブラリに保存されている画像を直接ブラウズして解析処理を実行することができる。手順はこちらのほうがシンプル。
Seeing AIを起動し「メニュー」>「写真の参照」を開くと、フォトライブラリに保存されている画像が新しい順番にリストアップされる(表示する順番は設定から変更可能)。
画像をタップして開くと解析処理が実行され、画像に含まれるオブジェクトやテキストが説明される。保存した画像が複数ある場合はこのまま3本指で左スワイプすれば次の画像が読み込まれ処理される。
内容を確認するだけが目的であれば、後で混乱し無いためにも「削除」をタップして画像を削除しておこう。


支援技術関連記事まとめ(2022年11月)※お知らせあり。

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...