2020年10月27日火曜日

[iPhone]「Sullivan+」:さまざまなイメージをAIで認識し音声で読み上げるアプリ。


ヘレン・ケラーの家庭教師であるアン・サリヴァン先生にちなんで名付けられた「Sullivan+」はスマートフォンで撮影したイメージを画像認識AIで解析し、ユーザーに音声で教えてくれる、視覚障害者に向けて開発されたアプリです。

開発したのは韓国に本拠地を置くTUAT Inc.。iOS版のほかAndroid版もリリースされており、いずれも無料で利用することができます。


このアプリはスマートフォンのカメラで撮影した文字、顔、風景やオブジェクト、色、明るさなどを解析し音声で読み上げます。一回の操作で3種類の認識を同時に実行する「AIモード」が特徴。またiPhoneに保存されている写真を読み込み解析することもできます。

インターフェイスや解析結果は基本的に日本語化されており、3つのボタンによる操作もシンプル。スマートフォン初心者でも簡単に使い始められる設計になっています。

なお一部の機能を除き利用にはインターネット接続が必要。念のためプライバシーには十分に注意して利用しましょう。


ではこのアプリの使い方をざっくり紹介していきます。

ここではiOS版をVoiceoverオンの状態で使っています。アプリのバージョンは1.3。

Voiceoverがオフの場合、一部の操作方法が異なるので注意が必要です。


インターフェイスと基本的な使い方。


アプリを起動し、インストラクション画面とカメラへのアクセス許可を終えると、メインの画面が表示され、画面の下部に左から「メニュー」「キャプチャ」「機能」という3つのボタンが並んでいることがわかります.


基本的な操作は

  1. 「メニュー」から使いたい認識機能を選ぶ。

  2. 「機能」からオプションを設定。

  3. 「キャプチャ」で選択した認識機能を実行。

という流れになります。


認識結果は「キャプチャ」を実行した直後に音声で読み上げられる他、画面の上部に表示されている認識結果をタップすることでも確認できます。

では各ボタンの使い方を紹介しましょう。


「メニュー」ボタンの使い方。


このボタンからアプリの認識機能を選んだり、設定やヘルプ画面などを利用することができます。なおホーム画面のアイコン長押しでコンテキストメニューを開き、認識機能を選んでアプリを起動することもできます。


  1. 「メニュー」にフォーカスしたら、一本指で上下スワイプします。

  2. 使いたい機能が読み上げられたらダブルタップで決定します。

  3. もしくは「アクティベート」(デフォルト)を実行するとメニューの一覧画面が開き、ここから使いたい機能にアクセスすることもできます。


以下、各機能の簡単な説明です。


  • AIモード 文字認識、顔認識、イメージ描写を同時に行います。

  • 文字認識 テキストを認識して読み上げます。カメラが文字を識別すると音声で通知します。

  • 顔認識 人物の顔を認識して特徴を読み上げます。カメラが顔を識別すると音声で通知します。

  • イメージ描写 画像に何が写っているのかを説明します。

  • 色認識 中央に写っているものの色を識別します。2つのモードがあります。

  • 光の明るさ フロントカメラで捉えた光の強さをリアルタイムに通知します。

  • 拡大鏡 画像を拡大して見ることができます。

  • ノート 保存したノートを閲覧したり、共有できます。

  • PDFリーダー PDFおよびTXTファイルを開き、文字を抽出して読み上げます。

  • コミュニティ Sullivan+の関連情報を参照できます。

  • ヘルプ Sullivan+のヘルプを参照できます。

  • 設定 Sullivan+の設定画面を開きます。

  • テキストスキャン リアルタイムの文字認識。日本語には非対応?


「機能」ボタンの使い方。


このボタンからフラッシュライトの切り替えやフォトライブラリからのイメージ読み込みなど、いくつかのオプション機能が利用できます。メニューから選んでいる認識機能によって表示される項目は若干異なります。


  1. 「機能」にフォーカスしたら、一本指で上下スワイプします。

  2. 使いたい機能が読み上げられたらダブルタップで決定します。

  3. もしくは「アクティベート」(デフォルト)を実行すると機能の一覧画面が開き、ここから使いたい機能にアクセスすることもできます。


以下、各項目の簡単な説明です。


  • ビデオ通話 アドレス帳から選択した電話番号にビデオ通話を発信します。

  • フラッシュ フラッシュライトのオン/オフを切り替えます。

  • ギャラリー iPhoneに保存されている写真を選択しモードに応じて解析します。

  • ノートを保存 文字認識結果をノートに保存します。

  • シェア 文字および顔認識結果を共有します。

  • 自動保存 オンにすると文字認識結果が自動的にノートに保存されます。

  • タグを表示/隠す イメージ描写で解析されたタグの表示を切り替えます。

  • 全体カラー/シングルカラー 色認識でカラー識別のモードを切り替えます。

  • 反転オン/オフ 拡大鏡で画面の色を反転するか切り替えます。


「キャプチャ」ボタンの使い方。


「キャプチャ」をダブルタップすると写真を撮影し「メニュー」から選んだ機能に従って認識処理が実行され、結果を音声で読み上げます。

光検出を除き撮影には背面カメラが用いられます。一部の認識機能でカメラ切り替えが可能なようですが……現在調査中です。


認識結果は画面上部に表示されており、内容をもう一度確認したい場合はその部分をタップすることで確認できます。

また「キャプチャ」ボタンにフォーカスして上下スワイプし確認したい項目が読み上げられたらダブルタップすることでも読み上げることができます。このジェスチャは片手で操作しているときに便利です。


使っている機能によっては、画面上部の結果表示エリアに「ノートに保存」「シェア」と読み上げられるボタンが出現します。このボタンから、認識されたテキストをアプリに保存して「メニュー」の「ノート」から参照・管理したり、他アプリへ送信して利用することができます。この2つのボタンは「機能」から実行することも可能です。

また認識結果にフォーカスし日本指でダブルタップすると、その内容がペーストボードにコピーされます。


アプリの機能をカスタマイズする。


メニューから「設定」「を開くと、アプリをカスタマイズすることができます。

よく使う認識機能を「基本モード」に設定したり、ボタンを上下スワイプして選べる項目を変更、文字認識や顔認識の音声通知のオン/オフ、画面の明るさなどを変更することができるようです。

ようです、と書いたのは筆者の環境(iPhone 7,iOS14.1)では設定を開こうとするとアプリがクラッシュしてしまうためです。最新バージョンではカメラの切り替えも可能とありますがどこから操作するのか不明……。iOS14でいくつか不具合が発生している事は開発側も確認しているようなので修正され次第、加筆する予定です。


2020年10月26日月曜日

A11Y Topics #013。RNIBのアクセシブルな妊娠検査キット、信号機の話題、見出し復活など。

※乱文・誤変換ご容赦です。

※誤訳・読解力不足多々あると思います。元記事も併せてご覧ください。


英国RNIB、アクセシブルな妊娠検査キットの開発で視覚障害者へのプライバシー保護をアピール。

'No Privacy': Why Blind Women Really Need Accessible Pregnancy Tests | HuffPost UK Life


英国の視覚障害者支援組織The Royal National Institute of Blind People (RNIB)は、毎年この時期に展開する「Design For Everyone」キャンペーンの一環として、目の見えない、見えにくい女性が触覚で結果を識別できる妊娠検査キットのプロトタイプを発表した。このキットは高コントラストの色や表面のエンボスによって検査結果を表現し、見えない、見えにくいユーザーも容易に結果を知ることができるよう設計されている。


市販の妊娠検査キットは目視で結果を確認する必要があり、視覚障害者は使うことができない。解決策の一つとしてキットを販売するClearblue社は「Be My Eyes」を通じた視覚障害者へのサポートを提供しているが、専門家とはいえ見知らぬ誰かに検査結果を知られてしまうことに抵抗を感じる当事者は少なくない。なによりこのような重要な個人情報を、本人よりも先に知られるというのはプライバシーに関わる大きな問題だろう。このような製品は本来、誰の助けも借りずに使えなければ意味がない。


これはほんの一例に過ぎない。健康医療に留まらず、金融や公共サービスに至るまで、視覚障害者のプライバシーは依然として軽視され続けている。RNIBはこの象徴的なプロトタイプの制作を通じ、視覚障害者のプライバシーがいかに守られていないか、そして製品やサービスをアクセシブルにすることの重要性をアピールしている。

RNIBでは当事者に向け日常的なプライバシーに関わるアンケートを実施しており、このクエスチョンを見るだけでも、さまざまな課題が残されていることがわかる。


視覚障害者にエコーロケーションスキルを訓練するデバイス「Sezual」。

Meet Sezual, the Kazakh start-up bringing echolocation to the blind and visually impaired - Emerging Europe | Intelligence, Community, News


視覚を用いず音の反射だけで自分の位置や周囲の環境を探知する能力「エコーロケーション」。イルカやコウモリがこの能力を用いることはよく知られている。人間にとっては会得が難しいスキルだが、もし視覚障害者がエコーロケーションを使いこなすことができるのであれば、これは大きな力となるに違いない。

カザフスタンに本拠地を置くスタートアップ「Sezual」は、視覚障害者がエコーロケーションをトレーニングするためのデバイスを開発している。この製品の詳細についてはあまり報道されていないのだがプロモーションビデオを見る限り、このデバイスから発せられたクリック音が周囲に反射し、その音を聞くことでエコーロケーションスキルを学ぶ、という感じのもののようだ。一見するとかなり原始的な仕組みのようにも感じる。でももしかしたら発信するサウンドに何か秘密があるのかもしれない。同社はさらにマラソンなど高速移動や水中にも対応したデバイスも開発中とのことだ。


エコーロケーションを応用した視覚支援技術としては超音波を用いて障害物などを検知するウェアラブルデバイスやスマート白杖などが開発されてきたが、正確性不足やカバー範囲の狭さなどまだ課題が多いのも事実。視覚障害者にエコーロケーションのスキルを習得させようというSezualのアプローチは「デバイスに頼らない自立」を獲得する手段として興味深い。体一つで自由に動くことができるのであれば、それに越したことないからね。もしかしたら将来、視覚リハビリテーションのカリキュラムに「エコーロケーション訓練」が加わる日がくるのかもしれない。


視覚障害者と信号機にまつわるエトセトラ。


米ニューヨークの連邦地裁判事は現地時間2020年10月13日、、ニューヨーク市が視覚障害者のための音響式信号の設置を怠っている状況を、障害を持つアメリカ人法(ADA)など3つの法律に違反していると判断した

この訴訟は2018年に米国盲人評議会によって提出された。原告の主張によるとニューヨーク市内にある95%以上の信号機が視覚障害者にとってアクセスできない状態となっているという。米国でも屈指の交通量を持つ都市だけに、ニューヨーク市の今後の対応に注目が集まっている。


また米国の野鳥保護団体Audubonのサイトで3月に掲載された記事では、視覚障害者向けの音響式信号の音について、普及している鳥の声(ピヨピヨ、カッコー)が自然音と紛らわしいことから置き換えが進んでいることが報じられている。

米国で10年にも及ぶ研究の結果、視覚障害者を誘導するためにより効果的なサウンドへの置き換えが推奨されたとのことだ。環境に溶け込む鳥の声は耳障りが良い反面、自然の鳥と混同されたり、驚くことに信号の音を真似る鳥の存在も確認されたという。技術の進歩とともに、より安全で便利なものに置き換わっていく動きは歓迎すべきだろう。

ちなみに日本では平成15年から警察庁からの指導により鳥声による音響式信号の設置が進められており、その割合は音響式信号全体の98%に達している。ただメロディー方式の方が分かりやすいという当事者の声も根強いようだ。


一方騒音問題などトラブルの可能性を持つ音響式信号機の代わりに、スマートフォンを用いて視覚障害者に信号の情報を伝える仕組みが世界中で検討されている。日本でもすでにいくつかの地域で実証実験が行われており、先日本格的な導入のための予算が計上されたことが報じられている

他にもコンピュータービジョンを用い信号の色を判別する技術の開発や、「Be My Eyes」でボランティアに信号を見てもらう方法も視覚障害者の間で浸透しつつある。今後は音響式信号機に代わってスマートフォンを活用した技術が視覚障害者の安全を担うようになるのかもしれない。もちろん同時に、スマートフォンを持たない当事者を取り残さないための施策も必要となってくるだろう。


iOS14のVoiceover認識で動画のアクセシビリティが向上!?

IOS 14.1 found great use for voiceover recognition! | AppleVis


Applevisをぼんやり眺めていたらちょっと面白いエントリーを発見。

iOS14ではVoiceoverに「Voiceover認識」と呼ばれる新しい機能が加わった。これを有効にするとアプリ内の画像を解析し、何が写っているかを教えてくれたり、画像に含まれるテキストを抽出して読み上げてくれる。大抵はSafariで表示させた画像やSNSに流れてくるイメージの意味を調べるときに役立つ機能だが、このエントリーでは動画のアクセシビリティを向上させるようとが報告されている。


米国の映像作品ではいわゆる「吹き替え」は一般的ではなく、外国語の映像は基本的に「字幕」で楽しむものと考えられている。この状況は視覚障害者にとってアクセシブルではない。

動画に用いられる字幕は大きく分けると、字幕のテキストデータを映像に合成しながら再生する「Soft Sub」と、字幕を画像として動画に埋め込む「Hard Sub」の二種類に分類される。YouTubeなどSoft Subを採用している一部のサービスでは字幕をスクリーンリーダーで読み上げることができるが、問題は後者。キャプチャしてOCRするにも手間がかかりすぎてしまう。

このエントリーによると、Hard Subが含まれている動画をSafari上で再生することにより、Voiceover認識が動作。動画上の字幕を解析しリアルタイムで読み上げられたという。動画に限らずいくつかのゲームも、Voiceover認識を用いてプレイ可能になったようだ。詳しい手順は元記事を参照。

筆者のiPhone 7ではこの新しい機能が動かないため検証はできていないのだが、OSレベルで画像を解析するこの機能、工夫次第で思いもよらぬようとが見つかるかもしれない。


その他、今週気になったトピックス。


  1. 今年海外でローンチした動画配信サービス「HBO max」に音声解説月コンテンツが加わる。:Breaking: Settlement Brings Audio-described Content to HBO max - Blind Bargains

  2. 米国で相次いだギフトカードに関するADA訴訟に判決。点字の不備は合理的配慮に当たらないという判断。:Finish Line Avoids Suit Challenging Lack of Braille Gift Cards

  3. 男性向けフレグランスのWild Stone、視覚障害者がコーディネートした製品を発売。:Grooming brand Wild Stone launches perfume tested by visually impaired people - Newz Hook - Changing Attitudes towards Disability

  4. 音を頼りにゲーム「Sea Of Thieves」をプレイする全盲ゲーマー。:Sightless Sea Of Thieves streamer follows sounds of his crewmates to play | Rock Paper Shotgun

  5. 全盲のストリートファイター5プレイヤー。音だけで実況もこなす。:BlindWarriorSven commentates Street Fighter 5: Champion Edition match with amazing accuracy

  6. パズルゲーム「Lost and Hound」は全盲でもプレイ可能らしい。:Lost and Hound Game - PC and Switch - Parents Guide

  7. ハーバード大が取り組む、天体画像のソニフィケーションについて。:Harvard Visualization Scientist Helps Translate Space Images Into Music | News | The Harvard Crimson

  8. ALS患者向けに開発された、顔の動きで意思を伝達するソフトなセンサー。:Flexible Skin Sensor to Help ALS Patients Communicate | Medgadget

  9. スペイン、白杖に取り付ける障害物検知デバイス「Egara」。:Un dispositivo para que las personas ciegas detecten obstáculos en altura, en la final de los premios Fundación Mapfre a la Innovación Social | Líder en Información Social | Servimedia

  10. 視覚障害啓発Tシャツ。点字にシークレットメッセージが隠されている。:EyeSwear Apparel: Blindness advocacy with a twist!

  11. Microsoft、D&Iに関する初野年次レポートを発表。:A first look at our disability representation stats - Microsoft on the Issues

  12. Microsoft、Seeing AIとSoundscapeをブラジルでローンチ。:Soundscape and Seeing AI: Microsoft launches two accessibility applications in Brazil – re:Jerusalem

  13. Microsoft、さまざまなデバイスで利用できる汎用性のあるアイトラッキング技術を開発。:Microsoft researchers develop assistive eye-tracking AI that works on any device | VentureBeat


やっと見出しタグ復活!


いつも本ブログをお読みいただきありがとうございます。

10月初旬のBloggerリニューアルでVoiceoverを使ったHTML編集のやり方が分からなくなり、しばらく記事に見出しが付けられていない状態でした。本当に心苦しく思っていたのです。

試行錯誤した結果、以下のような手順で見出しが付けられるようになりました。


  1. テキストエディットで編集した記事をGoogle Docsの適当な書類にスタイルごとペースト.

  2. Google Docsで見出しスタイルを設定。(見出しにしたいテキストを選択しCommand + Option + 見出しレベルの数字キーを押す)

  3. スタイルごとBloggerにペースト。


※Google Docsのショートカットキー一覧はこちら

これでうまくいくのはBloggerがGoogleのサービスだからなのかな? Pagesの段落スタイルで見出しを設定してもうまく見出しが反映されませんでした。Microsoft Wordは試していません。

ほんとならGoogle Docsだけで記事がかけると良いのですが、筆者の環境ではパフォーマンスも音声読み上げも快適とは程遠かったのでこんな感じに落ち着きそうです。というわけで長らくご不便をおかけしました。


2020年10月23日金曜日

[粗訳] 目の見えない私が日々直面する「ちょっと困ったWeb」の特徴ワースト5。

※このエントリーは「5 most annoying website features I face as a blind person every single day | The Big Hack」をざっくり翻訳したものです。


私のような目の不自由な人々にとって、Webにアクセスできるか、それとも排除されるかは、アクセシビリティによって決定されます。

ここで、スクリーンリーダーユーザーである私が日々直面しているアクセスできない迷惑なWebにみられる5つの特徴と、それらを修正するための方法を提案します。


スクリーンリーダーって何?


スクリーンリーダーを使えば、目の不自由な人が誰の助けも借りずにコンピュータやスマートフォン、タブレットを操作できるようになります。ほとんどのスクリーンリーダーは、TTS(Text to Speech)エンジンによって画面上のテキストを目の見えないユーザーが理解できる形式に変換します。

ユーザーがタッチジェスチャーやショートカットキーを用いて画面をナビゲートすれば、すべてのテキストが音声で読み上げられます。また点字ディスプレイなど、外部出力デバイスと連携させたりもできます。

では、以下にスクリーンリーダーユーザーとして、私が日常的に遭遇している最も一般的な問題を示します。


1. ラベルのないリンクやボタン


スクリーンリーダーユーザーは、Webサイトをナビゲートしたり必要な情報を見つけるため、ラベルに頼ラざるをえません。

リンクやボタンが正しくラベル付けされていない、あるいは全くラベル付けされていない場合スクリーンリーダーユーザーは必要な情報を見つけることが難しくなります。つまりラベルの付いていないリンクやボタンは、Webをすばやく簡単に、そして独立してナビゲートすることを妨げるのです。

例えば会社概要ページへのリンクのラベルが「ここをクリック」だけではどこにつながっているのか、手がかりが得られません。この場合、「当社についてもっと知りたい」とラベル付けされていれば明確です。

ラベルが適切に設定されていれば、スクリーンリーダーユーザーはリンクやボタンを押す前に音声で内容を確認することができます。つまり目の不自由な人が行き先がわからないリンクやボタンを無駄に押す必要がなくなるということです。


ラベルがつけられていない要素と同様に、説明が明確ではないリンクやボタンにもイライラさせられます。リンクやボタンは「ここをクリック」ではなく、押されたときにどこにつながるのか、明確に説明されなければなりません。

これを押したらどこに飛ばされるのか、ユーザーに推測させたり試行錯誤させないでください。このような体験は訪問者を本当にうんざりさせるのです。


2. 一切の説明がなされないイメージ。


おそらくこれは私がWebを閲覧する際最もよく遭遇する問題です。

画像説明文は「alt text(代替テキスト)」としても知られており、画像に説明を加えることはWebアクセシビリティを向上させるうえで不可欠な要素の一つです。

スクリーンリーダーは、画像の代替テキストを音声で読み上げます。これにより目の不自由な人が画像の内容を適切な形で理解することができます。もし画像に代替テキストがない場合、スクリーンリーダーは単に「image」や「figure」と読み上げるだけで、一切の文脈や意味を伝えません。


画像は多くの場合、貴重な情報を含みます。それゆえ、視覚障害者がこの情報にもアクセスできるようにすることが重要なのです。代替テキストは明確に書かれ、性格な説明が与えられなければなりません。

画像を完全にアクセシブルにすることを確認し、より良い代替テキストを書くためのヒントをご覧ください


3. 適切につけられていない見出しラベル。


多くのスクリーンリーダーユーザーは、Webを素早くナビゲートするため、見出しなどさまざまなページ上の要素を活用します。特に見出しは素早く効果的に必要な情報を見つけるために最適な要素です。論理的な見出し構造に沿って設定されたH1、H2、H3…タグは、コンテンツの優先順位を決定するために役立ちます。


Webサイトが見出しタグを持っていないということは、スクリーンリーダーユーザーがキーボードショートカットを使った見出しジャンプなどのナビゲーション機能を利用することができないことを意味します。そうなると長いWebページから必要な情報を見つけるため、、タブキーを何度も押したり矢印キーを連打して移動しなければなりません。

見出しはまた、Webコンテンツを視覚的に分割し読みやすさを向上させるためにも役立ちます。

スクリーンリーダーユーザーがWebページをナビゲートするために使用する要素には、他にもリンク、リスト、ランドマークなどがあります。


4. アクセスできないWebフォーム


多くのWebサイトは何らかの目的でフォームを使用しています。それが商品を検索するものであっても、問合せメッセージを送信するものであっても、これらのフォームに正しいラベルがつけられていない、もしくは全くラベルがつけられていなければ、フォームを使用することはできません。

たとえば検索ボックスにラベルが付けられていない場合、スクリーンリーダーのユーザーはそのボックスの目的を理解することはできません。つまりスクリーンリーダーを使用している人は、それを使わない人と同じ機能にアクセスできないということです。


コンタクトフォームは、顧客があなたのブランドやビジネスに連絡を取るための効果的な手段です。しかしスクリーンリーダーユーザーにとって、これらのフォームに誤ったラベルが付けられていることほどイライラすることはありません。


CAPTCHAなど、画像認証のチェックアウトは特に問題です。

音声を聞くオプションが用意されていなければ、手も足も出ません。独立してフォームに記入することができないということです。私はしばしば目の見える人に助けを求めますが、それは誰にでもできることではありません。


5. 読み上げ音声をかき消すメディアの自動再生。


多くの人々は突然再生され始める騒がしい広告を含むウェブページを読み込むことが、どれほど迷惑なことかを知っています。

しかしスクリーンリーダーのユーザーにとって、これはさらに憂慮すべき事態なのです。

ビデオやオーディオが自動的に再生されると、スクリーンリーダーの音声がかき消されてしまい、一時停止や停止ボタンを見つけることが難しくなります。その上これらのボタンにラベルがつけられていなければ、この余計なイライラを生むビデオをすぐに止めることはほぼ不可能です。

このような状況に陥ると、私は大抵そのページから離れます。


どうすれば良いのか。あなたのWebに自動再生されるビデオやオーディオが含まれていないことを確認してください。どうしてもビデオを使いたい場合は、音声をミュートし、簡単にユーザーがメディアをコントロールできるよう配慮してください。


──────────


視力のあるユーザーにとって、これらは些細なことのように見えるかもしれません。

しかし私にとっては誰の助けも借りずにWebにアクセスできるかどうかの問題なのです。

そして、正しく実装されることで大きな違いが生まれるのです。


おまけ。


翻訳はここまで。

スクリーンリーダーユーザーには「あるある」なお話でした。

せっかくなので筆者が普段感じているスクリーンリーダーユーザーを悩ませるWeb要素(というかコンテンツ構造)を思いつくまま並べて見ることにしましょう。

主にニュース系サイトで観察されるものです。


  • 記事タイトルと本文の間に共有ボタンや広告などがてんこ盛り

  • 記事タイトルと本文が離れ離れ

  • さほど長文でもない記事が複数ページに分割されている

  • 本文中に広告が挿入される場合、記事の続きがあることが不明確

  • 記事の基本情報(掲載日など)がタイトルの前にある。

  • 無意味なリンクが多い


Webよ、もっとスクリーンリーダーユーザーに優しくあれ。


支援技術関連記事まとめ(2022年11月)※お知らせあり。

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...