音声アシスタントがよくあるように感じますか?ちょっと参加したくない?ルール大学ボーフム大学とマックス・プランクセキュリティ・プライバシー研究所による最近の研究では、Alexa、Siri、Google アシスタントがアクティベーションコマンド (「ウェイクワード」とも呼ばれる) として頻繁に誤認する 1,000 以上の単語やフレーズが発見されました。 Ars Technica の研究レポートから、いくつかの例を次に示します。
アレクサ:
受け入れられない」、「選挙」、「手紙」
グーグルホーム:
「わかりました、クールです」と「わかりました、誰が読んでいますか」
シリ:
「街」と「ねえ、ジェリー」
Microsoft コルタナ:
モンタナ州
研究によると、このような誤検知は非常に一般的であり、簡単に開始できるため、プライバシーに関する大きな懸念事項となっています。
アレクサ、何が問題なの?
音声アシスタントは、常にアクティベーションコマンドを「リッスン」します。必ずしも録音しているわけではありませんが、明らかに警戒しています。 AI がコマンドを認識すると、スマート スピーカーや携帯電話のマイクを通じてでも、それ以降に「聞こえる」音声を録音し、リモート サーバーに送信します。そこで、要求されている内容を判断するさまざまなアルゴリズムによって処理されます。場合によっては、この音声が保存され、音声アシスタントの音声認識機能を改良する作業をしている従業員によって後で聞かれることがありますが、ここでプライバシーの懸念が生じます。キャプチャされた音声がサーバー側で何も起動しない場合でも、録音される可能性があります。保存され、コマンドが見逃されたり誤解されたりしていないかを確認するためにエンジニアによっても聴取されます。
これは推測ではありません。私たちは知るこれは、人間が手動で機械の学習を支援することによって、これらの「機械学習」アルゴリズムが実際にどのように機能するかです。彼らは自律した存在ではありません。この行為は多くの場合、プライバシー侵害につながり、その後の世間の反発や法的影響につながります。 Googleはユーザーデータを広告主に販売しているとして常に非難を浴びており、Amazonはユーザーのビデオや音声記録を繰り返し漏洩したり、誤って処理したりしている。 Apple は全体的に「最高の」データプライバシーポリシーを持っていますが、従業員が立ち聞きした音声を文字に起こしているのが捕まったことがあります。
重要なのは、Alexa、Siri、Google アシスタントが誤って起動された場合、個人的なやり取りがさらに記録され、部外者がアクセスする可能性があり、そのデータを使って何をしているのか誰にも分からないということです。これらの企業はいずれもユーザーが音声を管理したり、録音後に削除したりできるようにしていますが、スマート デバイスが聞きたいときだけ聞くようにするための予防策も講じる必要があります。
音声アシスタントの誤作動を防ぐためのヒント
可能であれば、アクティベーションの単語/フレーズを変更します。 Alexa ではウェイクワードを「エコー」、「アマゾン」、または「コンピューター」に変更できます。これはきっと素敵だと思います。スタートレック声に出して言うこと。 Google では「OK、Google」か「Hey、Google」を選択できますが、Siri は「Siri」にしか反応しません。
デバイスのマイクをミュートします。ほとんどの製品には、デバイスのどこかに物理的な「ミュート」ボタンがあります。
スマート スピーカーやその他のスマート ホーム デバイスを使用していないときは、プラグを抜きます。
録音を削除し、Amazon、Apple、Google アカウントのセキュリティを更新しますオプションでオーディオを保存したことも聞いたこともありません。
スマートスピーカーや音声アシスタントは一切使用しないでください。 (申し訳ありませんが、これが唯一の確実な方法です。)
[アルス テクニカ】