デジタル アシスタントの音声履歴を定期的に削除する


AlexaのWebサービスで見つかったバグにより、ハッカーがAmazonのサーバーに保存されている音声録音や個人データにアクセスできた可能性がある。一部の脆弱性により、ハッカーが知らないうちに他人のデバイスに Alexa スキルをリモートからインストールする可能性もあります。これらの欠陥の深刻さにもか​​かわらず、この特定の例では安全です。ただし、これは次のことを思い出させるための素晴らしいものです。スマート スピーカーの音声録音をすでに削除してください

Amazonはバグを修正し、これらの脆弱性が使用されたという証拠はないと述べ、チェック・ポイントの製品脆弱性調査責任者オデッド・バヌヌ氏は、セキュリティ上の欠陥は明らかではなく、攻撃の実行は困難であると述べた。Wiredへの声明で

ただし、ハッカーがこれらの抜け穴から侵入した可能性は低いとしても、ハッカーが存在したという事実は、Alexa のようなデジタル アシスタントはプライバシーのリスクであるという、私たちがよく主張する点を裏付けています。

AI アシスタントが価値がないと言っているわけではありません。Alexa、Google アシスタント、Siri、そしてそれらが搭載するスマート デバイスです。間違いなく生活が楽になります—しかし、彼らには予想以上に大きな責任が伴います。その責任には、音声履歴を定期的に削除することが含まれます。

スマートアシスタントの音声履歴を削除する習慣を付けるべき理由

Amazon、Google、または Apple の従業員があなたの会話を盗聴することを心配していなかったとしても、あなたのデータが外部アクセスから安全であるかどうかを知ることは不可能です。

AmazonのAlexaウェブサービスの欠陥を発見するには、サイバーセキュリティ会社による非常に微妙なテスト攻撃が必要だった。 Amazon の技術であろうと、他の企業が使用している技術であろうと、企業が気づいていない他の欠陥が存在し、悪意のある攻撃者によって悪用される可能性がある可能性があります。

ただし、最初からデータがほとんどまたはまったく保存されていなかった場合、ハッカーがあなたから盗むものはあまりありません。幸いなことに、デジタル アシスタントの音声録音を削除するのにそれほど手間はかかりません。

どのような方法で行うにせよ、デジタル アシスタントの音声履歴を削除することが、データ セキュリティ維持の一環として定期的に行われるようにしてください。