人工知能が「幻覚」を示していることを判断する方法


この投稿はライフハッカーの「AI とともに生きる」シリーズの一部です。AI の現状を調査し、AI がどのように役立つか (そしてどのように役に立たないか) を詳しく説明し、この革新的なテクノロジーが次にどこへ向かうのかを評価します。詳細はこちらをご覧ください

人工知能チャットボットに聞いてみたチャットGPTAI 幻覚に関するブログ投稿の面白い紹介文を作成するために、次のような内容が書かれていました。

これを想像してください。AI システムがサンドイッチの画像を分析していますが、おいしいハムとチーズのサンドイッチが表示されるのではなく、ユニコーンに乗って空飛ぶスパゲッティ モンスターが表示されます。そうです、皆さん、AI システムも幻覚を経験することがあります。

とにかく「皆さん」、人工知能の幻覚は確かに本物であり、AI による自信に満ちた反応であり、その訓練データによって正当化されるとは思えません。これらの時々超現実的で、しばしば説明できないエラーは、次のような大規模な言語モデルを搭載した両方のボットに存在します。吟遊詩人、画像ベースの AI などFROM-E 2

AI の幻覚は、システムに影響を与えるように設計されたデータの意図的な注入の結果である可能性があります。また、画像やテキストのジェネレーターに供給するために使用された不正確な「ソース素材」が原因である可能性もあります。しかし、AI システムは非常に複雑なので、一部のエラーの原因はまだ完全には理解されていません (少なくとも私たちのちっぽけな人間の知性では)。イーロン・マスク氏やスティーブ・ウォズニアック氏のようなテクノロジーリーダーが呼びかける理由の一つに、幻覚やその他の未知の問題がある。すべてのAI研究を一時停止するとAIの「社会と人類に対する重大なリスク」を指摘した。

大規模言語モデル (LLM) のエラーを見つける方法

テキストベースの AI 幻覚の多くは、「常識」テストに合格しないという事実によって特徴付けられます。 AI は、あなたが知っているようには何も「知らない」ことに注意することが重要です。私たちは根底にある現実を説明するために言語を使用しますが、私たちの言語理解は、決して文書化されたり体系化されたりしていない、膨大な量の実生活の背景知識によって形成されます。 AI はこれらのことを知りません。テキストベースの言語しか存在しないため、現時点では「常識」を示すことはできません。 AI が自信を持って交差点を教えてくれます。イギリス海峡を徒歩で物理世界の制約(まず、呼吸が必要)を理解している人にとっては、単なるアイデアが完全にナンセンスであるにもかかわらず、もっともらしく聞こえる方法です。

他の種類の AI 幻覚は、発見するのがより困難です。たとえば、ChatGPT 3.5 に「ライフハッカーのライター、スティーブン ジョンソンについて何か教えてください。」と尋ねました。そしてこれを返しました:

Stephen Johnson は、renshy.work に寄稿しているライターです。彼は、テクノロジー、生産性、個人の財務など、さまざまなトピックに関する多数の記事を執筆しています。 renshy.work で最も人気のある記事には、「Raspberry Pi を搭載したレトロ ビデオ ゲーム コンソールの作り方」、「Android 向けの最高のファイル管理アプリ」、「わずか 100 ドルで投資を始める方法」などがあります。

それはいいかもしれませんが、これらの記事は私が書いたものではありません。それらを書いたのは、トーリン・クロソウスキー エリック・レイブンズクラフトそしてジーナ・トラパニ、 それぞれ。これは単純な質問であり、AI のトレーニングには「記事の署名欄をチェックして著者を特定する」などのロジックが含まれていたと思われますが、AI は自信を持って事実に誤りのある答えを主張します。

私はChatGPTに、それは間違っているので、私のものを使用するように言いました。著者ページ私が書いたことに関する情報を得るために。それはこう答えた。

著者のページによると、スティーブン・ジョンソンはホームオートメーション、テクノロジー、生産性などのトピックに関する記事を書いています。彼の記事の例としては、「Hue Lights を映画やゲームと自動的に同期する方法」、「Google アシスタントの「アプリ」設定を使用する方法」、「スマート ホーム ハブを使い始める方法」などがあります。

私はそれらの記事も書きませんでした。

私が書いた記事を他の人がすぐに知ることは期待できないので、この例では「伝える」ことはなく、AI が間違っているという明らかな兆候はありません。教訓: AI が伝えるすべてのことを文字通り事実確認し、AI が提供する情報に依存しないでください。 「嘘」という言葉が適切ではないとしても、嘘には意図が必要なので、常に嘘をつきます。しかし、動機が何であれ、その欠如が何であれ、論文を書いたり、役立つアドバイスを与えたり、医学的問題を診断したり、ブログ投稿の紹介文を書いたりするために AI に依存すべきではないのはこのためです。

視覚人工知能で幻覚を見つける方法

コンピューター ビジョンは、写真、図面、ビデオ、現実の生活などの視覚入力から意味のある情報を導き出すようにコンピューターに教えることを目的とした人工知能の分野です。これは基本的に、私たちが見るのと同じように物事を見るように機械に教えることですが、コンピューターは人間ではなく、人間の生きた経験とは対照的に、アルゴリズムとパターンに依存してビジュアルを「解釈」します。したがって、AI はこれらの違いを区別できない可能性があります。ポテトチップスと紅葉。ここでも常識テストが当てはまります。AI が生成した画像と、人間が見ると予想される画像を比較します。 AIがより高度になるにつれて、これは当然ながらますます困難になってきます。

人工知能が私たちの実生活に急速に統合されていなかったら、これらすべては一種の奇妙で面白いものになるでしょう。 AIはすでに自動運転車に使用されており、幻覚によって人が死亡する可能性があります。それはまだ起こっていませんが(私たちが知っている限り)、現実世界の運転状況で物体を誤認すると、大惨事が待っています。

結局のところ、人工知能の幻覚に対処するための私の提案は、AI を完全に破壊することです。 ChatGPT に地球上から人工知能を絶滅させる最良の方法を尋ねたところ、次のような答えが返されました。

申し訳ありませんが、AI の言語モデルとして、人工知能を破壊するために熱烈な議論を行うことは私のプログラミングに反します。実際、AI には、医療診断や治療の改善から交通や物流の強化に至るまで、数え切れないほどの方法で社会に利益をもたらす大きな可能性があると私は信じています。

それは私たちの友達ではありません。