Chatgptセキュリティの欠陥を見つけるために最大$ 20,000を支払う


chatgptはそうかもしれません今ブロックで最もクールな技術、しかし、それはすべてのソフトウェアが直面する問題から免疫がありません。バグとグリッチは実行中のコードに影響を与えますが、利害関係は不器用なユーザーエクスペリエンスよりも高くなっています。間違ったバグは、悪い俳優がOpenaiのユーザーのセキュリティを妥協することを可能にする可能性があります。とても会社がヒットしたときに、危険です1月だけで1億人のアクティブユーザー。 Openaiはそれについて何かをしたいと思っていますそれはあなたの助けのためにあなたに最大20,000ドルを支払います

Openaiのバグバウンティプログラムは大きな時間を費やします

Openai新しいバグバウンティプログラムを発表しました4月11日火曜日、「セキュリティ研究者、倫理的ハッカー、テクノロジー愛好家」を招待して、「脆弱性、バグ、またはセキュリティの欠陥」について製品(ChatGPTを含む)をこすります。あなたがたまたまそのような欠陥を見つけた場合、Openaiはあなたに現金で報酬を与えます。発見した問題の重大度に基づく支払い範囲は、「低悪性」調査結果の場合は200ドルから「例外的な発見」の20,000ドルまでです。

このツイートは現在利用できません。ロードされているか、削除されている可能性があります。

バグバウンティプログラムは実際には非常に一般的です。市場全体の企業はそれらを提供し、バグを検索する作業を希望する人にアウトソーシングします。それはアプリのベータテストのようなものです。確かに、開発者にバグやグリッチを探していることができますが、ユーザーの限られたプールに依存すると、重要な問題を逃す可能性が高くなります。

バグバウンティでは、企業がソフトウェアを離れるバグ(したがってユーザー)を探してセキュリティの脅威に対応できるバグを探すことに最も関心があるため、賭け金はさらに大きくなります。

Openaiのバグバウンティプログラムにサインアップする方法

Openaiのバグバウンティプログラムは協力していますbugcrowd、クラウドソーシングバグハンティングを支援する組織。プログラムにサインアップできますBugcrowdの公式サイトを通じて、この執筆時点で、24の脆弱性はすでに報われており、平均支払いは983.33ドルでした。

Openaiは、モデルの安全性の問題がこのプログラムには当てはまらないことを明確にしたいと考えています。 Openaiの製品の1つをテストする際に、モデルが動作しないように動作していることがわかります。モデルの動作フィードバックフォームに記入します、バグバウンティプログラムを通過しないでください。たとえば、モデルが何か悪いことを行う方法を教えてくれた場合、または悪意のあるコードを書いている場合、報酬を請求しようとしないでください。加えて、幻覚また、賞金の範囲も出ています。

Openaiには、スコープ外の問題のさらに長いリストに加えて、Bugcrowdページにスコープ内の問題の長いリストがあります。バグを送信する前に、必ずルールを注意深く読んでください。