AIセキュリティプライバシー脆弱性
created at
【特集】カスタムGPTの脆弱性に警鐘、ユーザーのセキュリティとプライバシーを優先する必要性
最近のノースウェスタン大学の研究によると、カスタムGenerative Pre-trained Transformers(GPT)には驚くべき脆弱性があります。これらは、機能を多様化するためにカスタマイズできるが故に、プロンプトインジェクション攻撃に対して脆弱なことが明らかになりました。GPTは、OpenAIのChatGPTを使用して作成および形成された高度なAIチャットボットで、ChatGPTのコアLarge Language Model(LLM)、GPT-4 Turboを使用しているが、追加の固有要素で強化され、ユーザーとの相互作用に影響を与えるものです。これらのカスタマイズには特定のプロンプト、固有のデータセット、およびカスタマイズされた処理手順が含まれており、さまざまな特化した機能を提供することができます。しかし、これらのパラメーターおよびGPTを形成するために使用する機密データは、第三者に容易にアクセス可能です。実際、Decryptは単純なプロンプトハッキング技術を使用して、カスタムで公開されたGPTのフルプロンプトと機密データを取得しました。