created at

【特集】カスタムGPTの脆弱性に警鐘、ユーザーのセキュリティとプライバシーを優先する必要性

最近のノースウェスタン大学の研究によると、カスタムGenerative Pre-trained Transformers(GPT)には驚くべき脆弱性があります。これらは、機能を多様化するためにカスタマイズできるが故に、プロンプトインジェクション攻撃に対して脆弱なことが明らかになりました。GPTは、OpenAIのChatGPTを使用して作成および形成された高度なAIチャットボットで、ChatGPTのコアLarge Language Model(LLM)、GPT-4 Turboを使用しているが、追加の固有要素で強化され、ユーザーとの相互作用に影響を与えるものです。これらのカスタマイズには特定のプロンプト、固有のデータセット、およびカスタマイズされた処理手順が含まれており、さまざまな特化した機能を提供することができます。しかし、これらのパラメーターおよびGPTを形成するために使用する機密データは、第三者に容易にアクセス可能です。実際、Decryptは単純なプロンプトハッキング技術を使用して、カスタムで公開されたGPTのフルプロンプトと機密データを取得しました。

【特集】カスタムGPTの脆弱性に警鐘、ユーザーのセキュリティとプライバシーを優先する必要性
引用元
https://decrypt.co/209353/your-custom-gpt-could-be-tricked-into-giving-up-your-data
画像の著作権は引用元に帰属します
おすすめ記事
Copyright © 2023 Coin News DAO. All rights reserved.

Site Map

Twitter(X)