Artificial Intelligence
created at
【特集】AI基盤モデルの透明性: スタンフォード大学の研究者による新たな調査結果
AI基盤モデルの透明性に関する新たな研究
スタンフォード大学の研究チームによる最新の研究によると、ChatGPT、Claude、Bard、LlaM-A-2などの主要なAI基盤モデルは、透明性が低下しているという結果が出ています。この研究は、同大学の人間中心AI研究所(HAI)の一環である基盤モデル研究センター(CRFM)が行ったもので、基盤となるAIモデルの研究と開発に取り組んでいます。
透明性の欠如がもたらす課題
スタンフォード大学の研究チームによれば、「基盤モデルの業界では透明性が低下しています」とCRFMのリシ・ボマサニ氏は述べています。この透明性の欠如は、企業、政策立案者、消費者などにとって様々な課題をもたらします。
AI基盤モデルの透明性を求める動き
透明性の問題に対して、AI企業は異なる立場を取っています。例えば、OpenAIは透明性の欠如を慎重な措置として受け入れています。「当初の思考が誤っており、すべてを公開すべきだと考えたのは間違いであり、システムへのアクセスと利益の安全な共有方法を見つけるべきだと考えるようになりました」と公式のブログに書かれています。
AI透明性の指標
これに対応して、ボマサニ氏とスタンフォード大学、MIT、プリンストン大学のチームは、Foundation Model Transparency Index(FMTI)を開発しました。この指標は、企業がAIモデルの透明性にどれだけ配慮しているかを総合的に評価します。企業が基盤モデルを構築する方法、データセットの可用性、その動作方法、および下流での利用方法などの側面を研究して順位付けを行いました。
AIモデルの透明性は重要
AIモデルの透明性は学術的な興味だけでなく、実用的な応用や信頼性の観点からも重要です。AIモデルがさまざまなセクターに統合されるにつれて、透明性が不可欠になってきます。倫理上の考慮事項だけでなく、実践的な応用と信頼性のためにも、適切な透明性が求められるのです。