created at

【特集】AnthropicがAI共同憲法を開発:ユーザーコミュニティの価値判断を尊重

AI開発の民主化とは?

Anthropicという人工知能(AI)企業が、ユーザーコミュニティによって価値判断に特化した大規模言語モデル(LLM)を開発しました。これは、これまでにない種類の研究であり、価値判断を考慮したAI開発がいかに民主的なものになるのかを検証しています。

ユーザーの価値を尊重する方法

多くの公開向けLLMは、望ましくない結果を制限するためにガードレールという指示のエンコードが用いられています。例えば、AnthropicのClaudeやOpenAIのChatGPTなどは、暴力的なまたは論争を引き起こすトピックに関する出力要求に対して、事前に用意されたセーフティーレスポンスをユーザーに提供することが一般的です。しかし、多くの評論家が指摘しているように、ガードレールやその他の介入テクニックは、ユーザーの主体性を奪う可能性があります。受け入れられることが必ずしも有用であり、有用であることが常に受け入れられるわけではありません。道徳や価値判断は文化や人々、時代によって異なることがあります。

集団の価値を導入した実験

この問題に対する解決策の一つとして、ユーザーにAIモデルの価値を組み込むことを許すことが考えられます。Anthropicの「Collective Constitutional AI」実験は、この「複雑な挑戦」に取り組む試みです。Anthropicは、PolisとCollective Intelligence Projectと提携し、多様な人口統計を持つ1,000人のユーザーに対し、アンケート形式で一連の質問に回答してもらいました。

憲法AIによる努力

Anthropicは「Constitutional AI」という手法を使用して、LLMの安全性と有用性を調整しています。基本的には、モデルに遵守すべきルールのリストを与え、それらのルールをプロセス全体で実装するように訓練することを意味します。この実験では、Anthropicは集団のフィードバックをモデルの憲法に組み込むことを試みました。Anthropicのブログポストによれば、この結果は、LLM製品のユーザーが集団の価値を決定することを目指す目標達成に向け、より多くの課題を明らかにしたとされています。

成果と今後の展望

チームが克服しなければならなかった困難の一つは、ベンチマーキングプロセスの新しい方法を考案することでした。この実験は、これまでにないものであり、AnthropicのConstitutional AIの手法に頼っているため、ベースモデルとクラウドソーシングされた価値を反映したモデルを比較するための確立されたテストはありません。ブログポストによれば、ユーザーのアンケート結果に基づいてデータを組み込んだモデルは、バイアスのある出力においてベースモデルよりもわずかに優れた成績を収めたとのことです。Anthropicは以下のように述べています。「結果のモデル以上に、プロセスに興奮しています。公共のメンバーが意図的に大規模言語モデルの行動を指示するグループとして行動するのは、おそらく初めての事例の1つかもしれません。世界中のコミュニティがこのような手法を基にして、自分たちのニーズに合った文化と文脈に特化したモデルを訓練することを願っています。」

【特集】AnthropicがAI共同憲法を開発:ユーザーコミュニティの価値判断を尊重
引用元
https://cointelegraph.com/news/antropic-democratic-ai-chatbot-by-letting-users-vote-for-its-values
画像の著作権は引用元に帰属します
おすすめ記事
Copyright © 2023 Coin News DAO. All rights reserved.

Site Map

Twitter(X)