AIMistralMixtralオープンソース
created at
【速報】Mixtral:オープンソースAIモデルの最新リリース
最新のAIモデルのリリース
パリ拠点のスタートアップMistral AIが、最新の大規模言語モデル(LLM)であるMixtralをリリースし、OpenAIのGPT 3.5を上回る性能を持つと発表しました。Mistralの新しいモデルは、Andreesen Horowitzなどの有力なベンチャーキャピタル企業からの資金調達を受け、AI技術分野における革新的なテクノロジーへの戦略的な投資で知られる企業による支援を受けています。
Mixtralの特長
Mixtralは、Sparse Mixture of Experts(MoE)と呼ばれる技術を使用しており、これにより、Mistralが先行するMistral 7bや他の競合モデルよりも優れた性能と効率を実現しています。具体的には、46.7Bのトータルパラメータを持ちながら12.9Bのパラメータのみをトークンごとに使用することで、6倍の高速推論速度を実現しながら、GPT 3.5を上回る性能を発揮するとされています。
ライセンスと議論
また、MixtralはApache 2.0ライセンスの下でライセンスされており、開発者が自由にモデルを検査し、実行し、変更し、カスタムソリューションを構築することができるとされています。しかし、モデルの使用制限やトレーニングデータセットとコードの非公開などについて、オープンソース性についての議論が巻き起こっています。
今後の展望
Mixtralは多言語対応で、フランス語、ドイツ語、スペイン語、イタリア語などで高い性能を発揮することが報告されており、オープンソースコミュニティにとって非常に興味深く、革新的な時代を迎えることが予想されます。