created at

【悲報】AIトレーニングデータが児童性被害物資を含む

連鎖反応の報告によると、オープンソースの生成画像ツールであるStability AIを開発するSCENEStable Diffusion社が広く使用されているAIトレーニングデータセットから児童性被害物資(CSAM)を含んでいたことが判明しました。このことはスタンフォード大学の研究者らによって発見され、404 Mediaによって報告されました。 多くのAIイメージ生成モデルは、Stable Diffusion、Midjourney、Dall-Eなど、膨大なデータセットを利用してトレーニングおよびコンテンツ生成を行っています。しかし、これらのデータセットの多くは、LAION-5Bなどのデータセットでネットからスクレイピングした画像が含まれており、そのうちいくつかは未成年への被害を示す画像でした。

【悲報】AIトレーニングデータが児童性被害物資を含む
引用元
https://decrypt.co/210461/stability-ai-stable-diffusion-laion-csam
画像の著作権は引用元に帰属します
おすすめ記事
Copyright © 2023 Coin News DAO. All rights reserved.

Site Map

Twitter(X)