AICSAMトレーニングデータ子供
created at
【悲報】AIトレーニングデータが児童性被害物資を含む
連鎖反応の報告によると、オープンソースの生成画像ツールであるStability AIを開発するSCENEStable Diffusion社が広く使用されているAIトレーニングデータセットから児童性被害物資(CSAM)を含んでいたことが判明しました。このことはスタンフォード大学の研究者らによって発見され、404 Mediaによって報告されました。 多くのAIイメージ生成モデルは、Stable Diffusion、Midjourney、Dall-Eなど、膨大なデータセットを利用してトレーニングおよびコンテンツ生成を行っています。しかし、これらのデータセットの多くは、LAION-5Bなどのデータセットでネットからスクレイピングした画像が含まれており、そのうちいくつかは未成年への被害を示す画像でした。