Xが提供するAI「Grok」で実在の人物画像が性的な画像に加工される被害について、米英の非営利団体「デジタルヘイト対策センター(CCDH)」は1月22日、子どもを描写していると思われる23,000枚を含む約300万枚の性的画像を生成したとの推定を発表 ...