ゲームの作成・共有プラットフォーム「Roblox」(ロブロックス)を運営する米Robloxは11月18日(現地時間)、チャット機能に顔年齢確認を追加し、義務化すると発表した。子供と成人のやり取りを制限し、子供たちの安全性を高める狙い。
デバイスのカメラを使ってユーザーに画像や動画を撮影させ、米Persona Identitiesのシステムで年齢を推定。9歳未満、9~12歳、13~15歳、16~17歳、18~20歳、21歳以上という6つの年齢層に振り分ける仕組み。
ユーザーは、リアルの知り合いが「信頼するつながり」として設定されている場合などを除き、自分と同じ年齢層あるいは近い年齢層のユーザーとしかチャットできなくなる。また9歳未満の場合はデフォルトでチャットは無効となり、保護者が同意しないと使えない。
Robloxは「年齢に応じたチャットをサポートし、未成年者と成人のコミュニケーションを制限する。私たちは、この取り組みが将来的に新たな業界標準になると確信している」としている。
年齢確認は、12月初旬にオーストラリアやニュージーランド、オランダなどで運用を始め、2026年1月初旬からグローバルに展開する。さらにユーザーのプロフィール、コミュニティ、バーチャル空間の詳細ページに表示されるソーシャルメディアリンクへのアクセスにも年齢確認を義務づける予定。Roblox Studioの共同作業機能「チーム制作」にも適用し、同じ年齢層のユーザー同士のみが共同作業できるようにする。
Robloxは、子供に人気のグローバルなオンラインゲームプラットフォームで、一日のアクティブユーザーは1億5000万人超え(同社調べ)。一方でRoblox内で知り合った大人から未成年者が性被害やグルーミング(手懐け)を受ける事例もあり、その安全性を疑問視する声も上がっていた。
Copyright © ITmedia, Inc. All Rights Reserved.
続きを読むには、コメントの利用規約に同意し「アイティメディアID」および「ITmedia NEWS アンカーデスクマガジン」の登録が必要です
Special
PR