ITmedia NEWS > 製品動向 > SHOWROOM、誹謗中傷コメントの監視AIを開発 “遠回...

SHOWROOM、誹謗中傷コメントの監視AIを開発 “遠回しな言い方”でも事前検知してブロック

» 2021年02月22日 12時29分 公開
[ITmedia]

 SHOWROOMは2月22日、誹謗中傷コメントを監視するAIを開発し、仮想ライブ空間「SHOWROOM」に新機能として搭載したと発表した。AIが悪質なコメントと判断すれば、投稿前に自動で削除する。

photo 新機能のイメージ図

 新たに開発したコンテンツモデレーションAI機能では、ユーザーの代わりに悪質なコメントをAIが検知する。AIの開発にはディープラーニングを応用し、従来のキーワードによる検出ではなく、コメントの文脈をニューラルネットワーク上で抽象化する。

 同社の開発チームによると「日本語特有の遠回しな言い方や、複数回に分けてコメントをするなど、従来の手法では難しかった悪質なコメントも検出することに成功した」という。これにより、コメントの悪質性をAIが即時に判断でき、投稿前に自動削除できるという。

 これまでは視聴者や配信者自身が通報し、運営側の監視チームが削除する流れだった。同社は「不快なコメントを、ライバーや別の視聴者が目にする機会を大幅に軽減できる」としている。

 同社の開発チームは「コンテンツモデレーションの世界では、英語や中国語に対しての研究はされているものの、日本語での研究はほとんどないのが実態だった」と説明。AIが悪質コメントを事前に察知し、投稿前に削除する機能は、日本初(同社調べ)といい、特許を出願中。

 同社は「最終的には『SHOWROOM』内で、 悪質コメントの100%排除に限りなく近くなることを目指す」とコメントしている。

photo SHOWROOMのオフィス

Copyright © ITmedia, Inc. All Rights Reserved.

Special

- PR -