MENU

【シリーズ「AIと医療イノベーション」第23回】

FacebookでAIが「ネット自殺」ほのめかしを検知!警察や自殺防止ホットラインなどに通報

FacebookでAIが「ネット自殺ほのめかし」を早期発見(depositphotos.com)

 米Facebookは11月27日、「ネット自殺」をほのめかすコメント投稿やライブビデオ投稿をAI(人工知能)を使って検出し、モデレーター(調停者)である専門対策チームに報告する活動を、プライバシー関連法が参入障壁になるEUを除く世界各国で始動したと発表した(「ITmedia」2017年11月28日)。

米国ではAIが1カ月間で約100件以上の「ネット自殺ほのめかし」投稿を報告

 米Facebookは、2011年から自殺防止対策に取り組み、問題のある投稿をFacebookの専門対策チーム(Community Operationsチーム)に報告し、報告されたユーザーにアドバイスメッセージを表示してきた。

 従来は、友達などの第三者からの報告に基づくアクションだったが、今後は、AIのパターン認識技術を活用し、ネット自殺をほのめかす投稿をいち早く検知し、専門チームに通報できるので、より迅速に自殺の危険性の高いユーザーにアクセスし、接触しやすくなる。

[an error occurred while processing this directive]

 AIがチェックするのはコメント投稿だけでなく、ライブビデオのコメントも対象だ。たとえば、ライブビデオのコメントに「Are you OK?”(大丈夫?)や「Do you need help?(助けが必要?)」などのコメントがあれば、AIが直ちに探知し、対策チームに速報する。

 AIは支援対象の優先度も判断できるため、報告された投稿をパターン認識によってさらに精確に解析し、緊急性の高い投稿のレビューを優先するように対策チームに速報する。リスキーな緊急事態に即応するトリアージ機能だ。

 また、チームメンバーが個々の投稿のどの部分が問題かを迅速に判断できるように、AIがコメントが集中しているビデオの部分を的確に明示する。

 米国では、AIが1カ月間で約100件以上の投稿を対策チームに報告している。対策チームは7500人以上が世界中から寄せられた報告に24時間体制で対処している。FacebookはAIのシステムの最適化とともに、偽陽性(ニセ情報や誤報)の回避に努めていくとしている。

関連記事
アクセスランキング