YouTubeの子ども向けカテゴリに自殺の方法を指南する動画
(写真:ロイター/アフロ)

2017年、英国の女子中学生モリー・ラッセルさんが自らの命を絶った。モリーさんの父親は、娘がInstagramで自殺やうつに関するコンテンツを閲覧したり、自らも投稿していたことが自殺の一因だと主張。Instagramは傷つきやすいユーザーが、そういった内容のコンテンツに晒されないよう対策を取ると発表した。ことほどさように、インターネットのコンテンツと若者の関係性は、親にとっては心配のタネとなっている。

 

米フロリダ州に住む小児科医フリー・ヘスさんは数カ月前、子ども向けの動画に特化した動画アプリ「YouTube Kids」に収録されている動画の中に、手首の切り方を教えるコンテンツが混ざっていることに気が付いた。

 

その動画は、最初はゲーム『スプラトゥーン』のキャラクターが登場する普通のアニメビデオだが、4分を過ぎた頃に突如実写に切り替わり、ユーチューバーが自殺の方法をレクチャーし始めるのだという。

 

ヘスさんはYouTubeに通報し、即刻この動画を削除させたが、つい先日、同じ動画が再び閲覧可能な状態に。現時点では既に削除されているが、根本的な対策を講じない限り、公開と削除のいたちごっこは続くだろう。

 

「この種のコンテンツを私たちの子どもの目に触れないようにさせるもっと良い方法があるはずです」とヘスさんは自身のブログで訴える。

 

また、ヘスさんはCNNに取材にも応え、「本当に腹立たしいです。悲しいし、失望しています。私は小児科医ですから、自傷行為や自殺未遂で運ばれてくる多くの子どもたちを診ています。ソーシャルメディアやこういったコンテンツが子どもの自傷を助長しているいるのは明かです」と警鐘を鳴らす。

 

YouTube Kidsでは、「子どもにとってより安全なネット体験」が約束されているが、有害なコンテンツを根絶する完璧なシステムは未だ導入されていない。YouTubeは「問題のあるコンテンツを私どもに気づかせてくださった方々に感謝します。誰もが動画にフラグを立てられるようにしました。フラグの立ったビデオは24時間365日体制で、手動でチェックを行い、不適切なものはアプリから削除します。システムの改良は絶えず行っており、やるべきことは山積していると認識しています」とCNNの取材に対しコメントしている。

関連タグ: