〈検索 Advent Calendar 1日目〉Googleでアダルトやポルノなど露骨な検索結果が表示される場合について
この記事は検索 Advent Calendar 1日目の記事である。
Google検索をしていると稀にアダルトやポルノの露骨な表現を含む検索結果が表示されることがある。検索結果からそのような露骨な表現をフィルタリングするためにGoogle検索はセーフサーチという機能を提供している。
Google検索の公式ヘルプページにセーフサーチが紹介されているページがある。
セーフサーチをどう使うかというと、検索結果の設定タブに「セーフサーチをオンにする」「セーフサーチをオフにする」があり、利用者がオン/オフを手動で切り替える。オンにすると検索結果から露骨な表現がフィルタリングされる。
もしもセーフサーチをオンに設定していて露骨な表現を発見した場合の対応について、Google公式のヘルプページに「セーフサーチがオンになっているのに不適切なコンテンツが表示される」に対応方法が明記されている。そこには、万が一そのような結果を発見した場合は専用フォーム(https://www.google.com/webmasters/tools/safesearch?pli%3D1)があるのでそこに報告してほしいと記載されている。
少し話はそれるが、[General Guideline] ( https://static.googleusercontent.com/media/www.google.com/ja//insidesearch/howsearchworks/assets/searchqualityevaluatorguidelines.pdf )(Google 検索品質評価ガイドライン)にもPorn Flagという項目がある。このGeneral Guidelineは、検索結果評価者が検索結果について評価をする際の160ページほどのガイドラインである。検索結果評価者は、もし露骨な表現を含むウェブページを評価する場合は、検索結果の質にかかわらずPorn FlagをYesにすることが求められている。このことからGoogleはコンテンツフィルタにも気を使っていることが分かる。その他にも、General Guidelineにはアダルトなサイトに対してNeeds Met Rating(ユーザーのニーズに答えているかの指標)をどうするかについても記載されている。
また、Googleの人が2006年に『LARGE SCALE IMAGE-BASED ADULT-CONTENT FILTERING』という論文を発表している( URL: https://static.googleusercontent.com/media/research.google.com/ja//pubs/archive/38.pdf )。この論文ではアダルトやポルノに関する画像などを検出する方法について書かれている。この論文は10年以上も前のものであり、この頃にはすでにGoogleがアダルトやポルノに関するコンテンツフィルタに気をかけていたことがわかる。
この他にも様々なデータがあるが、上記の例からもわかるようにGoogleはアダルトやポルノのコンテンツフィルタといった検索結果の安全面に長い間多大な労力を費やしていることがわかる。
話を戻す。先ほど紹介した不適切なコンテンツを報告する専用フォームで実際に報告してみたいと思う。
(今回の自分の目的は「不適切なコンテンツを報告する専用フォームで実際に使ってみたい」ということなので少し意図的に狙っている。)
手順は以下のとおりだ。
1.まずGoogle検索の設定タブからセーフサーチをオンにする。
2.適当なクエリを入力して不適切なコンテンツを含むウェブページを検索結果から探す。
3.2で見つけた結果を専用フォームで報告する。
実際にやってみるととても簡単に報告することが出来た。