第1章 各国政府の有害情報に対する規制の現状(方針、規則、適用例等)

8.通信・インターネット

8.1 アメリカ

(1) 背景と方針

2011年時点の統計(Pew Internet American Life Projectによる)では、青少年の 95%がインターネットを利用していることが明らかにされており、利用方法の内訳についても、従来の電子メール送受信や情報検索だけにとどまらず、ソーシャルネットワーク(SNS)や身の回りのあらゆる行為をインターネット上で行うという状況になっている。また、昨今のスマートフォンなど多機能モバイル端末の普及が、子ども達のオンライン依存をますます助長している35

ソーシャルメディアを利用した、未成年対象の性的搾取や誘拐等の犯罪も増加しているため、2008年には、全米 50州の司法長官がソーシャルメディアに関するワーキンググループを立ち上げ、未成年者による安全なインターネット利用の調査研究を行うよう民間に要請している。

このように、低年齢層のオンラインユーザが増加し、子どもに対するオンライン被害を懸念する保護者が増えていることから、FCCの指導のもと、各ISPや非営利団体が自主的に、レイティングシステムやフィルタリング技術を開発、導入、宣伝し、保護者の教育、啓発を行っている状況である。

(2) 連邦規制

インターネットでの有害情報対策においても、FCCの要請に基づき、業界団体が自主規制を行っているのが現状である。現時点では、未成年者によるインターネットやモバイルの有害情報へのアクセスを制限するには、フィルタリングの手法でアクセスを遮断する方法が最も有効的となっている。そのため、サービスプロバイダーや携帯電話事業者に対し、未成年者へのアクセス規制を課すことや、あるいは、業界団体等の活動を通じて保護者や学校等がフィルタリング・ツールを導入することを啓蒙・指導することが、現実的な対処方法となっている。このような具体的な民間団体の取組は3章で述べる。

2012年1月3日に施行となった連邦法タイトル18,110章,2251節における「性的搾取から児童を保護する法律(Protection of Children Against Sexual Exploitation Act)」において、児童ポルノの取引や頒布にインターネットを利用することは、違法である36。しかしながら、児童ポルノ防止法はISPに違法コンテンツの監視を要求しておらず、通信品位法(CDA通信法第230条(c))により、ISPは顧客の行為に対して責任を問われることはなく、インターネット上でのブロッキングを要求する法律は存在しない。

ただし、連邦法第2258A 条において、電気通信サービス、若しくはリモートコンピュータサービスを提供しているプロバイダーに対して児童ポルノに関する通報義務を課している。この規定によって、通信事業者は、NCMECの児童搾取班(ECU)に対して、搾取された子児童ポルノに関する事実または状況の実際の認識を得た場合に、自らの連絡先の情報を提供すると共に、当該事実及び状況に関する通報を行う義務を負う。通報時には、事業者はNCMECに対して、電子メールアドレス、IPアドレス等の個人に関する情報、履歴情報、地理的所在情報、問題となっている児童ポルノ画像の情報、当該通信の全容について送ることができる。また、事実を知りつつ故意に報告を行わなかった場合は、1画像につき1日15万ドル、それ以上については1日30万ドルを上限とした罰金が科せられる37

表1-7に、児童に有害なオンライン情報規制に関する連邦法をまとめる。

表1-7 児童に有害なオンライン情報規制に関する連邦法
法律名 概要
1988年児童保護及びわいせつ強制執行法(Child Abuse Victim’s Rights Act of 1988 ・コンピュータによる児童ポルノの伝送・流通・受領を違法とした。児童ポルノ製作への保護者の関与責任を問う。
1996年児童ポルノ防止法(Child Pornography Prevention Act of 1996 ・児童ポルノの適用内容を実際の写真のみでなくコンピュータで作成された子どもの性的映像にまで拡大した。2002 年に違憲判決を受ける。
1996年通信品位法(Communication Decency Act of 1996 ・18 歳未満の未成年が、わいせつまたは、品位に欠ける内容のコンテンツにアクセスするのを遮断し、故意のそのようなコンテンツの配信、掲載を禁じたもの。しかし憲法第一条、言論の自由の侵害という訴えにより97年最高裁で違憲と判決された。
1998年児童オンライン保護法
Child Online Protection Act of 1998
・96年品位法の内容を縮小したもの。インターネットの情報提供業者が、営利目的で17歳未満の未成年に有害な情報を配布することを禁じた。再び合憲性が問われ10年以上にわたる係争後、2009年同法は事実上消滅した
1998年児童オンラインプライバシー保護法(The Children's Online Privacy Protection Act of 1998, COPPA ・児童向け商用サイトで13歳未満の児童の個人情報を収集する際、保護者の同意や情報漏洩防止などを義務付けたもので、2000年より施行された。FTCの管轄。改正前のCOPPAでは、親の同意なしに13歳未満の子どもの名前や住所、電話番号を収集することができなかった。
2000年児童インターネット保護法(Children's Internet Protection Act, CIPA ・子どもたちをインターネットの有害なサイトから守ることを目的として2001年成立した連邦法。FCCが管理するユニバーサルサービス基金(Universal Service Fund)によるITなどの通信関連費用に対する補助(通称 E-Rate)を受給する学校や公立図書館が対象。E-Rateによってインターネット関連費用の補助を受給する条件として、施設内で使用されるインターネットでは、子どもたちがわいせつ、児童ポルノ、及びその他有害な内容のサイトにアクセスできないようにすること、未少年による使用状況の監視などを含む同法に則ったインターネット規則を作成することが要求される。公私立の小学校から高校80-90%が同優遇措置を利用している。
2002 年ドット・キッズ法 (Dot Kids Implementation and Efficiency Act of 2002 ・13歳未満の児童に有害でないウェブサイトに、独自のドメイン名(.kids.us)を与えることにより、子どもたちに安全なウェブサイトを明確にするのが狙い。
2006 年アダム・ウオルシュ児童安全法(Adam Walsh Child Protection and Safety Act of 2006)(別名「性虐待者登録・通知法」(The Sex Offender Registration and Notification Act. ・未成年を有害なサイトへ誘導するために、紛わしい言葉や画像を掲載することを犯罪とみなす。性犯罪から子どもを守るための法の一部。FBIが運営する全国的な性犯罪者データベースを作ることなど性犯罪から児童を守るための広範な改正を含む。
2008年21世紀の児童保護法(Protecting Children in the 21st Century Act ・インターネットのもつ危険を子どもたちに教育するため、保護者、教育関係者、インターネット業界の協力、各種プログラムの実行を要請する法律。特に政府よりE-Rateの補助金を受ける公立学校及び図書館は、ネット上の有害サイトから児童を守るためのプログラムを実施することが義務付けられている。同法は、2011年8月に改定されている。
2012年児童オンラインプライバシー保護法改正(The Children's Online Privacy Protection Act of 2012,COPPA ・2012年5月、オバマ大統領と FTCは同法をさらに強化し、FTCの法執行権限を拡大する法案を議会に提出。2012年12月、児童のプライバシー保護強化、保護者によるコントロール権限の拡充等を盛り込んだ同法の最終改訂版がFTC理事会で承認され、2013年7月1日より施行された。2013年からは、親の承認を得ずに収集してはならない個人情報として、位置情報、および子供の顔や声が含まれている写真、ビデオ、オーディオも対象に含めている。プラグインを通じて子供向けサイトやアプリケーションから個人情報を収集していることを事実上認識しているサードパーティー(広告ネットワークなど)も、COPPAに従い事前に親から許可を得る義務を負う。対象となる事業者、および情報の種類が拡大されたが、米Googleの「Google Play」や米Appleの「App Store」などのプラットフォームは、子供向けアプリケーションへの直接的アクセスを一般に提供しているだけだとして、対象からは除外されている。

出典:各種資料から作成

(3) 取締機関

インターネット関連の児童ポルノ規制に関する取締機関の概要を表1-8にまとめる。
NCMECが市民及び関係者からの通報窓口になっている。

表1-8 インターネット関連の児童ポルノ規制に関する取締機関
取締機関/システム 概要
サイバー・チップライン(Cyber Tipline) The National Center for Missing & Exploited Children、(NCMEC)、連邦郵便審査サービス局、関税局、FBI ・NCMECが運用するインターネットによる児童搾取に関するオンライン情報サイト
FBIによる「イノセントイメージ」
Innocent Images
・FBIによる調査を調整する中央運営及び管理システム。調査官が特定の情報を収集するためインターネット上で児童もしくは他の性犯罪者になりすまして行動する。児童がよくアクセスするインターネットのチャットルームに侵入することもできる。
児童に対するインターネット犯罪(Internet Crimes Against Children, ICAC) 司法省未成年侵犯防止局 ・未成年侵犯防止局によって始められたタスクフォース。州、地方の法執行機関に対し、オンライン児童搾取に関する犯罪調査の補佐をする。
全米失踪・被搾取児童センター(National Center for Missing & Exploited Children, NCMEC ・サイバー・チップラインを運営する非営利団体。他のエージェンシーに対し技術的補佐や訓練を提供する。
全国性犯罪者公的レジストリー(National Sex Offender Public Registry)司法省 ・全米の性犯罪前科者の住所が記載されたレジストリー。
合衆国郵便検査サービス局 (U.S. Postal Inspection Service ・郵便による児童ポルノ配給の調査。オンラインでの違法行為は、郵便物で補われていることが多くある。

出典:各種資料より作成

(4) 州法による規制

各州による規制取組状況は以下のとおりである。

<カリフォルニア州における規制>
カリフォルニア州では、21 世紀の児童保護法(2008年)に準じ、学校や図書館に、フィルタリングソフトを用いて児童による有害コンテンツへのアクセスを制限し、E 料金(E-Rate)プログラムの適用を受けることを義務付けている38

カリフォルニア州では2005年に、未成年者へ暴力的ゲームを販売することや貸し出しすることを禁じる法律(Assembly Bill 1179)が成立した。これは、「人間のイメージに対して殺人、暴行、四肢切断、性的暴行といった範囲をプレイヤーに提供する」ようなゲームを18歳未満へ販売することを禁じ、違反した小売業者に対して最大1000ドルの罰金を課すという内容となっている。米連邦最高裁判所は2011年6月、本州法は、合衆国憲法修正第1条を侵害するという判決を下した。本州法はゲーム業界などから反発を招いた結果、施行前から裁判によって仮差し止めとなり、結局は施行されることなく違憲と判断された39

<ペンシルバニア州における規制>
ペンシルバニア州では、同州で営業する各インターネットサービスプロバイダーに対し、州司法局が児童ポルノと判断したサイトの州民家庭への配信をブロックするように命じる州法が2002年より施行されていたが、同法は言論の自由を脅かすものであるとして、アメリカ自由人権協会(ACLU:American Civil Liberties Union)らが訴訟を起こしていた。2004 年連邦地裁は、ACLUらの訴えを認め、同法を違憲であるとする判決を下し、無効にさせた。

<ニューヨーク州における規制>
2008年、ニューヨーク州では、全国失踪及び被搾取児童センター(National Center for Missing & Exploited Children)によって児童ポルノであると判断されるサーバを一掃する同意書を大手ISPであるComcast、AT&T、AOL、ベライゾン等の通信会社及び、タイムワーナー・ケーブル、スプリントが司法長官と交わしている。

<テキサス州における規制>
テキサス州のインターネット犯罪苦情センター(IC3:Internet Crime Complaint)は、インターネット上の迷惑行為に関しての苦情を扱っているセンターである。州政府が運営している。特に未成年者のみを扱っているわけではないが、テキサス州のIC3支所では、FBI、全米知能犯罪苦情センター(National White Collar Crime Center、NW3C)、司法援助事務局(BJA :Bureau of Justice Assistance)などと、インターネット犯罪の取り締まりに関連して連携・協力を行っており、同センターでは、インターネット上の犯罪に関する苦情を受け、犯人追跡を行っている。また、インターネット犯罪の犠牲者に対し、インターネット上で情報提供を行う一方、犯罪容疑者に対しては警告が行えるシステムを有している。また同センターでは、連邦、州、自治体、国際的警察機関とその他の規制機関に対するサービスを提供しており、インターネットで、犯罪関連の苦情の内容が照会できる40

(5) 政府が規制を適用する判断基準

アメリカにおいて、違法有害情報への削除等の対応を義務付ける法令はない。連邦法により、インターネット上において「違法」または「有害」と分類される情報は、ごく一部分しかなく、違法コンテンツについては児童ポルノと著作権侵害のどちらかである。

アメリカでは、児童インターネット保護法(CIPA)に抵触するという理由から、子どもにとって有害と判断されるポルノ等のオンラインコンテンツへのアクセス遮断を政府が要請できるのは、政府からE-Rateとよばれる補助金を受給する学校または図書館の閲覧サイトに限られている。

児童ポルノの該当性の判断は、NCMEC内で実施される。児童ポルノとして通報されたものの中から、明らかに児童ポルノに当たると判断できるケースを対象として登録する。

(6) 実際の規則の適用例と裁判

アメリカでは、これまで何度もFCC、FTCなどの連邦機関及び議会がインターネットを規制する法案を作成または成立させてきたが、そのたびにインターネット業界や言論の自由の擁護団体などによる訴訟を受け、廃案もしくは停止に追い込まれてきた。表1-9に、主な事例を示す。

表1-9 インターネットに関する連邦規制に対する民間の訴訟事例年代表
年代 事例
1996年 ・オンラインポルノを規制する、児童ポルノ保護法(The Child Pornography Prevention Act(CPPA))と通信品位法(The Communication Decency Act(CDA))が議会で承認される。
1997年 ・CDA のオンラインコンテンツ規制に関して、憲法の表現の自由に反するとして、最高裁により違憲判決を受ける。
1998年 ・CDAに代わるものとして、児童オンライン保護法(The Child Online Protection Act (COPA))が再度成立するが直ちに憲法違反の異議申し立てを受ける。以後、法廷で 10年余り係争することになる。
2000年 ・児童インターネット保護法(The Children's Internet Protection Act (CIPA))が成立する。
2002年 ・CPPAに違憲判決が下る。
2002年 ・CIPAに対し憲法違反であるとしてペンシルバニア州地方裁判所で提訴され、一旦違憲判決が下される。
2003年 ・CIPAは、最終的に最高裁において、合憲と判決される。
2009年 ・最終的にCOPAは、最高裁で違憲の判決を受け、廃案になる。

出典:インターネット上のレイティング・ゾーニングに関する青少年のインターネット環境整備状況等調査報告書、平成25年3月、内閣府

8.2 イギリス

(1) 規制

イギリスにはレイティングやゾーニングなど、青少年のインターネット利用を制限する、また、ISPに違法有害情報の削除の対応を義務づける法律はない。基本的には業界の自主規制で情報の改善を図り、それで不十分な場合には法規制を採用するという方針を政府は示している。

しかしながら、プロバイダーの責任を制限する法律「電子商取引指令の施行規則2002」の第17節~22節により、違法コンテンツの削除を行わない場合に法的責任が問われることがある。これはEU電子商取引法側面指令に定められている仲介的サービスプロバイダーの責任の制限を国内法に適用したものである。これらの法律(EU及びイギリス国内法)ではISPがどのような状況になったら違法活動を知ったとみなされるかについて規定されていないため、ISPは自ら苦情があった場合の妥当性を判断する必要がある。そのため、イギリスでは後述するインターネット監視財団(IWF:Internet Watch Foundation)が設立され、そこでクレーム一元化され処理される41

Ofcomは、毎年包括的な調査を実施し、年次報告を行っている。青少年インターネット利用環境関連の情報公開に対して積極的に取り組んでいる姿勢がうかがえる42

2007 年以降、イギリス政府は青少年のインターネット利用環境に関する施策を講じるため、実態調査を実施した。その結果、バイロン・レビュー“The Byron Reviews”及びベイリー・レビュー“The Bailey Reviews”などが発表され、これらの報告書の提言内容が、現在の諸施策の基礎となっている。このバイロン・レビューの提言を受けてイギリス青少年インターネット安全協議会(UKCCIS:UK Council for Child Internet Safety)が設立され、官民共同で数々の活動が実施された。

2008年のバイロン報告書の中で、バイロン博士は、インターネット安全利用のためのキャンペーンを提案した。同様に同報告書によって提案、設立された英国児童インターネット安全協議会(UKCCIS)は、「Click Clever, Click Safe(賢く、安全にクリック)」のスローガンの下、「Zip it(口を閉じる), Block it(ブロックする), Flag it(旗を立てる)」という、図1-2に挙げるデジタルコードを作成した。この明確に示す名称とデザインは好評であり、バイロン博士も2010年の青少年のインターネット利用環境検証報告書の中でこの結果を評価している43

図1-2 「Zip it, Block it, Flag it」ロゴ

出典:教育省(The Department for Education)ホームページ

  • Zip it:「口を閉じる」=個人情報を提供しない。個人情報とは、通っている学校名や、普段遊びに行くような場所も含む。写真も載せない。友人とチャットしたい場合は、本名でなくニックネームを使用する。アカウントのパスワードは必ず秘密にし、頻繁に変える。
  • Block it:「ブロックする」=匿名からのメッセージや不快な内容のものを遮断する。送られてくるものは未開封のまますべて削除する。怪しいと思われるリンクやファイルはむやみに開かない。
  • Flag it 「旗を立てる」=注意を求める。何かあったら、保護者または信頼できる大人に伝える。保護者に言いづらい場合は、児童相談専用ダイアルに電話する。ネットで知り合った人に実際に会いに行くことは大変危険である。どうしてもという場合は、必ず保護者同伴にする。また、知人・友人が他人にオンラインで不快なメッセージを送られている(または送っている)場合も、保護者に伝える。

さらに、活動の進捗状況を見直す第2回バイロン・レビューが2010年3月に発表され、その後、政権が連立政権に変わった現在も、バイロン・レビューによって定められた方向性を変えることなくUKCCISの活動はさらに幅を広げて続けられている。同組織はより安全なインターネット環境の整備のために、業界の自主規制について協議を行う他、児童や保護者への教育指導プランを考案・推進する。しかしながら、インターネットの検閲は行わない。同組織には、業界、法執行機関、学術研究組織、チャリティ団体など170を超える組織及び個人が参加しており、大手企業ではApple、ソニー、マイクロソフト、ヤフー、グーグル、Facebook等がメンバーである44

出典:http://www.dfes.gov.uk/byronreview/yoursay.html

UKCCISの設立以来、ビデオゲームの年齢レイティングが法制化された。現在ミュージックビデオに関する規制導入に向け、関係各者からの意見取りまとめの作業が行われている(アメリカの歌手のブリトニー・スピアーズのミュージックビデオが2013年10月、放送禁止になった。イギリスでは夜10時前には「Bitch(あばずれ)」という言葉を使用してはいけない)。

また、成人向けコンテンツのブロッキングについても大きな動きがみられた。すでに移動体通信事業者が自主的にネットワークレベルでのフィルター「デフォルト ON」を自主規制として導入し、年齢認証を経て18歳以上であることが確認できないと成人コンテンツにアクセスできない仕組みが導入されているが、一般のISPにもこれを導入させようという動きである。大々的なコンサルテーションを実施し、関係各者の意見を取りまとめた結果、「デフォルト ON」への支持が思ったほど高くないことが明らかになり、2012年の12月に、政府はフィルターの「デフォルト ON」を推進していくという方向性を改め、「アクティブチョイス」という、子どものいる家庭にだけ、しかし必須選択でフィルターを導入していくという方針への転換を発表した。政府は2014年4月に新しいレイティングについて最終結果を公表する。

英政府は、超高速ブロードバンド、超高速モバイル、eコマース、公共放送サービス、表現の自由とメディアの多様性、違法・有害情報対策といった分野に焦点を当てて作業を進めている。これにより、2015年5月に予定される次期総選挙前に、2010年から5年間の政権の実績の一つとして「新通信法」を施行させたいとしている45

2013年7月、キャメロン首相はコンピュータやスマートフォンなどからインターネットに接続する際、初期設定でアダルトサイトへのアクセスを制限する計画を発表した46

この一連の動きの中で、2013年12月11日、アメリカ司法省において、警察庁長官であるダミアン・グリーン氏は、児童ポルノオンライン対策に向けてイギリスとアメリカがタスクフォースを共同で設立すると発表した47

携帯電話会社やISPが、数カ月以内に携帯電話や公衆無線LAN、家庭のコンピュータにフィルタリングを導入し、アダルトサイトへのアクセスを制限する。フィルタリングの導入はこうした企業が自発的に行うため、議会での承認は必要としない。中には既にフィルタリングを初期設定としている事業者もある。

キャメロン首相の方針を受け、グーグルとマイクロソフトは2013年11月、3カ月で200名のスタッフを投入し、画像検索結果から児童ポルノ画像を排除したことを発表した。これはアルゴリズムだけで解決する問題ではないとしつつも、アルゴリズムの更新によって、10万件以上の関連クエリを除去できた。アルゴリズムだけでは一般的な児童の入浴写真とポルノ写真の区別がつかないため人間によるレビューも行い、違法画像と判断した画像には電子指紋を追加して表示されないようにした。また、1万3,000件以上のクエリについて検索結果のトップに警告を表示するようにした。更に、YouTubeで児童ポルノ画像を検出する技術を開発中としている。2014年には、この技術を他のインターネット企業や児童保護機関が利用できるようにする計画である48。キャメロン首相はこれらの措置について評価すると述べている。

児童への性的虐待は「出版」項において説明したが、インターネット上の行為もこれらの法律が適用される。児童がインターネット上で性的児童虐待の被害にあった、また性的児童虐待の行為を発見した場合には、ChildLine、IWFホットライン、もしくは警察に相談するよう関係ウェブサイト上、並びに学校で指導されている49

(2) 公的機関の有害情報に関する取組内容

  • Ofcom
    Ofcomは、従来の「OFTEL」、「電波庁」、「独立テレビジョン委員会」、「ラジオ庁」、「放送番組基準委員会」の機能を整理統合した新たな規制機関である。Ofcomはテレビ放送や通信関係に関しては法的執行力を持つが、インターネットのコンテンツに関しては管理範囲外とされている。よってウェブサイト運営者に対するガイドラインもOfcomからは発表されていない。政府としては、インターネットウォッチ財団(IWF)が十分にその役割を果たしており、基本的に業界の自主規制に任せるという立場を維持している。Ofcomはインターネットに関する利用者調査を毎年実施しており、UKCCIS のメンバーとして高い関心を示してはいるが、インターネット業界を指導、規制する立場にはなく、利用者に対する安全教育実施を主眼とした活動に終始している。Ofcomの定めるOfcom放送規約(Ofcom Broadcasting Code)は法的執行力を持つ。この規約は放送者がいつどのように異なるコンテンツを放送するかのルールを定めたもので、BBFC(あるいはそれに相当する年齢レイティング)の基準が基本となっている。しかしながら、インターネットはこの規制の対象外である。
  • CEOP
    児童搾取対策オンライン保護センター(CEOP:Child Exploitation and Online Protection Centre)は性的児童虐待の撲滅を目的として2006年に設立された警察組織である。この機関は官民の協力によってできている組織であり、児童ポルノに関しては、被害者を保護することと、容疑者を特定して警察に通報することを任務としている。市民やホットラインセンター、通信事業者等から通報を受け付けて、それをもとに、捜査を行っている。おとり捜査を行う権限を持ち、具体的に犯人を特定した場合には、その情報を警察に受け渡している。UKCCISの主要メンバーであり、国内外の警察と協力し、設立以降すでに500万人に教育プログラムの提供、700件もの児童虐待事件究明に関与、166件の違法性犯罪ネットワークの撲滅に寄与している50

不適切と思われるコンテンツについて報告する手段として最も普及しているのは、CEOPの報告ボタンである。この報告ボタンはさまざまなウェブサイト上に設けられ、子どもが何か不快なものに遭遇したときにボタン1つで専門家に繋がる。このボタンはすでにビボ(Bebo)とインターネットメッセンジャー(Windows Instant Messenger)に組み込まれている。2011年にCEOPに上げられた5400件の報告のうち半数はこのボタンを利用した一般市民からのものであった。チャリティ団体であるNSPCCは児童保護アドバイザーを提供し、同一センター内で年中無休でこのホットラインの対応に当たっている。CEOPは警察組織の一部であるため、報告があればそれに直ちに対応する能力を持つ。

(3) 政府が規制を適用する場合の判断基準

前述のとおり、EU電子商取引指令およびイギリスの電子商取引規則2002では、「違法コンテンツを保存するサービスプロバイダーは、問題であるそのコンテンツの違法性を認識したら速やかに、削除またはブロックできれば法的責任を問われない」と規定している。しかし、ISPは無実の顧客を不当に扱うことがないように、クレームの妥当性を判断する必要がある。そこでイギリスでは、児童虐待、刑事的にわいせつなコンテンツや人種的憎悪を扇動する違法コンテンツの判断をするために、IWFが設立され、それらに関するクレームはIWFに送られて、IWFの判断において、削除などの対応を行う51

IWFでは、児童ポルノについて、下記の5つのレベルで判断を行っている。この基準は、「量刑ガイドライン審議会(Sentencing Guidelines Council)」によって作成された「2003 年性犯罪法に関する定義ガイドライン」が出典である。

1. 性行為がない、エロチックなポーズを描いた画像
2. 子ども同士の挿入のない性行為、または子どもだけのマスタベーション
3. 大人と子どもの挿入のない性行為
4. 子どもまたは複数の子ども、または子どもと大人両者を含む挿入のある性行為
5. サディズム、または、動物への/動物による挿入

この5つのどのレベルに当たっても、児童ポルノに該当し、URL リストに掲載される対象となる。ただし、上記の1については、判断が困難なこともあることから、アナリスト1人では判断せず、アナリスト2人が同様の判断をして、さらにホットラインのマネージャが判断をして初めて通報やURL リストへの掲載という判断になる。

(4) 実際の適用例と裁判

ウェブサイト運営者等が青少年による有害情報の閲覧を制限する措置などを取った場合における民事責任の制限の例を以下に示す。

2008年12月にIWFがウィキペディアのある記事を大多数のイギリス国内のISPに配布しているブラックリストに載せるという事件が発生した。これはドイツの「ザ・スコーピオンズ(The Scorpions)」というバンドが1976年にリリースしたアルバムに関するウィキペディアの記事で、少女の裸体がカバージャケットに描かれていることが理由であった。IWF側は警察と話し合った結果の決断だとしたものの、警察が更なる措置を取ると主張した。しかし、数日後IWFの不服申立手続の理由により、IWFは決断を撤回し、ウィキペディアをブラックリストから外した。IWFの不服申立手続が用いられたのはこれが初めてのケースであった52

(5)EUの政策

EUでは、2009年2月に、「Safer Social Networking Principles」という自主規制ガイドラインを策定した。グーグル、マイクロソフト、Facebook、ヤフー等のIT企業21社及びChildnet、Red Barnet、Save the Children等の児童保護団体6団体が支援する53

このガイドラインに署名するためには、下記の7つの原則に同意する必要がある。

  • 安全教育のメッセージ及び受容可能なポリシーを利用者、親、先生及び世話人に対して卓越した、明白且つ年齢相応な方法で意識喚起する。
  • サービスが対象者に年齢相応なものとなるようにする。
  • ツール及び技術によって利用者を啓発する。
  • サービス利用規約違反の行為またはコンテンツを通報する利用簡単なメカニズムを提供する。
  • 違法なコンテンツまたは行為に関する通知に対応する。
  • 個人情報及びプライバシーに対して安全なアプローチを利用者が取れるようにし且つそうするよう推奨する。
  • 違法または禁止されたコンテンツ/行為をレビューする手段を評価する。

この自主規制ガイドラインについて署名をしている企業は、それぞれ自主宣言を作成して発表し、それを遵守するということになっている54。この自主宣言について実際に履行されているかどうかについては、EUの依頼を受けて研究者が調査を実施し、2011年6月及び9月にSafer Social Networking Principles の評価レポートが公表されている55

同レポートでは、青少年向けの注意喚起等は多くの事業者で行われているものの、未成年者のプロフィールに承認を受けていない人がアクセスできる状態になっているツールが複数あるなど、完全な対応はできていないことが示されている。そこで、この調査の結果を受けて、事業者に対して、さらなる対応が求められている。

2010年に欧州委員会が新たなICT戦略として策定した「Digital Agenda for Europe」においても、「Action 37: Foster self-regulation in the use online services」という項目がある。ここでは、子どもたちの間ではSNSの利用が進んでおり、オンライン上での子どもの安全について、汎ヨーロッパで対応するべきであるとされている。その対応策として、自主規制アプローチをとるとともに、企業との連携を実現していく必要があると述べている56

EUの自主規制は、フレームワークを欧州委員会と関連事業者が作成した上で、事業者が自主規制を実施し、そして、その結果を欧州委員会がチェックするということでなりたっている。この方法は、SNSだけでなく、携帯電話へのフィルタリングシステムの導入等でも同様に行われており、EUの基本的な実施方法である。

8.3 ドイツ

(1) 規制

インターネットの急速な普及発展に伴い、従来型の切り分けでは新しいメディアを規制することが困難になってきた。また、オンライン上の有害な表現から、いかに未成年者を保護するかが強い関心を呼び、インターネットを含むオンライン上のコンテンツの有害表現を含む規制へと拡大されることになった。これは、それまで州の所管であった「放送」としても、また連邦の所管であった「テレコミュニケーション」としても捉えることのできないメディアであるインターネット分野の規制を、整理・統合することが目的であったが、結果的には連邦と州の両方が権限を有することになった。

ドイツでは2003年に青少年保護法制の大幅な改正が行われ、コンピュータゲームとインターネットに関する規制が大幅に強化され、青少年メディア保護の向上に向けた法的整備がなされた。すなわち、「青少年保護法(JuSchG:Jugenschutzgesetz)」が施行されると同時に、別途、「青少年メディア保護州際協定(JMStV:Jugendmedienschutz Staatsvertrag)」が州政府間で結ばれた。この法制度改正の大きな特徴は、既存のメディア分類を大幅に改め、「テレメディア(Telemedien)」と「パッケージメディア(Tragermedien)」という新たなメディア概念を導入し、連邦政府と州政府の間で曖昧であった権限を整理、再統合した点である。

テレメディアはテレメディア法で定義されたメディアを指し(第1条3項、例:主にインターネット上のメディア、テレテキスト・ラジオテキスト、テレフォンショッピング等)州政府が管轄する。また、インターネットに関する権限は、最終的に連邦政府と州政府の両方が持つことになった。

パッケージメディアは物的な媒体に記録され頒布に適し、直接的な認識を目的とした(例:ポスター、広告等)、或いは再生機能を持つ機器(例:ポケットゲーム、ゲーム機等のメモリー及び再生機能をもつ機器)に記録された文書・画像・音声を指し(第1条2項)連邦政府が管轄している。これにより、テレメディアの有害指定、暴力描写等の一般的規制の強化、及びコンピュータゲームに対する法的拘束力のあるレイティングの導入が実現した。

2007年に、1997年より「テレサービス(個人利用)」、「メディアサービス(公衆向け)」を設けて規律してきた法体系を見直し、実体経済に即した規律体系にするため、2007年両者をテレメディアに統合し、州政府がコンテンツ規律を、連邦がデータ保護等を担当することを内容とするメディア法に改正している。

図1-3 テレメディア法の規律概念図

出典:通信・放送の総合的な法体系に関する研究会(第17回)資料、2007年、総務省

テレメディアの経済に関する規律(発信地国原理、参入の自由、有料プロバイダーの名称、所在地、連絡先等の明示義務、プロバイダーの責任、データ保護)は、連邦テレメディア法が行うこと、経済的、一般的要請を超える内容に対しては、州が放送州際協定によって行うことが合意された57

本法により、区別の困難が非難されていたテレサービスとメディアサービスの区別は廃止された。放送にもテレコミュニケーションにもあたらない、電気通信技術による情報発信は「テレメディア」として規律されることになった。

放送州際協定では、テレメディアについて以下の3つの観点から区別される58

  • 個人的目的または家族的目的のためのテレメディアの提供者は、名称と所在地を明示する義務を負わない。
  • 上記以外のテレメディアの提供者は、名称と所在地を明示する義務を負う。
  • テレメディアのうち、ジャーナリズム的・編集的に構成されたコンテンツ、完全にまたは部分的に定期刊行物の内容を再現しているコンテンツの場合、提供者の名称と所在地だけでなく、編集責任者の氏名と住所も明示しなければならない。

以下に、連邦規制とその法規制を監視する委員会の概要を示す。

青少年保護法(第1条第2項)
・文書、テレサービス、メディアサービスという区分をやめ、放送以外のメディアを「テレメディア(Telemedien)」と「パッケージメディア(Tragermedien)」とに区分する。前者は、電子的な情報・テレコミュニケーションサービスにより提供される、オンラインのメディアをいい(第1条第3項)、後者は、物的な媒体に記録され、直接に又はビデオ若しくはゲーム機等により視聴できるオフラインのメディア図書、音楽CD、ビデオ、CD-ROM、DVD 等をいう。

青少年保護法(第15条第1項)
・リストに記載されたパッケージメディアは、青少年に提供すること、青少年が立ち入り可能な場所で陳列すること、青少年の入手を防止する対策を講じることなく通信販売を行うこと等を禁止する。

青少年保護法(第15条第2項)
・「極めて有害な」パッケージメディア 1.刑法典第86条(憲法違反の組織を宣伝するもの)、第130条(特定の集団への憎悪を扇動するもの、ナチス犯罪を賞賛し又はナチス犯罪の存在自体を否定するもの)、第130a条(犯罪を犯すと脅迫して公の平穏を害するもの)、第131条(非人間的な暴力を讃美するもの)又は第184条に違反するもの(ポルノグラフィー) 2.戦争を讃美するもの 3.死につつある人又は心身に重い苦痛を受けている人をその尊厳を冒す方法で描写するもの 4.不自然な、性を強調した姿勢をとる青少年を描写するもの 5.その他青少年の発達に著しく有害であることが明白なものについてはリストに記載されなくても青少年への提供等を禁止する。この「極めて有害」の定義は、改正前より詳細なものになっている。


青少年保護法(第16条)
・リストに記載されたテレメディアの扱いは州法により定める。

青少年保護法(第17条、第18条第1項、第18条第3項)
・青少年に有害なパッケージメディア及びテレメディア不道徳なもの、粗暴性を助長するもの、暴力・犯罪・人種間の憎悪へとそそのかすものは、連邦青少年有害メディア審査会(以下、「連邦審査会」という。)が「有害メディアリスト」に記載する。リストからの削除も連邦審査会の権限とする。ただし、政治的、社会的、宗教的内容にかかわるものを、その内容ゆえに記載してはならず、芸術・学術に寄与するもの及び公共の利益に資するものも記載してはならない。


青少年保護法(第18条第2項、第7項)
有害メディアリストは、以下の、A、B、C、Dの四部構成とする。
A:刑法には違反しないが青少年に有害なパッケージメディアを記載。官報に公示。
B:刑法違反のパッケージメディアを記載。官報に公示。
C:刑法には違反しないが青少年に有害なテレメディアを記載。官報に公示しない。
D:刑法違反のテレメディアを記載。官報に公示しない。
刑法違反の内、ポルノグラフィーについては扱いを分け、「ハードポルノ」と呼ばれる、刑法典第184条第3項及び第4項に定める児童ポルノ、暴力的なポルノ及び人間と動物との性的行為を扱うポルノはB又はDに記載するが、これ以外の一般的なポルノはA又はCに記載する。C、Dのリストを非公開としたのは、オンラインで流通するテレメディアの場合、たとえばURLを記載するとアクセスされてしまい却って危険だからである。記載後25年経過すればリストから削除する。

青少年保護法(第21条第6項)
・テレメディアについては、リスト記載の決定の前に、連邦審査会は州の中央監督機関(具体的には、後述の青少年メディア保護州際協定により設立される青少年メディア保護委員会)の見解を求める。

(2) 行政機関の取組

連邦レベルではBKAが児童ポルノ流通防止対策を実施している。通報があった場合、BKA は、国内のサーバに蔵置されている場合はISPに証拠を保全してもらった上で、削除をしてもらっている。海外のサーバに蔵置されている場合には、警察からINHOPE を通じて削除依頼を出している。

BKAが優先しているのは、まずは児童の性的虐待を行っている犯罪者をとらえること、 次に児童ポルノのディストリビュータをとらえることとしている。

ドイツでは、2009 年に児童ポルノブロッキングを実施するための法律(児童ポルノアクセス防止法)を制定したが、2011年12月22日に成立した法律によって廃止されている。そのため、現在も児童ポルノブロッキングに関する法律は存在しない。また通報義務やフィルタリングについても特に定められていない。

ただし、インターネットや携帯電話の個人利用向けサービスを規制するテレメディア法において、児童虐待のコンテンツを自らのネットワーク内で発見した場合、削除等のアクセスを防止する対策を行うことが求められている。

以下に、児童ポルノアクセス防止法の制定から廃棄までの経緯を示す。
  • 児童ポルノアクセス防止法(法律制定から廃止までの経緯)
    ドイツでは、2008年から2009年にかけて、BKAと、大規模ISPとの間で、児童ポルノをブロッキングするということについての調整が行われていた。2009年4月17日に、Ursula von der Leyen連邦家族相(当時)は、プロバイダーの代表者と共同声明にサインを行い、5つのISP(Deutsche Telekom,Vodafone Deutschland,Alice/HanseNet Telekommunikation,Kabel Deutschland,Telefonica O2 Germany)との間で児童ポルノのブロッキングを実施する協定を結んだということを宣言している。この協定では、6ヶ月以内に児童ポルノのブロッキングを実施することが定められており、URL リストはBKA が管理することと、ISPはブロッキングを実施するURL リストの中身についての責任を負わないことが定められていた。この時点では法律ではなく、自主規制の枠組みとして実施するという形であった。このときに提案された法律が、「Gesetz zur Bekampfung derKinderpornographie in Kommunikationsnetzen(児童ポルノサイトへのアクセスの防止に関する法律:児童ポルノアクセス防止法)」である。

この法律は、2009年7月10日、連邦参議院の同意を得て成立したが、同年9月の総選挙の結果政権与党となった自由民主党(FDP)が、インターネットの検閲は、表現の自由、職業の自由に触れるとしてその内容に反対した。それを受けて、10月26日に調印された連立協定では、法律の施行を1年間延期する代わりに、児童ポルノサイトの発見と撲滅(消去)を強化してその効果を検証することとなった。この動きによって、本来は前述の協定によって2009年10月17日までに実施される予定であった児童ポルノのブロッキングは延期されることになった。その後、2010年2月17日、当時のホルスト・ケーラー連邦大統領は、この法律に署名し、同法が同月22日に公布された。これは上記の連立協定に反するものであったことから、連立政権内でも反対運動が起きることになる。結果的に、児童ポルノアクセス防止法は、成立はしたものの実施されること無く、廃案になっている。2011年4月には、内務大臣と司法大臣が連名でドイツには児童ポルノサイトのアクセスをブロックする法律が無いということを宣言している。正式には2011年12月22日に成立した「児童ポルノサイトへのアクセスの防止に関する法律を廃止する法律」が、2012年1月1日に施行されることによって同法は廃止された59

  • BPjM
    青少年有害メディアリストの管理は、連邦青少年有害メディア審査会(BPjM: Bundesprufstelle fur jugendgefahrdende Medien)が行っている。同審査会は、同リストへの記載や削除を決定する権限を有している(青少年保護法 17条)。このように、テレメディアは州政府の管轄であるが、テレメディアを青少年有害メディアリストに記載する権限は、連邦の機関である連邦青少年有害メディア審査会に与えられている。ただし、テレメディアについては、同審査会は、記載の前に、州政府が州際協定に基づき共同で設立した青少年メディア保護委員会の意見を求めることが義務付けられている(青少年保護法 21条6項)。

連邦青少年有害メディア審査会は青少年局や各地の警察、学校、青少年メディア保護委員会などと連携している。ただ、特定のコンテンツ(児童ポルノ、民族差別、ホロコースト賞賛など、年齢を問わず)に関して、完全な提供の禁止を決定する立場にあるのは検察官や裁判所などの機関である。また、連邦青少年有害メディア審査会は、BPjMモジュールと呼ばれるパソコン用フィルタリングソフトの規格を作成している。このモジュールを利用したパソコン用フィルタリングソフトをインストールしたり、検索エンジンを利用すると、同審査会が作成している青少年有害メディアリストに記載されたURLは呼び出したり検索結果に表示されることはできなくなる。

連邦青少年有害メディア審査会によれば、有害サイトを遮断することによってホスト・プロバイダーは、競争法に照らして、民事上の責任を負うこともある。これはホストプロバイダーが有害サイトの指摘を受けてあるウェブサイトを遮断した場合、当該ウェブサイトの作成者はホストプロバイダーを相手取って訴えることができることを示すものである。ただし、ドイツではこういったケースを想定した法整備が進んでいないと指摘する声もある60

多くの場合、削除の手続きは自主規制機関や、公的な審査機関などの手によって行われ、通常これらの問題は、これらの審査機関の権限の範囲内で解決することが多い。現実的にはウェブサイトの作成者がウェブサイトの削除による競争上の不利益を理由にホストプロバイダーを訴えることは稀であり、ドイツではむしろ、インターネットサービスの提供者に対して、青少年に有害なコンテンツが掲載され続けることに関して、民事上の責任が問われることが多い。

連邦青少年有害メディア委員会もテレメディア提供者が青少年メディア保護州際協定に違反している場合には、刑法とは独立して法的アクションを起こす権限が与えられている。アクションの内容は違反行為の重大さによって異なる。テレメディア上のコンテンツ提供者に関して連邦青少年有害メディア委員会が取りうる対抗措置は以下のとおりである。

  • コンテンツ提供者への異議(強制力はない)
  • コンテンツ提供者に対する禁止(拘束力がある)
  • ホストプロバイダーまたはアクセス・プロバイダーにおける遮断措置の要請
  • ホストプロバイダーまたはアクセス・プロバイダーにおける遮断措置
  • 秩序違反手続きと罰金
  • 検察庁に提出

(3) 児童ポルノ

通信サービスの利用に関する法律(通信サービス法)第8条第2項により、違法情報の存在を知ったら、速やかに消去もしくはブロッキングすることを、間接的に義務付けている。児童ポルノは所持自体が刑罰になるため、事実上消去による対応となる。児童ポルノ刊行物を広める、入手、所持は、最低3ヶ月、最高5年の禁固刑が処される61

(4) 実際の適用例と裁判

2002年2月にデュッセルドルフ行政管区は、当局が担当する地域で営業する78のプロバイダーに対し、2つの極右的な内容のサイト(発信地はアメリカ)のブロッキングを命令した。プロバイダー側はこの命令を不服として、各地の行政裁判所に提訴し、大方のプロバイダーは敗訴したが勝訴した例もある。また、上級行政裁判所で審理中のものもある62

(5) EUの政策

8.2.(5)のイギリスの「EUの政策」を参照。

EUでは、2009年2月に、「Safer Social Networking Principles」 という自主規制ガイドラインを策定した。グーグル、マイクロソフト、Facebook、ヤフー等のIT企業21社及びChildnet、Red Barnet、Save the Children等の児童保護団体6団体が支援する。

EUの自主規制は、フレームワークを欧州委員会と関連事業者が作成した上で、事業者が自主規制を実施し、そして、その結果を欧州委員会がチェックするということでなりたっている。この方法は、SNSだけでなく、携帯電話へのフィルタリングシステムの導入等でも同様に行われており、EUの基本的な実施方法である。