Die Standardisierung der Zensur Von Dragan Espenschied und Alvar C.H. Freude, 10.01. 2001, 13:54:53 W3C empfiehlt »Platform for Internet Content Selection« |
|||||||||||||||||||||||
|
|||||||||||||||||||||||
Filter sind gefragt |
|||||||||||||||||||||||
Auf Seiten der Internet-Benutzer besteht eine Nachfrage nach Filter-Lösungen für das Netz, als Argument wird meistens der Jugendschutz bemüht. Da beispielsweise in den USA und Deutschland staatliche Zensur verfassungsrechtlich verboten ist, wird ein Modell der freiwilligen Selbstontrolle favorisiert, in dem sich Anbieter von Inhalten selbst bewerten sollen, wie man es von Broadcast-Medien her kennt. Auf seiten der Benutzer soll man sich mit Programmen wie NetNanny oder CyberSitter selbst dafür entscheiden, was man sich zumuten möchte. | |||||||||||||||||||||||
[1] Auch hier sei wieder auf das »Netz gegen Gewalt« der CDU verwiesen. |
Inhaltliche Selbstkontrolle wird nach dem Motto »immer noch besser als staatliche Zensur« befürwortet. Teilweise brüsten sich Hersteller von Filter-Software sogar mit dem Schutz vor staatlicher Zensur. Gleichzeitig profliert sich die Politik mit der Unterstützung oder Initiierung von Filterprojekten.[1] | ||||||||||||||||||||||
[2] Detaillierte Informationen zu PICS beim W3-Consortium: »Platform for Internet Content Selection« [3] Siehe auch Meldung im heise-Newsticker: »BKA und Bertelsmann Stiftung kooperieren bei Filtersoftware« (August 2000) |
Das w3-Consortium hat mit PICS[2] schon ein Auszeichnungs-Format für Inhalte vorgelegt, das nicht selbst als Filter fungiert sondern ähnlich wie HTML festlegt, wie beliebige Auszeichnungen einem gewissen Inhalt zugewiesen werden. Jedes Filter-Muster kann also in PICS eingebettet werden, aus inhaltlichen Fragen will sich das W3-Consortium jedoch heraushalten und die Ausarbeitung weiterer Deklarierungs-Konventionen Institutionen überlassen, die ein Interesse an Filterung haben. Gleichzeitig will das W3C die Konkurrenz zwischen verschiedenen Filter-Anbietern fördern, damit die Benutzer zwischen verschiedenen moralischen oder politischen Ansichten wählen können.[3] | ||||||||||||||||||||||
PICS ist ein mächtiges System, das viele Möglichkeiten des Missbrauchs bietet. Verantwortung wollen die Erfinder jedoch nicht übernehmen, die oft gestellte Frage nach einem staatlich regulierten Einsatz von PICS oft gestellte Frage wird so beantwortet: | |||||||||||||||||||||||
[4] Siehe auch Simson Garfinkels Kritik an PICS in Hotwired: »Good Clean PICS« (Mai 1997) |
Aus dem »PICS, Censorship, & Intellectual Freedom FAQ«[4] des W3 Consortiums |
||||||||||||||||||||||
Die von den Vereinten Nationen 1948 verabschiedeten Allgemeinen Menschenrechte zumindest beziehen dazu klar Stellung:
Allgemeine Erklärung der Menschenrechte auf der Website der Vereinten Nationen |
|||||||||||||||||||||||
Die erwünschte Vielfalt der Filterangebote blieb seit der ersten Vorstellung von PICS 1996 jedoch aus. Zwei Bewertungs-Schemen mit einer gewissen Verbreitung haben sich inzwischen herausgebildet:
|
|||||||||||||||||||||||
1. ICRA: Sex, Gewalt, Kunst und Sport |
|||||||||||||||||||||||
[5] zumindest laut der eigenen »About«-Seite |
Das ICRA-System ist äußert primitiv aufgebaut. Es besteht aus einer »objektiven« und einer »subjektiven« Komponente.[5] | ||||||||||||||||||||||
Die objektive: Zuerst bewerten Inhalte-Anbieter ihr Angebot, indem sie einen Fragebogen ausfüllen. Die Fragen sind eingeteilt in »Nudity and Sexual Material«, »Violence«, »Language« (gemeint sind obszöne Ausdrücke), »Other Topics«, in welchen zum Beispiel Glücksspiel und Tabakkonsum abgehandelt wird, und »Chat« (der Möglichkeit zur direkten Kommunikation mit anderen Benutzern). Um diese grobe Einteilung etwas zu relativieren gibt es in den Rubriken Sex und Gewalt die Option, dass die Inhalte im künstlerischen Kontext zu sehen sind. Als Beispiel, was Kunst ist, wird in der Online-Hilfe die Geburt der Venus von Boticelli gezeigt. Gewalt lässt sich auch unter Sport einordnen, besonders interessant dürfte hierbei die Kombination »Sexual violence / rape« und »only appears in a sports related context« sein. Für »Language« und »Chat« gibt es keine Möglichkeit der Kunst. | |||||||||||||||||||||||
Die Kategorien sind sehr schwamming. Fällt beispielsweise Kriegsberichterstattung unter »Violence«, genau wie ein Splatter-Film oder eine Reportage aus dem Schlachthaus? Den Fragen ist deutlich ihre Herkunft aus dem US-amerikanischen Kulturkreis anzumerken. Dennoch findet sich als Tipp in der Hilfe zur Selbstbewertung folgendes:
»Internet Content Rating Association«, 26.12.2000 Ola-Kristian Hoff, Direktor von ICRA-Europe wird im heise-Nesticker zitiert:
heise-Newsticker: »ICRA: Inhaltsfilter fürs Web vorgestellt« (September 2000) |
|||||||||||||||||||||||
Der subjektive Teil: Die Benutzer wählen selbst aus, was sie sich zumuten wollen und stellen ihren Filter entsprechend ein. Im Internet-Explorer, dem zur Zeit am weitesten verbreiteten Web-Browser ist der ICRA-Filter bereits eingebaut. In einem Menü kann für die einzelnen Kategorien »Language«, »Nudity«, »Sex« und »Violence« ein Wert zwischen 0 (unschuldig) bis 4 (volles Programm) eingestellt werden. Der Browser noch nicht auf dem neusten Stand des RASACi-Standards und kann die neuen »Context«-Bewertungen nicht verwenden. |
|||||||||||||||||||||||
2. SafeSurf: »Cooperative self regulation is a million times more effective than government censorship.« |
|||||||||||||||||||||||
|
|||||||||||||||||||||||
Auch bei SafeSurf generiert ein Bewertungs-Formular die Informationen für ein PICS-Schema. Die Kategorien hier sind »Profany«, »Heterosexual Themes«, »Homosexual Themes«, »Nudity«, »Violence«, »Intolerance«, »Glorifying Drug Use«, »Other Adult Themes« und »Gambling«. Für jeden Punkt gibt 9 Abstufungen, eingeschlossen künstlerischer Ausdrucksformen. Bemerkenswert ist hierbei die »Intolerance«-Kategorie, die »Intolerance of another's race, religion, gender or sexual orientation« bezeichnen soll. Wahrscheinlich wird sich nun der Webmaster der christlichen Organisation Focus On Family ein Herz fassen und seine Angebote mit 9 Punkten belegen, damit Kinder und Jugendliche nichts mehr der dort verbreitete Diskriminierung von Homosexuellen erfahren.
Für Fälle von »misrating« weiß SafeSurf jedoch Abhilfe:
SafeSurf Fact Page 26.12.2000 |
|||||||||||||||||||||||
[6] Siehe die »Why do you believe censorship is not a solution?« auf der Safe-Surf FAQ-Seite |
Wollte SafeSurf durch die Initiative nicht eine staatliche Intervention verhindern?[6] Aber, zugegeben, wenn niemand über die »richtige« Verwendung der Auszeichungen wachen würde, wäre das gesamte Projekt nutzlos. | ||||||||||||||||||||||
Der »freiwillige Filter« |
|||||||||||||||||||||||
[7] Zum Beispiel Critical Path [8] siehe Alexander Gruhler in Telepolis: »PICS eine moderne Version der Zensur?« (März 1998) |
Die beiden momentan erhältlichen PICS-Filter behaupten von sich, neutrale und objektive Kriterien anzubieten, die jeder Anbieter von Inhalten selbst anbringen kann. Doch bereits diese Kriterien transportieren Weltanschauungen. Beispielsweise kann eine Website über AIDS[7], die sich an Teenager wendet, vielleicht auch noch »Slang« verwendet (SafeSurf-Level 1), bei »korrekter« Bewertung genau die Zielgruppe nicht erreichen, die die Information vielleicht am nötigsten bräuchte. Bei Verweigerung der Kategorisierung wird das Angebot grundsätzlich nicht angezeigt. Lycos und Yahoo! kündigten ihre Bereitschaft an, nur noch gelabelte Sites in ihren Suchmaschinen und Indexen zu verwenden[8], was natürlich auch Druck auf andere Portal-Betreiber ausübt, einen sauberen Suchservice anzubieten. Wie freiwillig die Benutzung eines bestimmten Portals oder Filters ist hängt vor allem von den Kenntnissen der Netzbenutzer und den Default-Einstellungen in Standard-Software ab. | ||||||||||||||||||||||
Zudem ist die Einstufung des Inhaltes an sich nicht einfach zu bewältigen:
Sierk Hamann nach Monika Ermert in Telepolis: »Die Bundesregierung rät: schalten Sie gelegentlich Ihren Filter ab!«; 07.02.2000 |
|||||||||||||||||||||||
Ein Filtersystem, dass unbewertete Inhalte unbehelligt lässt, ist relativ nutzlos. Der Zugang zum großen Teil unerwünschter Informationen wäre immer noch frei, denn im Netz wird selbstverständlich der überwiegende Teil des Angebots niemals bewertet werden, und schon garnicht nach den Kriterien vielleicht noch aufkommenden konkurrierenden Rating-Systemen. Deswegen ist ein Filtersystem nur dann sinnvoll, wenn es nicht bewertete Informationen blockiert. | |||||||||||||||||||||||
ICRA: »Why bother to label?«, 26.12.2000 |
|||||||||||||||||||||||
Das Bewerten eines Angebots ist jedoch mit nicht unerheblichem Aufwand verbunden, der auch Geld kostet und schon allein deswegen Nischenangeboten gegenüber ungerecht ist; selbst wenn deren Inhalte für Kinder geeignet wären oder gar als »erzieherisch wertvoll« angesehen werden könnten. Zudem ist es unmöglich, die Inhalte von Kommunikations-Angeboten wie Chats, Newsgroups oder Foren von vornherein zu bewerten. | |||||||||||||||||||||||
Monika Ermert: »Filter auf dem Vormarsch«, Computer Zeitung Nr 41, 12.10.2000, Setie 12 |
|||||||||||||||||||||||
Bei einer Filter-Default-Einstellung wäre damit das Netz ein klinisch sauberer Distributions-Kanal für Firmen, die sich das korrekte Auszeichnen ihrer Inhalte leisten können. Schon durch die Idee, ein den Broadcast-Medien entnommenes Konzept der inhaltlichen Selbstkontrolle zu verwenden, zeigt, dass das Netz hier nicht als Kommunikations- sondern als Broadcast-Medium verstanden wird. | |||||||||||||||||||||||
|