Die Standardisierung der Zensur
Von Dragan Espenschied und Alvar C.H. Freude, 10.01. 2001, 13:54:53

W3C empfiehlt »Platform for Internet Content Selection«
 
 
Mit dem PICS-Standard hat das World Wide Web Consortium eine technische Grundlage für effektive Inhaltliche Kontrolle im WWW vorgestellt. Aus der daraus resultierenden Verantwortung will sich das Consortium jedoch heraushalten.
 
Filter sind gefragt
 
  Auf Seiten der Internet-Benutzer besteht eine Nachfrage nach Filter-Lösungen für das Netz, als Argument wird meistens der Jugendschutz bemüht. Da beispielsweise in den USA und Deutschland staatliche Zensur verfassungsrechtlich verboten ist, wird ein Modell der freiwilligen Selbstontrolle favorisiert, in dem sich Anbieter von Inhalten selbst bewerten sollen, wie man es von Broadcast-Medien her kennt. Auf seiten der Benutzer soll man sich mit Programmen wie Link in neuem Fenster anzeigenNetNanny oder Link in neuem Fenster anzeigenCyberSitter selbst dafür entscheiden, was man sich zumuten möchte.  


[1] Auch hier sei wieder auf das Link in neuem Fenster anzeigen»Netz gegen Gewalt« der CDU verwiesen.
Inhaltliche Selbstkontrolle wird nach dem Motto »immer noch besser als staatliche Zensur« befürwortet. Teilweise brüsten sich Hersteller von Filter-Software sogar mit dem Schutz vor staatlicher Zensur. Gleichzeitig profliert sich die Politik mit der Unterstützung oder Initiierung von Filterprojekten.[1]  


[2] Detaillierte Informationen zu PICS beim W3-Consortium: Link in neuem Fenster anzeigen»Platform for Internet Content Selection«

[3] Siehe auch Meldung im heise-Newsticker: Link in neuem Fenster anzeigen»BKA und Bertelsmann Stiftung kooperieren bei Filtersoftware« (August 2000)
Das w3-Consortium hat mit PICS[2] schon ein Auszeichnungs-Format für Inhalte vorgelegt, das nicht selbst als Filter fungiert sondern ähnlich wie HTML festlegt, wie beliebige Auszeichnungen einem gewissen Inhalt zugewiesen werden. Jedes Filter-Muster kann also in PICS eingebettet werden, aus inhaltlichen Fragen will sich das W3-Consortium jedoch heraushalten und die Ausarbeitung weiterer Deklarierungs-Konventionen Institutionen überlassen, die ein Interesse an Filterung haben. Gleichzeitig will das W3C die Konkurrenz zwischen verschiedenen Filter-Anbietern fördern, damit die Benutzer zwischen verschiedenen moralischen oder politischen Ansichten wählen können.[3]  
  PICS ist ein mächtiges System, das viele Möglichkeiten des Missbrauchs bietet. Verantwortung wollen die Erfinder jedoch nicht übernehmen, die oft gestellte Frage nach einem staatlich regulierten Einsatz von PICS oft gestellte Frage wird so beantwortet:  


[4] Siehe auch Simson Garfinkels Kritik an PICS in Hotwired: Link in neuem Fenster anzeigen»Good Clean PICS« (Mai 1997)
Does my country have a right to filter what I see?

W3C leaves this question to the political and legal processes of each country. Some people argue that unrestricted access to information is a fundamental human rights question that transcends national sovereignty. W3C has not adopted that position.

Aus dem Link in neuem Fenster anzeigen»PICS, Censorship, & Intellectual Freedom FAQ«[4] des Link in neuem Fenster anzeigenW3 Consortiums
 
  Die von den Vereinten Nationen 1948 verabschiedeten Allgemeinen Menschenrechte zumindest beziehen dazu klar Stellung:

Artikel 19

Jeder hat das Recht auf Meinungsfreiheit und freie Meinungsäußerung; dieses Recht schließt die Freiheit ein, Meinungen ungehindert anzuhängen sowie über Medien jeder Art und ohne Rücksicht auf Grenzen Informationen und Gedankengut zu suchen, zu empfangen und zu verbreiten.

Link in neuem Fenster anzeigenAllgemeine Erklärung der Menschenrechte auf der Website der Link in neuem Fenster anzeigenVereinten Nationen
 
 

Die erwünschte Vielfalt der Filterangebote blieb seit der ersten Vorstellung von PICS 1996 jedoch aus. Zwei Bewertungs-Schemen mit einer gewissen Verbreitung haben sich inzwischen herausgebildet:
  1. Das Gremium der Internet Content Rating Association (ICRA) des Link in neuem Fenster anzeigenRecreational Software Advisory Council (RSACi), einem nicht kommerziellen Zusammenschluss einiger großer Unternehmen wie Disney, AT&T, Microsoft, IBM und so weiter.
  2. Link in neuem Fenster anzeigenSafeSurf, die kommerzielle Variante.
 
 
1. ICRA: Sex, Gewalt, Kunst und Sport
 


[5] zumindest laut der eigenen Link in neuem Fenster anzeigen»About«-Seite
Das ICRA-System ist äußert primitiv aufgebaut. Es besteht aus einer »objektiven« und einer »subjektiven« Komponente.[5]  
  Die objektive: Zuerst bewerten Inhalte-Anbieter ihr Angebot, indem sie einen Link in neuem Fenster anzeigenFragebogen ausfüllen. Die Fragen sind eingeteilt in »Nudity and Sexual Material«, »Violence«, »Language« (gemeint sind obszöne Ausdrücke), »Other Topics«, in welchen zum Beispiel Glücksspiel und Tabakkonsum abgehandelt wird, und »Chat« (der Möglichkeit zur direkten Kommunikation mit anderen Benutzern). Um diese grobe Einteilung etwas zu relativieren gibt es in den Rubriken Sex und Gewalt die Option, dass die Inhalte im künstlerischen Kontext zu sehen sind. Als Beispiel, was Kunst ist, wird in der Link in neuem Fenster anzeigenOnline-Hilfe die Geburt der Venus von Boticelli gezeigt. Gewalt lässt sich auch unter Sport einordnen, besonders interessant dürfte hierbei die Kombination »Sexual violence / rape« und »only appears in a sports related context« sein. Für »Language« und »Chat« gibt es keine Möglichkeit der Kunst.  
  Die Kategorien sind sehr schwamming. Fällt beispielsweise Kriegsberichterstattung unter »Violence«, genau wie ein Splatter-Film oder eine Reportage aus dem Schlachthaus? Den Fragen ist deutlich ihre Herkunft aus dem US-amerikanischen Kulturkreis anzumerken. Dennoch findet sich als Tipp in der Hilfe zur Selbstbewertung folgendes:

Botticelli's Birth of Venus contains a female breast and that box must be checked as it qualifies objectively. However, as:
  1. the intention can reasonably be assumed to be artistic and
  2. in many cultures it is not unreasonable to assert that it is suitable for young children,
the artistic checkboy can also be checked.

Link in neuem Fenster anzeigen»Internet Content Rating Association«, 26.12.2000


Ola-Kristian Hoff, Direktor von ICRA-Europe wird im Link in neuem Fenster anzeigenheise-Nesticker zitiert:

Eine neue Liste von Rating-Deskriptoren sorge für absolute Wertneutralität, versicherte Hoff. Die Sitebetreiber müssten jetzt etwa nicht mehr »relativ wenig Nacktheit« angeben, sondern würden dann zum Beispiel die Checkboxen »nackte Brüste« oder »keine nackten Brüste« vorfinden, wenn sie den Inhalt ihrer Seite beschreiben wollen. Wertende Urteile, die auf kulturellen Unterschieden beruhen, würden damit minimiert.

heise-Newsticker: Link in neuem Fenster anzeigen»ICRA: Inhaltsfilter fürs Web vorgestellt« (September 2000)
 
 

Der subjektive Teil: Die Benutzer wählen selbst aus, was sie sich zumuten wollen und stellen ihren Filter entsprechend ein. Im Internet-Explorer, dem zur Zeit am weitesten verbreiteten Web-Browser ist der ICRA-Filter bereits eingebaut. In einem Menü kann für die einzelnen Kategorien »Language«, »Nudity«, »Sex« und »Violence« ein Wert zwischen 0 (unschuldig) bis 4 (volles Programm) eingestellt werden. Der Browser noch nicht auf dem neusten Stand des RASACi-Standards und kann die neuen »Context«-Bewertungen nicht verwenden.
 
 
2. SafeSurf: »Cooperative self regulation is a million times more effective than government censorship.«
 
 
Das Link in neuem Fenster anzeigenSafeSurf-Logo beweist Feingefühl bei der Wahl der Symbole
 
  Auch bei SafeSurf generiert ein Link in neuem Fenster anzeigenBewertungs-Formular die Informationen für ein PICS-Schema. Die Kategorien hier sind »Profany«, »Heterosexual Themes«, »Homosexual Themes«, »Nudity«, »Violence«, »Intolerance«, »Glorifying Drug Use«, »Other Adult Themes« und »Gambling«. Für jeden Punkt gibt 9 Abstufungen, eingeschlossen künstlerischer Ausdrucksformen. Bemerkenswert ist hierbei die »Intolerance«-Kategorie, die »Intolerance of another's race, religion, gender or sexual orientation« bezeichnen soll. Wahrscheinlich wird sich nun der Webmaster der christlichen Organisation Link in neuem Fenster anzeigenFocus On Family ein Herz fassen und seine Angebote mit 9 Punkten belegen, damit Kinder und Jugendliche nichts mehr der dort verbreitete Link in neuem Fenster anzeigenDiskriminierung von Homosexuellen erfahren.

Für Fälle von »misrating« weiß SafeSurf jedoch Abhilfe:

»Severe legal penalties will be reserved for those sites containing adult material which entice children by coding themselves as child save« – What types of penalties do you envision?

Severe legal penalties currently exist for anyone who sexually abuses children, or solicits minors, etc. The same penalties can be applied to anyone who abuses the system to entice children to adult material. The Internet community has long required proper »netiquette« of its members, and has been very effective in enforcing this »netiquette«. We believe abusers will be shut down in a nanosecond by this structure. We believe in the power of the 'Net. Our system will demonstrate that cooperative seöf-regulation is a million times more effective that government censorship. If the government should pass specific laws that are aimed directly at criminals who would abuse this system to hurt innocent children, we will support it wholeheartedly.

Link in neuem Fenster anzeigenSafeSurf Fact Page 26.12.2000
 


[6] Siehe die Link in neuem Fenster anzeigen»Why do you believe censorship is not a solution?« auf der Safe-Surf FAQ-Seite
Wollte SafeSurf durch die Initiative nicht eine staatliche Intervention verhindern?[6] Aber, zugegeben, wenn niemand über die »richtige« Verwendung der Auszeichungen wachen würde, wäre das gesamte Projekt nutzlos.  
 
Der »freiwillige Filter«
 


[7] Zum Beispiel Link in neuem Fenster anzeigenCritical Path

[8] siehe Alexander Gruhler in Telepolis: Link in neuem Fenster anzeigen»PICS – eine moderne Version der Zensur?« (März 1998)
Die beiden momentan erhältlichen PICS-Filter behaupten von sich, neutrale und objektive Kriterien anzubieten, die jeder Anbieter von Inhalten selbst anbringen kann. Doch bereits diese Kriterien transportieren Weltanschauungen. Beispielsweise kann eine Website über AIDS[7], die sich an Teenager wendet, vielleicht auch noch »Slang« verwendet (SafeSurf-Level 1), bei »korrekter« Bewertung genau die Zielgruppe nicht erreichen, die die Information vielleicht am nötigsten bräuchte. Bei Verweigerung der Kategorisierung wird das Angebot grundsätzlich nicht angezeigt. Link in neuem Fenster anzeigenLycos und Link in neuem Fenster anzeigenYahoo! kündigten ihre Bereitschaft an, nur noch gelabelte Sites in ihren Suchmaschinen und Indexen zu verwenden[8], was natürlich auch Druck auf andere Portal-Betreiber ausübt, einen sauberen Suchservice anzubieten. Wie freiwillig die Benutzung eines bestimmten Portals oder Filters ist hängt vor allem von den Kenntnissen der Netzbenutzer und den Default-Einstellungen in Standard-Software ab.  
  Zudem ist die Einstufung des Inhaltes an sich nicht einfach zu bewältigen:

Ein privates Filtersystem birgt allerdings auch Gefahren für die Kommunikationsfreiheit, die man nicht außer Acht lassen sollte. Selbst wenn die Teilnahme an einem solchen System dem Inhalteanbieter komplett freigestellt ist, könnte die Marktmacht großer Portale, die den entsprechenden Filter aufschalten, faktisch einer Zensur gleichkommen.

[...]

Aber wenn ich nun die Nutzer eines marktführenden Portals nicht erreiche, dann ist das doch eine erhebliche Einschränkung der Kommunikation. Gleichzeitig habe ich es auch noch, anders als beim staatlichen Eingriff, schwerer, mich dagegen zu wehren.

Sierk Hamann nach Monika Ermert in Telepolis: Link in neuem Fenster anzeigen»Die Bundesregierung rät: schalten Sie gelegentlich Ihren Filter ab!«; 07.02.2000
 
  Ein Filtersystem, dass unbewertete Inhalte unbehelligt lässt, ist relativ nutzlos. Der Zugang zum großen Teil unerwünschter Informationen wäre immer noch frei, denn im Netz wird selbstverständlich der überwiegende Teil des Angebots niemals bewertet werden, und schon garnicht nach den Kriterien vielleicht noch aufkommenden konkurrierenden Rating-Systemen. Deswegen ist ein Filtersystem nur dann sinnvoll, wenn es nicht bewertete Informationen blockiert.  
 
There are a number of compelling reasons why you should consider labelling your site with ICRA. Let's take four examples:
  1. If you run a commercial site or any other site with little or no objectionable material, you don't want your site to be blocked »by default.« When a parent sets up the ilter for their child, they will be offered an option to allow or disallow access to »sites that have no rating« (i.e. unlabelled sites). As the ICRA labelling system gathers momentum, more and more parents are likely to chose »disallow«.
  2. [...]

ICRA: Link in neuem Fenster anzeigen»Why bother to label?«, 26.12.2000
 
  Das Bewerten eines Angebots ist jedoch mit nicht unerheblichem Aufwand verbunden, der auch Geld kostet und schon allein deswegen Nischenangeboten gegenüber ungerecht ist; selbst wenn deren Inhalte für Kinder geeignet wären oder gar als »erzieherisch wertvoll« angesehen werden könnten. Zudem ist es unmöglich, die Inhalte von Kommunikations-Angeboten wie Chats, Newsgroups oder Foren von vornherein zu bewerten.  
 
Im Frühjahr hat selbst das an jeder Lösung des Problems Jugendschutz im Internet interessierte Link in neuem Fenster anzeigenJugendschutz.net auf die Schwierigkeiten der Selbsteinschätzung hingewiesen. Selbst wenn Inhalteanbieter den Aufwand der Selbstberwertung auf sich nehmen und auch gewillt sind, sich richtig einzustufen, werden die Ergebnisse doch sehr unterschiedlich sein. Jugendschutz.net hat sich als Beispiel das Angebot von Link in neuem Fenster anzeigenT-Online vorgenommen. T-Online hat ihre Web-Site beispielsweise im Bereich Gewalt mit Stufe 2 ("Töten") und bei Nacktdarstellung mit Stufe 1 ("unvollständige Bekleidung") klassifiziert. »Ist der Pics-Filter so konfiguriert, dass nur Seiten ohne Nacktdarstellung angezeigt werden dürfen (Stufe 0), dann ist bei T-Online noch nicht einmal mehr die Telefonauskunft zugänglich«, heißt es in der Untersuchung. In den Augen der Jugendschützern noch schlimmer: Die Erotikseiten fallen bei der generellen Einstufung fälschlicherweise unter die vergleichsweise harmlose Kategorie »unvollständige Bekleidung«.

[...]

Da sich das Einordnen als aufwändig erweist, hat die Icra bislang vor allem Listen mit unerwünschten Netzadressen bekommen.

Monika Ermert: »Filter auf dem Vormarsch«, Computer Zeitung Nr 41, 12.10.2000, Setie 12
 
  Bei einer Filter-Default-Einstellung wäre damit das Netz ein klinisch sauberer Distributions-Kanal für Firmen, die sich das korrekte Auszeichnen ihrer Inhalte leisten können. Schon durch die Idee, ein den Broadcast-Medien entnommenes Konzept der inhaltlichen Selbstkontrolle zu verwenden, zeigt, dass das Netz hier nicht als Kommunikations- sondern als Broadcast-Medium verstanden wird.  
 
 
   (Kommentar zu diesem Artikel ins Forum einfügen)