[rohrpost] Vom Freien Gebrauch der Nullen und Einsen - "Open Content" und Freie Software [1/2]

Florian Cramer cantsin@zedat.fu-berlin.de
Tue, 4 Jun 2002 18:57:37 +0200


[Anmerkung vorab: Dies ist das Manuskript eines Vortrags, dessen erste
Fassung am 4.7.2001 in der Stadtbücherei Stuttgart und dessen zweite
Fassung am 13.5.202 im Medienkunstzentrum Hangar in Barcelona gehalten
wurde. - Ich danke Johannes Auer sowie Olivier Schulbaum und Susana
Noguero von platoniq für die Einladungen. - Ich plaziere den Text hier
als follow-up zu Tilmans thematisch verwandten Artikel "Die Rache der
Hacker" vom 22.5.. Die Originaldateien gibt es unter:

http://userpage.fu-berlin.de/~cantsin/homepage/writings/copyleft/open_content/open_content_-_stuttgart_barcelona/open_content.pdf
http://userpage.fu-berlin.de/~cantsin/homepage/writings/copyleft/open_content/open_content_-_stuttgart_barcelona/open_content.html
http://userpage.fu-berlin.de/~cantsin/homepage/writings/copyleft/open_content/open_content_-_stuttgart_barcelona/open_content.tex

- Florian]





Id: opencontent.tex,v 1.36 2002/06/04 15:27:11 paragram Exp

Vom freien Gebrauch von Nullen und Einsen - ,,Open Content`` und Freie Software

Florian Cramer

4.5.2002

Ein Beispiel von vielen: Zur Zeit werden analoge VHS-Videocassetten durch die
digitale DVD abgelöst. Die technischen Vorteile sind dieselben wie beim
Systemwechsel von Audiocassetten zur Musik-CD vor mehr als zehn Jahren, mit
einer künstlichen Einschränkung allerdings. Jeder DVD-Film enthält einen
Regionalcode, der dafür sorgt, daß zum Beispiel eine in den USA gekaufte DVD
nur in Nordamerika und eine in Europa gekaufte DVD nur in Europa abgespielt
werden kann. Damit soll verhindert werden, daß etwa ein amerikanischer Film aus
den USA importiert wird, bevor er in Europa in die Kinos kommt, ungeachtet der
Tatsache, daß die Original-DVD auch Jahre später nicht in Europa abspielbar
sein wird. Man stelle sich vor, ein in den USA gekauftes Buch würde durch einen
technischen Selbstzerstörungsautomatismus in dem Moment seine Seiten schwärzen,
da man mit ihm den Atlantik überquert.

Vor welche Probleme die Reginalcodierung von DVD-Filmen Bibliotheken,
Sammlungen und Filmmuseen schon heute stellt, erübrigt sich deshalb weiter
auszuführen. Dabei ist diese Codierung nur eine technisch primitive Vorstufe
von digitalen Medien, die, um Kopien zu verhindern, individuell für das
jeweilige Abspielgerät ihres Käufers oder Abonnenten codiert werden. Diese
Technik firmiert heute unter dem euphemistischen Namen ,,Digital Rights
Management (DRM)``. Das Buch, das sich beim Atlantiküberflug einschwärzt, ist
in Gestalt von E-Books mit ,,Digital Rights Management`` bereits Realität. Auf
Grund von Urheberrechtsnovellen ist in den USA, demnächst auch in der
Europäischen Union, nicht nur der urheberrechtlich illegale Vertrieb von Medien
strafbar, sondern bereits die Bereitstellung von Technologien, die solch einen
unerlaubten Vertrieb ermöglichen. Auf der Grundlage dieses neuen Rechts wurde
in den USA der russische Programmierer Dimitri Sklyarov verhaftet, der eine
Software zur Aushebeln der Paßwortkontrolle von E-Books geschrieben hatte.

Nach Jahrzehnten der promiskuitiven Freiheit von digitaler Information im
Internet erleben wir zur Zeit einen Backlash der Proprietarisierung digitaler
Nullen und Einsen. Es wiederholt sich damit eine Entwicklung, die sich in den
1970er und 1980er Jahren schon in der Computersoftware vollzog. Wir kennen
heute die zwei Resultate dieser Entwicklung: einerseits proprietäre Software
wie die von Microsoft, andererseits freie Software wie Linux. Die Frage heute
ist, nach welchem dieser beiden Modelle auch andere digitale Information und
mit ihr die sogenannte Wissensgesellschaft organisiert wird, oder ob beide
Interessen möglich ausgeglichen werden können wie die von Buchhandel und
öffentlichen Bibliotheken durch das heutige Urheberrecht.

Was sind ,,Freie Software`` und ,,Open Source``?

Freie Software ist die älteste Form öffentlichen Wissens im Internet und, wie
sich in den letzten Jahren immer deutlicher herausgestellt hat, auch die
konzeptuell avancierteste aller jener Netzkulturen, die sich
Informationsfreiheit auf ihre Fahnen geschrieben haben. So ist auch das Konzept
des ,,Open Content`` direkt nach Freier Software bzw. Open Source modelliert.
,,Open Source`` hat sich seit 1998 als Alternativbezeichnung zu Freier Software
eingebürgert. Technisch bezeichnen beide dasselbe, lediglich die
politisch-philosophischen Nuancierungen sind verschieden. ,,Open Source``
unterstreicht, daß nicht nur lauffähige Software, sondern auch ihr
Programm-Quellcode offengelegt ist, also nicht nur das fertige Produkt, sondern
auch sein Herstellungsrezept. ,,Freie Software`` betont, daß es dabei nicht
bloß um das Offenlegen von Interna geht, sondern auch um die Nutzungsfreiheit
des offengelegten Codes. Während der Begriff ,,Freie Software`` seit den 1980er
Jahren verbreitet ist, wurde ,,Open Source`` als Manageretagen-kompatibles
Schlagwort erst 1998 geprägt. Firmen wie Netscape und Sun konnten leichter
davon überzeugt werden, ihre Software wie den Netscape-Browser und das
Programmpaket StarOffice als ,,Open Source`` freizugeben denn als ,,Freie
Software``, auch wenn es auf dasselbe hinauslief.

Doch welche ,,Offenheit`` und ,,Freiheit`` ist gemeint? Auf allen
Computersystemen ist traditionell Software verbreitet, die frei benutzt und
weitergegeben werden kann und unter Namen wie ,,Freeware`` oder ,,Shareware``
firmiert. Auch werden Browser- und Abspielprogramm wie der Microsoft Internet
Explorer, der RealPlayer und der QuickTime Player traditionell kostenlos
verteilt. Doch gehen ,,Freie Software`` und ,,Open Source`` weit über solche
Gratissoftware hinaus:

 1. Nicht nur das Fertigprodukt, sondern auch der Programm-Quellcode
    (gewissermaßen das Kochrezept oder der Bauplan der Software) wird
    mitgeliefert;
 2. Verbreitung und Nutzung des Programms unterliegt keinen Restriktionen. Das
    heißt auch, daß Freie Software kommerziell verkauft werden darf, ohne daß
    ihre Autoren am Gewinn beteiligt werden;
 3. der Programm-Quellcode darf nicht nur eingesehen, sondern auch modifiziert
    bzw. ganz oder in Teilen in andere Programme eingebaut werden;
 4. das veränderte Programm darf frei verbreitet werden.

Freie Software bewirkt somit mehrerlei: Erstens begeben sich ihre Nutzer auch
dann, wenn sie selbst keine Programmierer sind, nicht in die Abhängigkeit eines
Herstellers, so, wie etwa Firmen von Datenbank-Herstellern abhängig sind oder
wie viele digitale Kunst von proprietären Programmen wie z.B. QuickTime und
Flash abhängig geworden und zum Untergang verurteilt ist, wenn ihre Hersteller
ihre Entwicklung und Anpassung an aktuelle Computer und Betriebssysteme
einstellen. Ein anderes Beispiel sind kostenlose, aber nicht-freie
Internet-Dienste wie z.B. die Mailinglisten der ,,Yahoo Groups``. Würde Yahoo
diesen Dienst einstellen oder kostenpflichtig machen, wären auch zahlreiche
Netzkunst-Projekte betroffen, und die Web-Archive wichtiger Mailinglisten
könnten verschwinden. Da Yahoo weder vollen administrativen Zugriff auf seine
Server gewährt, noch die auf den Servern laufende Yahoo Groups-Software
freigibt, ist den Nutzern die Kontrolle über den Dienst - und letztlich auch
über die von ihnen selbst eingestellten Textbeiträge - entzogen.

Freie Programme hingegen gehören ihrer Nutzergemeinschaft und können ihr nicht
mehr weggenommen werden. Erlahmt die Entwicklung, kann jeder andere
Programmierer einspringen und mit dem hinterlassenen Code weiterarbeiten, oder
die Nutzergemeinde selbst kann freie Programmierer für notwendige Anpassungen
und Erweiterungen anheuern. Wird, wie im Beispiel der Mailinglisten, ein
Netzdienst eingestellt, so ist es möglich, ihn andernorts mit denselben
Funktionen fortzuführen, wenn man statt ,,Yahoo Groups`` auf eine freie
Software wie GNU Mailman zurückgreift.

Zweitens wächst Freie Software zu einer öffentlichen Bibliothek von frei
benutzbaren Programmfunktionen. Während Firmen, die zum Beispiel ein
Konkurrenzprodukt zu Microsoft Word entwickeln wollen, mit null Codezeilen
anfangen und Millionenbeträge in die Nachprogrammierung gängiger
Programmfunktionen investieren müssen, müssen freie Entwickler das Rad nicht
neuerfinden, sondern können auf zahllose fertige Module - wie z.B.
Rechtschreibprüfprogramme - zurückgreifen oder ein vorgefundenes Programm nach
ihren Vorstellungen umschreiben.

Zentral für das Konzept der Freien Software ist also der Gedanke, daß
Softwarecode erstens Architektur und Infrastruktur ist, zweitens Wissen und es
drittens keine Hersteller-Monopole auf diese Infrastruktur und dieses Wissen
geben darf.

Open Content

Der Begriff ,,Open Content`` wurde 1998, im selben Jahr wie ,,Open Source``,
von der Webseite http://www.opencontent.org lanciert. Er steht seitdem für den
Versuch, die Spielregeln von Freier Software möglichst nahtlos auf alle anderen
Formen digitaler Information zu übertragen. So war die ,,Open Content
``-Initiative auch der erste Versuch, die Philosophie und Politik Freier
Software in andere Netzkulturen hineinzutragen.

Doch nicht nur mit dem Schlagwort ,,Open`` wird in der Computerindustrie
gewohnheitsmäßig Schindluder getrieben, sondern auch ,,Content`` ist ein
problematischer Begriff. Im Verständnis der Medienindustrie ist ,,Content``
dasjenige, mit dem Medien gefüllt werden. Agentur-Nachrichten zum Beispiel sind
solch ein ,,Inhalt``, der sich wahlweise in Zeitungen, ins World Wide Web, ins
Radio oder auf öffentliche Anzeigetafeln ergießt. Wenn ein Medienkonzern die
Übertragungsrechte der Fußball-Weltmeisterschaft hält, besitzt er einen
,,Content``, den er in mehreren Medien verbreiten kann. Die Rede vom ,,Content
`` beruht somit auf einer Unterscheidung von ,,Form`` und ,,Inhalt``,
Zeichenträger und Zeichen; eine Dichotomie, die nicht nur als solche
problematisch ist, sondern auch umso fragwürdiger wird, je mehr Zeichenträger
bzw. Medien, wie etwa DVD-Filme oder CD-Musik, selbst nur Zeichen, nämlich
Codes für die Formatierung anderer Codes sind.

Indem ,,Open Content`` die Öffnung dieser Zeichen verkündet, bezeichnet der
Begriff, im allgemeinsten Sinne, Daten - Schriften, Bilder, Töne -, die nicht
exklusiv und proprietär vermarktet werden, sondern öffentlich und frei zur
Verfügung stehen. Gemeint sind vor allem digitale Daten, spezifischer noch
digitale Daten im Internet.

Retrospektiv hat die Lancierung von ,,Open Content`` einen problematischen
Beigeschmack, den nämlich des Dotcom-Fiebers der späten 1990er Jahre und der
damals verbreiteten Vorstellung, man könne Produkte verschenken, um später an
Dienstleistungen zu verdienen. Eine Illusion, die vorübergehend auch Risiko-
und Börsenkapital in die Kassen von Freie Software-Firmen spülte und
Programmierer glauben ließ, vom Schreiben Freier Software leben zu können.
Damals schon und heute erst recht ist dies ein Privileg einer kleinen
Programmiererelite geblieben, und keiner Firma ist es bisher gelungen, nur mit
der Entwicklung von Freier Software profitabel zu arbeiten. Noch mehr gilt dies
für andere Formen digitaler Information. Zum Beispiel wäre es für fast alle
freien Buchautoren illusorisch zu glauben, man könne statt von klassischen
Honorar-Knebelverträgen von ,,Open Content``-Publikationen leben.

Daß das Schlagwort ,,Open Content`` dennoch aktuell geblieben ist, hat zwei
Gründe. Erstens gab und gibt es neben bezahlter Autorentätigkeit
nichtkommerzielle, öffentliche Informationsangebote, die langfristig zugänglich
gemacht und als öffentliches Gut besser geschützt werden könnten, wenn ihre
Urheber sie unter kodifizierte Lizenz-Spielregeln nach dem Vorbild Freier
Software stellen würden. Zu diesen Angeboten zählen, neben Websites und
Diskussionsforen, die von Idealisten und Enthusiasten betrieben werden, die
gesamte Textproduktion der öffentlich finanzierten Wissenschaften, von
Bildungsinstitutionen, Non-Profit-Organisationen und Einrichtungen wie
Bibliotheken, Museen und Archiven, potentiell auch von öffentlich-rechtlichen
Medien. Zweitens bedroht ein verschärftes Urheber- und Patentrecht, dessen
Kontrolle in die digitalen Medien und Netze selbst einkodiert wird, die
technische Infrastruktur, die solche freien Angebote erst möglich gemacht hat.
Daß es mit dem Internet eine technisch offene Plattform zur Verbreitung von
Information gibt, ist keine in Stein gemeißelte Selbstverständlichkeit. Wie
schnell eine Kultur des promiskuitiven Code-Austauschs abgeschafft werden kann,
zeigt die Geschichte der ältesten Form digitaler Information - der
Computer-Software - seit den 1970er Jahren.

Zur Mediengeschichte der Software

War die Programmierung von Computern zu Beginn eine akademisch-mathematische
Disziplin, so begünstigte die Erfindung maschinenübergreifender
Programmiersprachen wie Algol und Fortran ab den 1960er Jahren eine
Programmierkultur, die Universitäten, Computerhersteller und andere Firmen
gleichermaßen einschloß. Auch in den 1970er Jahren sah die Computerindustrie
Software als Dienstleistung und kostenlose Zugabe zu Rechnern an. Epochal waren
vor allem die Erfindung des Mehrbenutzer-Betriebssystems Unix und der
Programmiersprache C in den ,,Bell Labs`` der Telefongesellschaft AT&T. Unix
war eine genial konzipierte Software, was sich nicht zuletzt daran zeigt, daß
auch heute noch die Blaupause bzw. den Unterbau wichtiger Betriebssysteme wie
GNU/Linux, FreeBSD, Solaris und MacOS X bildet. Kritische Masse gewann Unix
aber nicht nur dank seiner eincodierten intellektuellen Brillanz, sondern auch
dadurch, daß es gegen marginale Pauschalgebühren an Bildungsinstitutionen
weitergegeben wurde, mitsamt seinem Programm-Quellcode und der Erlaubnis, ihn
zu modifizieren. An Universitäten wie der University of California at Berkeley
wurde Unix von Informatikstudenten wie Bill Joy konsequent zu einem
Netzwerkbetriebssystem weiterentwickelt und damit zum technischen Fundament
dessen, daß später Internet hieß. E-Mail z.B. war ursprünglich das
Unix-Kommando ,,mail`` und das Domain-Namensystem, das physischen
Rechneradressen Namen wie ,,gnu.org`` zuordnet, eine Erweiterung der
Unix-Systemdatei ,,hosts``.

Da die universitären Weiterentwicklungen von Unix wieder in das AT&T-Unix
zurückflossen, war Unix Produkt einer funktionierenden Kollaboration von freien
und in Firmen angestellten Entwicklern. Diese Netzkultur zerbrach jedoch, als
in den frühen 1980er Jahren mit dem Aufkommen der Personal Computer Software
nicht mehr als kostenlose Service-Beigabe, sondern als Ware begriffen wurde.
Ein klassisches Dokument dieses Wandels ist der ,,Open Letter to Computer
Hobbyists`` von Bill Gates, dessen Firma Microsoft damals noch keine
Betriebssysteme, sondern Homecomputer-Programmiersprachen entwickelte und
kommerziell vertrieb. In diesem Brief appelliert Gates an Homecomputer-Nutzer,
Microsoft-Programme nicht untereinander kostenlos zu tauschen, sondern käuflich
zu erwerben, weil nur damit die Weiterentwicklung der Software gesichert wäre.
Zur gleichen Zeit kündigte AT&T, juristisch begünstigt durch eine
Restrukturierung der Firma, den Universitäten seine liberale Unix-Politik auf
und begann, das Betriebssystem teuer an andere Computerhersteller zu
lizenzieren. Die freien Mitautoren der Software wurden dadurch faktisch
enteignet. So machte zehn Jahre vor der Erfindung des World Wide Web die
älteste Netzkultur der Computerhacker eine Erfahrung, die zum Beispiel
künstlerischen Netzkulturen noch bevorstehen könnte, wenn die Hersteller von
de-facto-Standardsoftware wie Flash oder Java einmal ihre Lizenzspielregeln
ändern sollten.

Einige freie Entwickler zogen daraus die Konsequenz, daß man von Null anfangen
und einen diesmal vollständig freien Clone des Unix-Betriebssystems schreiben
müsse. 1983 gründete der MIT-Programmierer Richard Stallman das GNU-Projekt,
dessen Akronym für ,,GNU is not Unix`` stand. In langjähriger Kleinarbeit
entstanden Schritt für Schritt GNU-Clones aller Unix-Systemprogramme, die
jedoch vorerst nicht ohne den Unterbau eines kommerzieller Betriebssysteme
nutzbar waren. Autark wurde das System erst, als Linus Torvalds 1991 den
Linux-Betriebssystemkern schrieb, der in Kombination mit der GNU-Software ein
fertiges Unix-kompatibles Betriebssystem ergab. Was seit 1994 in der Regel nur
unter dem Namen ,,Linux`` firmiert, ist tatsächlich eine Kombination aus
diverser freier Unix-kompatibler-Anwendungssoftware mit dem technischen
Unterbau des Linux-Kerns und der GNU-Programme.

Um zu verhindern, daß das neue System proprietarisiert würde wie Unix von AT&T,
entwickelte das GNU-Projekt neben seinem Programm-Code auch einen juristischen
Code, der die Freiheit der Software absichern sollte. Die GNU General Public
License (GPL), unter der nicht nur Linux und die GNU-Software, sondern auch
viele freie Software wie z.B. der KDE-Desktop lizenziert sind, ist ein
ingeniöser Hack des Copyrights, der mit den Schutzmechanismen des Urheberrechts
absichert, daß Code nur frei verbreitet werden darf. In dieser Hacker-Logik
nennt das GNU-Projekt die GPL nicht ein Copyright, sondern ein ,,Copyleft``.
Nach den Spielregeln des GPL-Copylefts darf Code wie alle freie Software frei
kopiert, frei genutzt, modifiziert und auch kommerziell vertrieben werden. Von
Public Domain und anderen freien Lizenzbestimmungen unterscheidet sich die GPL
jedoch dadurch, daß sie es verbietet, freien Code proprietär zu machen und
vorschreibt, daß Modifikationen von GPL-Code wieder unter die GPL gestellt
werden. Die praktische Konsequenz ist, daß jeder, der in ein Programm
GPL-lizenzierten Code einfügt, auch das fertige Programm unter die GPL Stellen
muß, so daß, wie vor allem Microsoft argumentiert, die GPL den Charakter eines
juristischen Computerviruses hat. Je umfangreicher und attraktiver die
öffentliche Bibliothek von GPL-lizenziertem Programmcode wird, desto größer ist
auch der Anreiz für Programmierer, sich ihr zu bedienen und damit nolens volens
zu ihr beizutragen. Genau aus diesem Grund verbieten es auch Microsofts neueste
Lizenzverträge, Microsoft-Produkte in Verbindung mit GPL-Code zu verwenden.

,,Freie Software`` ist somit, formal gesehen, ein Lizenzierungsmodell und
definiert sich daher nicht durch Programmiertechnik, sondern rein juristisch.
Indem sie der juristischen Kontrolle proprietärer Distributionsmodelle eigene
juristische Regeln entgegensetzt, partizipiert sie nolens volens an der
zunehmenden Verrechtlichung digitaler Netze und Medien. Seitdem das Internet
zum Schlachtfeld von Urheber-, Patent- und Markenrecht geworden ist, leben
private Anbieter von Informationen im Netz mit dem latenten Risiko, zum
Beispiel wegen Verletzungen von Wortmarken abgemahnt zu werden. Freie Lizenzen
wie die GPL versuchen, den Spieß umzudrehen und Information freier zu machen,
als es das Standard-Urheberrecht vorsieht.

Genau hieran knüpft das Modell des ,,Open Content``, das die Lizenz-Regelungen
der Freien Software übernimmt, adaptiert, damit gewissermassen den rechtlichen
und politischen Kern der Freien Software herausschält und verallgemeinert.
Würden nichtkommerzielle Informationsangebote im Internet - zum Beispiel
medizinische Ratgeber, private Linksammlungen, Text- und Bildarchive - unter
,,Open Content``-Lizenzen gestellt, so wäre damit erst gewährleistet, daß
dieses Informationen frei weiterverwendet, auf anderen Servern gespiegelt und
nötigenfalls von neuen Autoren aktualisiert werden könnten. Anderenfalls greift
automatisch das normale Urheberrecht. Würde einer der zahllosen Hobbyisten, die
heute nützliche Internetangebote betreiben, plötzlich sterben, würde seine
Website vom Netz verschwinden und dürfte, selbst wenn dies wahrscheinlich nicht
seinem Willen entspräche, erst siebzig Jahre nach seinem Tod gespiegelt oder
weitergeführt werden. So, wie die Freie Software erst in den 1980er Jahren die
Notwendigkeit rechtlicher Selbstabsicherung in den Köpfen freier Programmierer
implementierte, geht es bei ,,Open Content`` weniger um eine Kulturrevolution
des Copyrights, als um die Bewahrung bestehender freier Information.

Die Definition von ,,Open Content``

Mit der Website http://www.opencontent.org wurde 1998 auch eine ,,Open Content
License`` aus der Taufe gehoben, die wortgleich war mit der GNU General Public
License bis auf die durchgehende Ersetzung des Worts ,,software`` durch
,,content``. Seitdem sind mit der ,,Open Document License``, der ,,Open
Publication License (OPL)``, der ,,GNU Free Documentation License (FDL)``, der
,,Scientific Design License (SDL)``, der Open Music License sowie der Open
Audio License der Electronic Frontier Foundation, der ,,Freien Lizenz für Texte
und Textdatenbanken`` des Münchener Instituts für Rechtsfragen von Freier und
Open Source Software und schließlich der Free Art License zahlreiche weitere
,,Open Content``-Lizenzen hinzugekommen. Während in der Freien Software sich
nach einer zwischenzeitlichen Inflation von Lizenzmodellen zwei Lizenztypen
durchgesetzt haben, nämlich einerseits die GNU GPL, die Proprietarisierung von
freiem Code verbietet, und andererseits Berkeley Unix-ähnliche Lizenzen, die
Proprietarisierungavon freiem Code erlaubt, schreckt die Vielzahl der ,,Open
Content``-Lizenzen potentielle Interessenten ab und führt auch zur
unerfreulichen Situation, daß verschieden lizenzierte Informationsquellen wegen
inkompatibler Spielregeln nicht miteinander kombiniert werden dürfen.

Wieso ist es überhaupt nötig, für ,,Open Content`` eigene Spielregeln zu
erfinden? Welche Erfordernisse werden nicht durch die klassischen Lizenzmodelle
Freier Software abgedeckt? Tatsächlich gibt es zum Beispiel Bücher und
Musikdateien, die unter die GNU General Public License gestellt wurden.
Potentiell problematisch ist dies allerdings in zweierlei Hinsicht: Sowohl die
GPL, als auch die unmittelbar von ihr abgeleiteten ,,Open Content``-Lizenzen
bieten keinen Schutz vor Zensur oder mutwilligen Verfälschungen in abgeleiteten
Werken, die auf den ersten Urheber zurückfallen könnten. Ein historisches
Beispiel ist die Verfälschung eines Kapitels der 1864 publizierten ,,Gespräche
in der Unterwelt zwischen Machiavelli und Montesquieu`` des französischen
Republikaners Maurice Joly in die ,,Protokolle der Weisen von Zion``, einem
anonym antisemitischen Pseudo-Dokument einer jüdischen Weltverschwörung. Ein
Autor hätte keine rechtliche Handhabe gegen solche Verfälschungen seines Werks,
wenn es unter der GPL oder der ,,Open Content License`` stünde. Zweitens fällt
die Tatsache, daß frei lizenzierte Werke von Dritten ohne Honorierung der
Urheber kommerziell vertrieben werden dürfen, zum Beispiel für freie
Buchautoren und Musiker viel negativer ins Gewicht als für angestellte
Programmierer, die üblicherweise mehr Geld verdienen und auch nicht auf Zeilen-
oder Auflagenhonorare angewiesen sind.

Beide Probleme, Zensur und kommerzielle Ausbeutung, sind in neueren Open
Content-Lizenzen berücksichtigt. Die ,,Open Publication License`` zum Beispiel
erlaubt es, digitale Texte frei in Netzen zu verbreiten, stellt aber
Modifikationen und Nachdrucke auf Papier unter Urheber-Vorbehalt. Die ,,Freie
Lizenz für Texte und Textdatenbanken`` hingegen schreibt typographische
Auszeichnungen aller veränderten Textpassagen vor, während die ,,GNU Free
Documentation License``, um Zensur zu verhindern, unveränderliche Textpassagen
vorsieht und außerdem, analog zu Quellcode und ausführbarem Code von
Computersoftware, bestimmt, daß Dokumente in ,,transparenten``, d.h.
herstellerunabhängig les- und schreibbaren Dateiformaten erstellt werden
müssen.

So, wie ,,Freie Software`` zunächst keine Software-Entwicklungsmethode ist,
sondern ein Lizenzierungsmodell für digitalen Code, ist ,,Open Content`` in
seinen derzeitigen Lizenzmodellen in Wahrheit keine Ergänzung oder Ausdehnung,
sondern ein politischer Korrekturversuch des Copylefts. Zensur und Ausbeutung
sind für Freie Software-Entwickler ebenfalls problematisch; so, wie die
,,Gespräche in der Unterwelt zwischen Machiavelli und Montesquieu`` zu den
,,Protokollen der Weisen von Zion`` umgeschrieben wurde, wurde etwa auch das
Computerspiel ,,Castle Wolfenstein`` in eine Pro-Nazi-Software verändert. Da
die Erstversionen der Ego-Shooter ,,Doom`` und ,,Quake`` mittlerweile unter der
GPL freigegeben sind, können sie legal auf ähnliche Weise modifiziert werden.
So zeigt die Ausdehnung der GPL auf andere digitale Formate einige allgemeinen
Schwächen klassischer freier Lizenzen auf, die aber durch eine Balkanisierung
gemäß bestimmter Ausgabeformatierungen digitaler Nullen und Einsen (als
Software-Algorithmen, als Bücher, als Musik oder als Film) nicht wettgemacht
werden. Wenn Computerprogrammcode eine subjektive und ästhetische Äußerungsform
ist und unter die Redefreiheit fällt, so ist die Unterscheidung von ,,Software
`` und ,,Content`` letztlich konventionell und willkürlich. Statt ,,Open
Content`` von ,,Freier Software`` abzugrenzen, könnte man beide ebensogut -
oder besser - unter einen Begriff wie ,,freien Code`` fassen.

Die Unterscheidung von ,,Software`` und ,,Content`` kollabiert auch dadurch,
daß es sich bei beiden um Nullen und Einsen handelt, die lediglich durch ihre
maschinelle Interpretation sich das eine oder andere materialisieren. Dadurch,
daß der Computer eine symbolverarbeitende Maschine ist, wird Schrift in ihm zu
Architektur und Architektur zu Schrift. Ein prominentes Beispiel ist das
Programm ,,DeCSS``, das kryptographische Auslesesperren von DVD-Filmen aufhebt
und deshalb in den USA gerichtlich verboten wurde. Da sich das Verbot gegen die
Schriftzeilen des Programm-Quellcodes richtete, wurde es von seinen Kritikern
als Schriftzensur gedeutet, die im Widerspruch zur garantierten Redefreiheit im
ersten Verfassungszusatz der USA steht. Um dies zu untermauern, wurde ,,DeCSS``
unter anderem in ein Gedicht umgeschrieben und als T-Shirt-Aufdruck verbreitet.
{1} So kann nicht nur eine arbiträre Kette von Nullen und Einsen je nach
vermuteter Codierung für ein Computerprogramm oder zum Beispiel für Goethes
,,Heideröslein`` gehalten werden, es wäre auch möglich, eine Computersprache zu
entwerfen und für sie einen Compiler zu schreiben, der den Originaltext des
,,Heideröslein`` als hochsprachliche Notation eines Programms interpretiert,
dessen maschinenausführbares Produkt funktional äquivalent zu DeCSS ist. Würde
das ,,Heideröslein`` dann gegen geltendes Recht verstoßen?

Der Fall Napster und das ,,Digital Rights Management``

Der Schritt hin zu einer umfassenderen Politik des freien Code ist in der
Praxis schon längst vollzogen. An Netzforen wie http://www.slashdot.org kann
man ablesen, wie seit 1998 ist aus der Debatte über Freie Software und ,,Open
Content`` eine viel allgemeinere Diskussion der Informationsfreiheit und des
Konzepts des ,,geistigen Eigentums`` im Zeitalter der digitalen Information
geworden ist. Mittlerweile ist diese Diskussion in einer breiten Öffentlichkeit
angekommen. Prominente Streitfälle waren peer-to-peer-Netze wie die
Musik-Tauschbörse Napster, die internationale Rebellion von Wissenschaftlern,
vor allem Biologen und Mathematikern, gegen die Praxis von akademischer
Fachzeitschriften, Artikel nicht frei ins Internet zu stellen und schließlich
die Strafverfolgung von Programmierern, deren Software kryptographische
Herstellercodierungen von DVD-Filmen und elektronischen Büchern aushebelt.
Selbst dann, wenn man diese Kontroversen neutral zu beschreiben versucht,
lassen sich zwei Schlüsse aus ihnen ziehen: Erstens, daß das traditionelle


[--> 2/2]

-- 
http://userpage.fu-berlin.de/~cantsin/homepage/
http://www.complit.fu-berlin.de/institut/lehrpersonal/cramer.html
GnuPG/PGP public key ID 3200C7BA, finger cantsin@mail.zedat.fu-berlin.de