DIGITALE LINKE
— Politik in der digitalen Welt! —
 

Anhörung Leistungsschutzrecht Presseverlage UA Neue Medien

Archivierter Liveblog der „Öffentlichen Anhörung zu technischen Fragen eines Leistungsschutzrecht für Presseverlage“ am 25.02.2013 im Unterausschus Neue Medien des Bundestages:

Die Abgeordneten fragen nach technischen Alternativen zu dem geplanten Gesetz für ein Presseverleger-Leistungsschutzrecht. Besonderes Interesse besteht an der robots.txt und ihren Möglichkeiten.

Dr. Wieland Holfeld, Google Engineering Director: Mit robots.txt kann granular bestimmt werden, welche Inhalte Crawler abgreifen dürfen und welche nicht – pro individueller Seite. Ich kann festlegen, ob die Seite gefunden wird, aber auch ob ein Snippet angezeigt werden darf oder nicht. In den Metadaten kann man zudem Schlüsselworte bestimmen, die die Suchmaschine dann anzeigen kann (aber nicht muss). Ich habe mehrere Beispiele mitgebracht, das illustriert, dass die Suchmaschine genau das anzeigt, was die Verlage in den Tags vorgeben. [wird im Saal verteilt] Fazit: Es funktioniert wunderbar, auch, wenn man gar nicht im Index auftauchen möchte. Wir halten uns also dran, folglich gibt es keine Notwendigkeit für ein gesetzliches Einschränken. Können wir noch auf der Ebene der Standards noch mehr Konfigurationsmöglichkeiten anbieten? Grundsätzlich schon, das ist in der Vergangenheit auch schon mehrfach vorgekommen, z.B. „unavailable after …“. Zu den technischen Möglichkeien des ACAP: Im ACAP sind die Möglichkeiten der Suchmaschine sogar noch eingeschränkter: Bestimmte Vorgaben, die dort gemacht werden, können wir nicht umgehen. Von daher sind wir skeptisch, ob das ACAP einer einzigen Interessengruppe überlassen werden sollte, hier den Verlegern. Was werden wir tun, wenn das LSR kommt? Wir arbeiten derzeit mit Heuristiken, die aber für eine Verbotsrecht nicht ausreichen. Automatisch zu erkennen, welche Inhalte Verlegerwebseiten sind, welche nicht, ist technisch schwer bis unmöglich. Wenn das LSR kommt, werden wir sehr defensiv vorgehen müssen.

Dr. Thomas Höppner, BDZV: Newsaggregatoren sind nicht Taxifahrer, die Gäste zum Restaurant bringen, sondern sie präsentieren das Menü schon im Taxi. Verleger verlangen nicht Geld für die Weiterleitung, sondern das LSR soll vor Diensten schützen, die Verlegern Traffic wegnehmen: Sie greifen Leistungen von den Verlagsseiten ab, ziehen die Leser auf die eigenen Webseiten und befriedigenden das bestehende Informationsbedürfnis dort. Bei Newsdiensten werden Nachrichten systematisiert, Vorschaubilder ergänzt etc. Das hat mit einer Suche nichts mehr zu tun. Das Geschäftsmodell vieler Newsaggregatoren zielt darauf ab, mit Hilfe der Verlagsleistungen andere Dienste anzubieten. Es ist keine Symbiose, sondern ein direktes Konkurrenzverhältnis: News-Seiten machen dasselbe, was Zeitungen machen. Warum reicht es uns denn, dass wir Zeitungen oft nur überfliegen? Warum verbringen user nur 30 Sekunden auf unseren Webseiten? Weil es genügt. Weil die Komprimierung auf das Wesentliche einen eigenen Wert hat. Warum wurde eigentlich bislang nicht mitgeteilt, wie viele Leser auf Google News gehen und wie lange sie dort verweilen? Aggregatoren erhöhen nicht den Traffic, sondern nehmen ihn weg. Nur die user, die sich noch für einzelne Details interessieren, klicken noch weiter. Das Problem ist, dass Verlage keine technischen Möglichkeit haben, dies zu verhindern. Google News sei jährlich 100 Millionen wert, erklärte einst Marissa Mayer. Warum wohl? Oder schauen Sie Google Knowledge an: Da wird auch alles Mögliche zusammenkompiliert, sodass man nicht mehr weiterklicken muss. Es halten sich auch nicht alle Suchmaschinen an die robots.txt. Man weiß am Ende nie, ob der Crawler sich daran hält. Man kann bei Google zwar konfigurieren, aber wer aus Google News raus will, taucht dann auch in der Websearch nicht mehr oben in den News Universals raus. Je weniger groß man erscheint, desto weniger Leute klicken darauf, und am Ende wird man immer irrelevanter. Man kann die hochwertigste Verlagsseite mit den tollsten Inhalten haben, aber wenn man die robots.txt sperrt, ist man automatisch gegenüber denen benachteiligt, die nicht sperren. Die Konkurrenz der Verlage untereinander wird also ausgenutzt. Jetzt ein bisschen in der robots.txt herumzufeilen, nützt nichts. Es gibt keine Alternative zum LSR.

Prof. Dr. Dirk Lewandowski, Hochschule für Angewandte Wissenschaft, Hamburg: Ist es wirklich sinnvoll für eine Suchmaschine, die robots.txt vollständig zu beachten? Schließlich erlauben manche Anbieter Google alles, anderen Anbietern nichts. Es gibt also bisweilen gute Gründe, die robots.txt nicht zu nutzen. Ein Ausbau der robots.txt ist sicher nötig; ob damit die Probleme gelöst werden, ist eine andere Frage. Zur Frage nach der automatischen Erkennung von Presseerzeugnissen: einerseits Ebene der Verlagsangebote, andererseits Ebene der Artikel. Google News ist redaktionell, Quellen sind händisch ausgewählt, etwa 1000. Auf der Ebene der einzelnen Artikel ist das technisch schwer zu machen.

Michael Steidl, Managing Director International Press Telecommunications Council (IPTC): Bei der Erstellung von Standards achten wir darauf, sowohl die Interessen der Absender als auch der Empfänger zu berücksichtigen. Seit den 2000er Jahren setzen wir uns mit maschinenlesbaren Rechtesprachen auseinander. In letzter Zeit betreiben wir eine Weiterentwicklung von ACAP. Was ist robots.txt für ein Standard? Kann er erreichen, was man erreichen will? Man muss zwischen robots.txt selbst und Metatext/robots exclusion protocol unterscheiden. Nicht alle Anbieter bekennen sich zu festgeschriebenen Definitionen. Bestimmte Agenten greifen auf die Standards zu, es ist aber nirgends definiert, welche Agenten das sind. Man weiß nie genau, welcher Agent mit einer bestimmten Webseite spricht. Zu den Metatags: Metatags geben ein Stichwort mit einer kurzen Beschreibung ab. „all“, „no index“, „no follow“, „no image index“, „unavailable after“ etc. Es sind eher sehr kurze Beschreibungen, Standards, die wir seit den 70ern verwenden. Werden oft sehr unterschiedlich verwendet. Es gibt aber keine Prägeorganisation für robots.txt. Genügt es, robots.txt zu verwenden, um sich abzuwenden? Nein, denn es gibt oft auf ein und derselben Seite verschiedene Inhalte. Die robots.txt kann aber nur mit ganzen Seiten umgehen, nicht mit einzelnen Inhalten. Auf jeder Zeitungsseite gibt es sowohl Artikel als auch Nachrichtenübersichten. Man kann nicht ein Element ausschließen und die anderen zulassen.

Zweite Fragerunde: Kann Google Inhalte der Seiten verwenden, wenn die robots.txt Sperrungen vorsieht? Wie viele Leser werden von Google weitergeleitet? Müsste man wirklich Google eine Liste der Verlage übermitteln, die nicht gelistet werden wollen? Könnte man nicht Standards, mit denen Verlage zufrieden sein könnten, mit einem rechtlichen Schutz versehen? Kann man es mit Zahlen belegen, dass Google den Verlagen Leser „wegnimmt“? Was würde das Gesetz für die Presseerzeuger bedeuten, die sich nicht rechtzeitig melden? Wie ist es mit Suchmaschinen, die rss-feeds nutzen? Ginge es den Verlagen wirklich ohne Suchmaschinen besser als mit? Sind denn die wichtigen Fragen alle schon beantwortet, wenn wir Freitag über das Gesetz abstimmen lassen?

Dr. Wieland Holfeld, Google: Crawlen und indizieren muss man unterscheiden. Indizieren heißt, dass wir die Seite speichern, sie wird dann trotzdem in unseren Suchlisten angezeigt, wenn zum Beispiel viele andere Quellen auf die Seite verweisen. Wir reichen etwa 6 Milliarden Klicks an die Verlage weiter. Die Internet-Standards sind alle miteinander verwoben, auch die robots.txt funktioniert noch prima. Erweiterungen kann man trotzdem diskutieren. Einen internationalen Standard in deutsches Recht überführen zu wollen, ist aber nicht gerade eine naheliegende Vorstellung. Zum Thema Seitengranularität: Man kann innerhalb einer Seite iFrames anbinden und auf diese Weise auchProf. Dr. Dirk Lewandowski, Hochschule für Angewandte Wissenschaft, Hamburg: einzelne Teile einer Seite per robots öffnen oder sperren. Aber bringt es viel?

Dr. Thomas Höppner, BDZV: Newsaggregatoren führen dazu, dass die Leute nicht mehr durchklicken. Wie das Verhältnis zwischen denen, die durchklicken, und denen, die nicht durchklicken, aussieht, können nicht wir sagen, sondern nur Google. Selbst wenn 100% durchgeleitet würden, würde der Aggregator gerechtfertigt profitieren.

Prof. Dr. Dirk Lewandowski, Hochschule für Angewandte Wissenschaft, Hamburg: Der Gesetzesvorschlag, so wie er auf dem Tisch liegt, reicht, um die Problematik zu lösen.

Michael Steidl, Managing Director International Press Telecommunications Council (IPTC): Offenbar können auch Seiten angezeigt werden, auf die nie zugegriffen wurde. Wie werden denn dann noch Metatags verwendet, die ggf. die Anzeige untersagen? Außerdem sind Metatags selbst kein Standard.

Dritte Fragerunde: Wie wird Google reagieren, wenn wir das LSR am Freitag beschließen? Gibt es irgendeinen Teil, der leistungsschutzrecht frei bleiben würde? Würde die Einführung des Gesetzes dazu führen, dass Google seine Dienste abschaltet?

Dr. Wieland Holfelder, Google: Die Google-Newsliste ist sowohl algorithmisch als auch manuell. Wenn es aber ein Verbotsrecht gibt, reicht das nicht, dann braucht man eine verbindliche Liste. Es gibt einen Google-Bot, der für die Newssuche zuständig ist, einen, der für die Bildsuche zuständig ist etc. Die kann man durchaus einzeln ansprechen.

Dr. Arnd Haller, Google Jurist: Man kann dieses Gesetz nicht technisch implementieren. Der Such-Robot müsste verstehen, was ein Presseverleger im Sinne dieses Gesetzes ist. Bei Google News kann man es vielleicht gerade noch erkennen, aber in der Websuche kann ein Bot das nicht entscheiden. Wie wir mit dem Gesetz umgehen, wird sich zeigen, wenn es in Kraft ist. Aber es ist ja verfassungswidrig, die Notifikation ist nicht beachtet, und es verstößt gegen internationale Abkommen, behaupten manche. Also erst mal sehen.

Dr. Wieland Holfelder, Google: Wir müssen erst mal abwarten, wie der Entwurf am Freitag aussehen wird. Dann sehen wir, wie wir es umsetzen können.

Dr. Thomas Höppner, BDZV: Die Informationsfreiheit ist nicht beeinträchtigt, Links bleiben auf jeden Fall frei. Die Wir wollen nur die Beschränkung von Suchergebnisse auf Links. Die URL als Link darf durchaus auch weiter angezeigt werden.

2 Kommentare zu “Anhörung Leistungsschutzrecht Presseverlage UA Neue Medien”

  1. […] Medienordnung schaffen Positionspapier des Parteivorstandes « Anhörung Leistungsschutzrecht Presseverlage UA Neue Medien […]

  2. […] gab heute dazu eine Anhörung  im Unterausschuss neue Medien (an der ich lei­der nicht teil­neh­men konnte, da ich ver­hin­dert war). Netzpolitik.org hat […]

 

Kommentar abgeben