Von der Impressumspflicht und der neuen Datenschutz-Grundverordnung

Am vergangenem Freitag (25. Mai 2018) ist die neue DSVGO in Kraft getreten. Die bringt kleine Seitenbetreiber ins Schwitzen, obwohl die eigentlich auf große Unternehmen abzielt. Allerdings ist die DGSVO in Teilen so schwammig formuliert, daß sie auch auf den kleinen Webseitenbetreiber anwendbar ist.

Disclaimer

Ich bin kein Jurist und kein Experte in Sachen Recht, daher darf dieser Artikel nicht als Rechtsberatung angesehen werden. Ich habe mich in den letzten Wochen allerdings mit der neuen Datenschutzverordnung auseinander gesetzt, um meinen Blog so gut es geht rechtssicher zu machen. Daher kann dieser Artikel nur als kleiner Leitfaden und Chekliste mit Tips und Tricks, sowie Anregungen zur DSGVO und zum Impressum dienen. Meine Checkliste erhebt auch keinen Anspruch auf Vollständigkeit und Fehlerfreiheit.

Die umstrittene Impressumspflicht

Eine Diskussion in einem IRC-Channel befleißigt mich, dieses Thema anzunehmen. Im Allgemeinen ging es bei dieser Argumentation, wo privat aufhört und kommerziell anfängt, im Zusammenhang mit der Impressumspflicht nach TMG §5 und der neuen Datenschutzgrundverordnung.

Der Paragraph 5 des Telemediengesetzes schreibt Anbietern vor, die ihre Dienste geschäftsmäßig in er Regel entgeltlich anbieten, ein Impressum vor. Das bezieht auch den kleinen Seitenbetreiber mit ein, der auf seiner Seite mit den privaten Kochrezepten ein bisschen Werbung setzt, um die Kosten für seine Domain zu refinanzieren.

Kann aber eine Seite, die öffentlich zugänglich ist als Privat gelten? Daum ging es in der Diskussion vornehmlich. Eine private Seite bedeutet für mich auf einer technischen Ebene, daß nur der Seitenbetreiber und ein paar seiner Bekannten darauf Zugriff haben. Das geht recht einfach via .htaccess, wo der Seitenbetreiber Passwörter einträgt, die er an Freunde und Familie weitergibt. Um eine ungewollte Verbreitung der Passwörter vorzubeugen, kann man hin und wieder ändern und neu vergeben.

Die neue Datenschutzverordnung

Eigentlich sollte das neue Gesetz den Bürger vor großen Internetkonzernen schützen. Laut einiger Recherchen im Netz treibt die Verordnung reichlich kuriose Stilblüten. Anwaltskammern schließen ihren Internetauftritt, Blogs schließen … zumindest temporär. Europäer dürfen keine amerikanischen Medien mehr lesen, Twitter sperrt Konten, vieles gibt es in diesen Tagen zu berichten.

Das neue europäische Recht, soll die Datenverarbeitung transparenter machen, Konzerne wie Facebook, Google und Co nehmen das allerdings zum Anlass, ihre Datenschutzerklärungen zu überarbeiten. Gerade bei sozialen Netzwerken gab es in den letzten Tagen schon fälle, daß Konten gesperrt wurden, weil die neue Datenschutzerklärung nicht aktzeptiert wurde – aus dem einfachen Grund, weil sich amerikanische Konzerne nicht um das neue europäische Recht scheren und ihre Datensammelwut mit einer überarbeiteten und an das neue Getz angepasste Erklärung rechtfertigen.

Kleine Websitebetreiber haben allerdings ein Problem, denn auch auf sie kommen hohe Strafen bei Verstößen zu, ebenfalls auch hohe Kosten, wenn sie ihren Auftritt korrekt rechtssicher gestalten wollen. Aber zur Erleichterung der kleinen Webseitebetreiber wie Blogger – Datenschutzbeauftragte werden nicht benötigt, daß man kein Unternehmen mit mindestens 10 Angestellten führt, was als Kerntätigkeit die Verarbeitung von Daten hat.

Aber dennoch gilt es als erstes die Webseite abzuklopfen und zu schauen wohin überall Daten abfließen. Mit Pi Hole kann man das selbst sehr schön nachvollziehen. Man loggt sich dort einfach ins Dashboard ein und schaut einfach in die Logs, wohin welche Abfragen gehen, wenn man seine Seite öffnet und welche Domains angepingt werden.

Meist findet man dann doch Anfragen neben seiner Domain zu Google Analytics, Google Ads (oder Google allgemein) oder anderen Werbenetzwerken (wenn man denn soetwas eingebunden hat).

Als erste Anlaufstelle für die Umsetzung der eigenen DSGVO Konformen Seite sollte der Provider sein, wenn man sich irgendwo eine Domain und ein bisschen Webspace für den eigenen Blog besorgt hat. Der müsste einen rechtssicheren Vertrag für die Datenverarbeitung anbieten, den man mit dem Provider abschließen muß. Das Selbe muß man mit Google tun, sofern man irgendwelche Trackingdienste für Werbung und Analyse nutzt.

Blogger benutzen gern auch diverse Tools für die Spamabwehr. Akismet ist da führend, überprüft aber jede IP Adresse auf ausländischen Server ob die für Spam bekannt sind. JetPack und Matomo – ehemals Piwik – sind ebenfals sehr mächtige Analystools. Der Unterschied: JetPack sendet auch Daten an fremde Server, Piwik speichert anonymisiert auf dem eigenen Webspace. Matomo ist als Statistictool Google Analytics aus genannten Gründen vorzuziehen. Bleiben beim Ersteren die Satistikdaten anonymisiert auf dem eigenen Webspace, so funkt Google Analytics diese auf Google Server, die mitunter auch im Ausland stehen. Bleibt noch eine Frage offen: Speichert Google diese Daten auch anonymisiert?

Die Originalen Like-Buttons von Facebook, Twitter und co. werden zumeist als iFrame eingebunden. Das sind meist kleine Browserfenster im Browerfenster. Man lädt also einn Teil von einem sozialen Netzwerk, mit einer Seite, auf dem einer der Buttons eingebunden ist. So fließen ungewollt Daten auf andere Server ab.

Für alle Plugins, die auf Fremden Servern Daten auslagern: Man muß im Zweifelsfall einen Vertrag zur Auftragsdatenspeicherung abschließen. Meine Ansicht dazu: Wenn man ohne Trackingtools nicht leben kann, dann sollte die man auf dem eigenen Server bzw. bei seinem Webhoster betreiben, denn mit dem hat man ja bereits einen Vertrag. Like-Buttons sollte man lieber als HTML Version oder 2-Clickmethode einbinden, so wie ich das mit Shariff schon früher beschrieben habe.

Als nächstes ist natürlich eine DSGVO Konforme Datenschutzerklärung notwendig. Hier ändert sich allerdings nicht viel, denn ähnliches war schon im deutschen Datenschutzrecht verankert. Für die Hobbyblogger unter uns gibt es zahlreiche DSGVO Konforme Generatoren für die Datenschutzerklärung im Netz, die man schon für lau nutzen kann. Aber auch da gibt es keine Hundertprozentige Sicherheit für eine Fehlerfreie Erklärung.

Hat man unter der Haube eine Bestandsaufnahme gemacht und eine Datenschutzerklärung fertig, so fällt meistens auf, daß man sowieso nicht alles DSGVO-konform ist. Jetzt geht es daran Plugins, Kontaktformulare und Kommentarspalten abzuklopfen.

Kann man auf diverse Dinge, wie Statistik nicht verzichten, sollte man sich villeicht nach Alternativen zu den Diensten von Google und Co. umsehen. Piwik währe da eine gute Alternative, hier hat man 99protzentig selbst in der Hand was wie gespeichert wird. Akismet ist beispielsweise durch die AntiSpamBee auszutauschen, die setzt auf unsichtbare Formularfelder um Spambots draußen zu halten.

Trackt man irgendwie, so werden Cookies und/oder Zählpixel eingebettet, das heißt, eine Zustimmung für das Setzen von Cookies muß beim Betreten der Seite her. Auch bei der Kommentarfunktion sowie Kontaktformularen werden Daten wie IP Adresse und Mailadresse gespeichert. Bei WordPress kann man Kinderleicht mit WP GDPR Compliance Checkboxen setzen, die die entsprechenden Zustimmungen einholen.

Dann bleiben noch die IP Adresssen, die die Kommentarfunktion speichert. Hier gibt es einen tieferen Eingriff ins Getriebe von WordPress um bereits gespeicherte Adressen zu löschen und einige Scripte, die künftiges Speichern verhindern. Darauf werde ich allerdings in einem kommenden Artikel eingehen, dafür habe ich einen schönen Workflow recherchiert und erarbeitet.

Ja, angebotene Downloads. Hier sind wieder Urheberrechte und Lizenzrechte zu beachten. Aber ich gehe mal davon aus, daß ihr alle, wenn ihr etwas zum Download anbietet, das auch auf legale Weise tut. Vor Jahren habe ich aus Mangel an bezahlbaren Alternativen einige Downloads einfach in die Dropbox geschubst. Synchroordner auf der Festplatte erstellt, Dateien dort reingeschmissen und wusch, verlinkt. Dropbox ist ein US-amerikanisches Unternehmen mit Serverstandorten in den USA und auf der Welt verteilt. Auch wenn da sowieso nur Downloads drin waren, die für die Öffentlichkeit bestimmt sind, so können doch beim Klick auf die entsprechende Verlinkung, Daten zu dieser Firma abfließen. Daten dafür sind nunmal IP-Adressen, damit die Server wissen, wohin sie die Downloads schicken müssen. Also dran denken: Wenn ihr einen deutschen oder europäischen Server für eure Webseite nutzt, dann lagert eure Downloads auch dort.

Bleibt noch die Frage zu den Bildern. Im Prinzip gilt hier immer noch das Urheberrecht. Der Blogger, der ein Bild aufnimmt darf das auch online stellen, sofern eine schöpferische Tiefe erkennbar ist. Stehen allerdings Personen im Vordergrund, auf denen der Hauptaugenmerk liegt, so muß da eine schriftliche Einverständniserklärung vorliegen, denn die haben auch noch Rechte am eigenen Bild, um es mal in juristischer Fachsprache zu versuchen. Fotografiert man allerdings ein öffentliches Panorama, auf dem in einiger Entfernung viele Leute durch das Bild laufen, so kann man das soweit posten. Für Bilder aus der Wikipedia so gilt der Beitrag den ich früher schonmal geschrieben habe. Auch wenn es Creative Commons ist, Quellenangaben und die Lizenz dazu, dabei hilft der dort vorgestellte Lizenzgenerator.

Fazit

Die DSGVO ist ein ganz schönes Bürokratiemonster und setzt dem eh schon straffen deutschen Datenschutz noch einiges drauf. Für kleine Webseitenbetreiber kommt einiges an Arbeit zu, vielleicht auch an Kosten für die rechtskonforme Umsetzung der DSGVO.

Links

  1. Das virgestellte Shariff Plugin
  2. Der Lizenzhinweisgenerator von Wikimedia Commons für sorgenfreie Bilder
  3. Facebook, Datenskandale und Maßnahmen gegen Trcking wie Pihole
  4. FAQ zur Absicherung des Blogs

Facebook und der Datenskandal – Wie schütze ich mich effektiv vor Tracking?

Der Skandal um den Mißbrauch von Facebookprofilen geistert nunmehr schon seit mehreren Wochen durch die Medien. Was das heißt, beschreibe ich in diesem Artikel.

Böses Google - Big Brother is watching you
Böses Google – Big Brother is watching you

Googles Tracking

Es war schon ein Hype, der an der Schwelle des 20. Jahrhunderts mit einer neuen Suchmaschine aus Silikon Valley losgetreten wurde. Auch ein neues soziales Netzwerk, was um 2005 an den Start ging wurde hoch gelobt. Alles war neu… und besser… und schneller.
Die Suchmaschine, Google genannt, lieferte auf Stichworte hin bessere Treffer, war schneller und krempelte den Suchvorgang im Netz um. Es wurden zur Suche nicht nur Schlagworte verwendet, die der Seitenbetreiber angeben konnte. Es wurden sämtliche Verlinkungen auf die Seite relevant, aber auch wie gut andere Seiten besucht sind, die auf die eigene Seite verlinken.

Content – also der Inhalt der eigenen Seite – wurde immer wichtiger und wie oft spezielle Schlüsselwörter (die der geneigte User in die Suchzeile eingibt) im Inhalt vorkommen. Spezielle Wörter – sogenannte Adwords – kann man beim Suchmaschinenbetreiber gegen Bares erwerben.
Für Webmaster und Seitenbetreiber bietet Google auch umfangreiche Analysetools an, die Aufschluss über ds Nutzerverhalten auf der Webseite geben und was den User interesiert, das sogenannte Google Analytics.

Sucheingaben und das, was der Nutzer in der Suche angeht, interessiert Google. Das ganze wird angeblich anonymisiert gespeichert. Hat man bei Google Plus (G+) ein Profil mit Namen, Adresse, Vorlieben und anderen Daten gespeichert, werden Suchanfragen personalisiert, was die Daten für Google noch wertvoller macht.
Dann sind da noch die ganzen Android-Smartphones. Auf denen ist Google omnipräsent, ohne Google läuft da recht wenig. Neben GPS-Trackern (für Navi) befinden sich noch eine ganze Menge andere Sensoren im Handy. Zudem gibt man seinem Smartphone doch eine Menge vertraulicher Daten in den Speicher – Kontaktdaten, Nutzungsdaten auch bei der Navigation. Aber auch andere Apps nehmen sich einige Rechte heraus, die sie eigentlich nicht brauchen. So bekommt Google noch mehr Daten, auch wenn man nicht am heimischen PC sitzt.

Daumen nach unten für Facebook
Daumen nach unten für Facebook

Facebooks Datensammelei

Facebook spielt in einer ähnlichen Liga wie Google. Hier wird man explizit aufgefordert ein Profil anzulegen, um sich mit anderen Leuten, sogenannte Freunde, zu vernetzen. In Profil gibt man schon allerhand von sich preis, neben Name, Anschrift, Interessen und vieles mehr. Auch wenn man spezielle Webseiten „liked“ wie es im Facebookjargon heißt, weiß Facebook, was einem gefällt.

Vom surfen im Internet kennt jeder die kleinen Facebooksymbole – ein Daumen nach oben – mit denen man Webseiten mit einem Klick in seinem Facebook-Profil verlinken kann. Auch ohne ein solches Profil fließen schon Daten über die besuchten Seiten, IP Adresse vom Rechner, aber auch Infos zu installierter Software (Betriebssystem, Browser etc.) zu Facebook ab. Ist man beim sozialen Netzwerk registriert, hat man also ein Profil dort, werden die Surfdaten mit dem Profi verknüpft – auch wenn man sich für den Moment bei Facebook ausgeloggt hat. Ähnlich wie Google sammelt Facebook die Daten – wenn sie durch ein Profil personalisiert sind werden diese um so wertvoller – und verwurstelt diese zu personalisierter Werbung.

Kurz zusammengefasst: Jeder Klick wird gespeichert und wenn das still und heimlich im Hintergrund passiert, nennt man das Tracking. Nutzt man die Services von Facebook, Google und co, so spielt man denen zusätzlich in die Hände. Man kommt aber weder als normaler Nutzer oder als Webseitenbetreiber nicht drum herum, die Services aus Mangel an sinnvollen Alternativen in irgendeiner Form zu nutzen. Man kann ungewollten Datenabfluss aber eindämmen, es gibt dafür mehr oder minder effektive Tools.

Gegenmaßnahmen zur Datensammlung
Gegenmaßnahmen zur Datensammlung

Gegenmaßnahmen

Abwehrmaßnahmen für den Einsteiger

Fangen wir beim Browser auf dem Computer an.
Und zwar hat die Mozilla-Stiftung Ende März ein neues Plugin für den Firefox vorgestellt, was einen Tab mit geöffnetem Facebook in einem Container isolieren soll. Hat man nebenher weitere Internetseiten offen, beispielsweise mit dem angesprochenem Daumensymbol, so werden keine weiteren Daten (wie besuchte Webseite, Software etc.) an Facebook übermittelt. Dieses Plugin gibt es für jede Firefoxvariante. Nutzt man im Browser noch Plugins uBlock und NoScipt, fließen Daten auch nicht zu anderen Werbenetzwerken ab.

Um das besagte Plugin zu installieren einfach im AddOn Manager nach dem Facebook Container von Mozilla suchen. Mittlerweile gibt es einen Fork von diesem AddOn mit dem sprechendem Namen Google Container, der aber von einem anderen Entwickler betreut wird und nicht von Mozilla. Dieses Addon arbeitet im Prinzip genau so wie das Offizielle Anti-Facebook Plugin von Mozilla.

Weiterhin gibt es noch Werbeblocker wie AdBlock oder uBlock für den Firefox zu installieren. Beide Addons sind für sämtliche Firefoxvarianten erhältlich und das kostenlos. Diese Addons blockieren recht zuverlässig Werbung beim Surfen und verhindern somit auch das ungewollte Tracking.
Zudem bieten die hier vorgestellten Softwarelösungen auch einen gewissen Grundschutz vor Schädlingen wie Trojanern und Co, da viele dieser Schadprogramme auch über Werbenetzwerke verteilt werden. Allerdings greifen diese Softwarelösungen nur auf dem Rechner auf dem sie gerade eingesetzt werden. Smart-TV oder Daddelbox werden außen vorgelassen und können unerlaubt Werbung bekommen.

[Update] Die hier vorgestellten AddOns gibt es für Firefox und für Chrome.

Die Profiprivatisierung

Ich nutze für mich und mein Netzwerk allerdings die Profivariante. Auf einem Orange Pi – das ist ein kleiner Einplattinencomputer wie der Raspberry Pi – läuft eine PiHole-Installation.

„Was ist denn nun PiHole schon wieder?“

Das Internet arbeitet mit sogenannten Domains, wie www.medienspürnase.de. Gibt man diese Domain in seinem Browser ein, oder klickt man auf einen Link dazu, so sucht der Browser im Internet auf einem DNS-Server (DNS=Domain Name System) nach einer passenden IP Adresse dazu, zu der er dann die Verbindung aufbaut und sich die entsprechenden Daten abholt.

Allerdings besteht eine Internetseite aus vielen einzelnen Teilen – Texte, Bilder, Videos, Formulare, Facebooks Like-Buttons, Werbung und anderen Sachen. Oftmals sind Dinge wie Videos, Like Buttons und Werbung extern eingebettet. Das heißt, daß ein Video zum Beispiel bei Youtube liegt und mittels speziellem Link ein Player in die Webseite eingebettet wird, der das Video direkt auf der Webseite abspielt. Schon ein Besuch auf einer Seite, die ein solches Video eingebettet hat oder auf der ein Like-Button vorhanden ist, sendet an betreffende Betreiber (Facebook, Youtube…) ungewollt Informationen.

Werbung ist im Prinzip genauso eingebettet – das sind Links, die automatisch Inhalte aus Fremdquellen nachladen. Für jede besuchte Domain – die Medienspürnase, Youtube oder Werbedomains – macht der Browser immer vorher eine DNS Abfrage, nach der IP-Adresse.

Eine IP-Adresse ist im Prinzip mit einer Telefonnumer vergleichbar, die einem bestimmten Festnetzanschluß oder einem Handy zugeordnet ist. So besitzt jeder Computer, jeder Server (und damit jeder Webdienst) und jedes netzwerkfähige Gerät eine eigene IP-Adresse, die nur ihm gehört. Das ist wichtig, damit die einzelnen Geräte untereinander kommunizieren können und Daten austauschen können.

Und genau da greift PiHole ein. PiHole ist im Prinzip nichts anderes als ein DNS-Server, nur mit der Besonderheit, daß der zum Ersten im eigenem Netzwerk steht und zum zweiten mit Blacklisting und Whitelisting funktioniert. PiHole ist mit dem heimischen Internetrouter verbunden. Das darf via Kabel (Ethernet, LAN) oder kabellos (W-LAN) passieren. Jede Anfrage von einem im Netzwerk hängendem Gerät läuft nun über unser PiHole. PiHole ermittelt jetzt nun die IP-Adresse beispielsweise von www.Medienspürnase.de, blättert aber in den angegebenen Listen nach, ob die Domain durchgelassen werden darf oder auch nicht. Das geschieht mit jeder gleichgearteten Anfrage, genauso bei Facebook, Google oder Werbung. Unerwünschtes wird blockiert und erwünschte Inhalte dürfen passieren.

PiHole ist zudem recht flexibel zu konfigurieren, so daß der Schutz von Paranoia (alles wird blockiert und muß manuell freigeschaltet werden) bis leicht (nur einige Sachen werden blockiert) eingestellt werden kann. Das will heißen, der geneigte Nutzer kann blockieren was er will, oder über die Whitelists alles, was er braucht wieder freischalten.

Ich schrieb ja, daß PiHole die Blockierlisten namhafter Adblock-Plugins von Browsern nutzt. PiHole wendet diese Blockierlisten auf alle Geräte, die ihren Traffic ins Internet haben, an. Zudem ist es eine zentralisierte Lösung, die leicht zu warten ist und auch keine hohen Hardwareanforderungen stellt. Es reicht schon wenn die auf einem Einplatinenrechner mit 10 Watt Stromverbrauch läuft.

[Update] In Deutschland und der EU sind die Datenschutzanforderungen sehr hoch angesiedelt, leider sind Kontrollen durch betreffende Behörden rar. Dafür allerdings gibt es eine reihe Anwälte, die sich selbst mit Abmahnungen bereichern, werden irgendwelche (vermeintliche) Verstöße aufgedeckt oder angezeigt. Die meisten größeren Webseiten und Portale in Deutschland wissen selbst um die Gefahr durch dubiose Anwälte oder den Staat abgestraft zu werden.

Deshalb setzen immer mehr Webseitenbetreiber auf Datenschutzkonforme Lösungen, beispielsweise bei den Like-Buttons von Facebook und co. Ich schrieb bereits vor geraumer Zeit darüber, daß es sogenannte Zwei-Klick Lösungen für alle erdenklichen Webseiten gibt. Diese Buttons haben den Vorteil, daß man die Like-Funktion mit dem ersten Klick aktiviert und beim zweiten Klick den Link sendet.

Think Social – Medienspürnase goes to Facebook, Twitter and Google+

Mittlerweile bin ich schon seit geraumer Zeit noch einen Schritt weiter gegangen. Der Heise Verlag bietet für WordPress und andere Contant Managementsysteme ein Plugin namens Shariff an. Das platziert die Like-Buttons als simplen HTML-Link, der mit stinknormalem CSS gestaltet wurde unter die Artikel. Reines HTML und CSS sendet von sich aus nichts, nur nach einem Klick auf den Button öffnet sich ein Anmeldefenster für das besuchte soziale Netzwerk zum teilen.

Die Medienspürnase wandelt sich

Fazit

Der Aufwand um die eigenen Daten besser zu Schützen bleibt auf einem erfreulich niedrigem Niveau, gerade bei den Addons für die gängigsten Browser. Hier punkten Firefox und Chrome gegenüber Internetexplorer und Edge. Die Addons für die Browser aktualisieren sich in gewissen Abständen automatisch und ohne den Nutzer zu belästigen.
Bei PiHole dauert das Aufsetzen schon ein wenig länger. Man benötigt eine gewisse Hardware und man ist da schon mit 40 bis 50 Euro plus Stromkosten dabei. Die Einarbeitung und Konfiguration dauert hier natürlich, wenn es aber läuft bietet es einen zuverlässigen Schutz. Wenn es optimal konfiguriert ist, zieht es sogar Updates von selbest. Der Aufwand wird der Laufzeit geringer. Anfangs ist das System auf sein Surfverhalten zu trainieren, denn einige Seiten, die man gern besuchen würde, landen vielleicht schon in der Blackliste, von der man sie in die eigene Whiteliste herausholen muß.
Beide Maßnahmen zu kombinieren ist recht Sinnvoll. Nutzt man PiHole, so können die Ad-Blocker und Container Plugins noch störende Platzhalter beim Browser entfernen. Vielleicht arbeiten dann bei euch die Sachen so miteinander, daß diese sich ergänzen?

Links

  1. Pi Hol – offizielle Seite
  2. Facebook Container für Firefox
  3. Google Container für Firefox

Den eigenen Blog rechtssicher gestalten

Manch ein Hobbyblogger wird sich doch hin und wieder die Frage stellen, wo denn die rechtlichen Grenzen liegen, wenn er denn eine eigene Website oder ein eigenes Blog betreibt. Hier habe ich ein paar Fragen und Antworten zusammengestellt, die für Blogger recht interessant sind. Allerdings ersetzen diese Ausführungen keine Beratung bei einem Anwalt oder anderem Spezialisten.

 

Impressumspflicht

Frage: Ich habe ein privates Blog ohne Einnahmen. Bin ich trotzdem verpflichtet ein Impressum vorzuhalten?

Antwort: Paragraf 55 des Rundfunkstaatsvertrages legt fest, daß Angebote, die „ausschließlich persönlichen oder familiären Zwecken dienen“ keine Anbieterkennzeichnung benötigen. Wer also zum Beispiel ein Blog betreibt, in dem er lediglich eigene Katzenbilder präsentiert, braucht kein Impressum, wenn er darauf keine Werbung schaltet. Anders sieht es aus, wenn ein professioneller Züchter auf den Bildern seine schönsten Zuchterfolge darstellen will. Selbst wenn man die Tiere nicht unmittelbar über die Website erwerben kann, verbindet er mit der Darstellung ein werbendes und damit wirtschaftliches Interesse. Es handelt sich dann nach Paragraf 5 Telemediengesetz um „geschäftsmäßige, in der Regel gegen Entgelt angebotene Telemedien“. Diese gesetzgeberisch völlig misslungene Formulierung meint damit nicht etwa Websites, die eine Vergütung für ihre Nutzung verlangen, sondern alle Angebote, die den wirtschaftlichen Interessen des Betreibers oder Dritter dienen. Im Zweifelsfall sollte man aber immer ein Impressum bereithalten, meist reicht es aus, eine Kontaktperson mit Telefon/Handy und Mailadresse dort zu benennen.

Anzeigen kennzeichnen
Frage: Inwieweit muss ich „Sponsored Postings“ kennzeichnen?
Antwort: Der Begriff der Werbung geht im juristischen Kontext sehr weit. Darunter fallen auch alle Arten von bezahlten Postings oder native Advertising. Soweit die Gefahr besteht, dass der Seitenbesucher Werbung nicht als solche erkennt, muss diese deutlich als Werbung oder Ähnliches gekennzeichnet sein, zum Beispiel mit einem deutlichen sichtbaren Hinweis „Anzeige“.

 

„Geschäftlicher Verkehr“
Frage: Handelt man kommerziell, wenn man Werbung oder Affiliate-Links zur Finanzierung einblendet?
Antwort: Das Gesetz spricht nicht von kommerziellem Handeln, sondern vom Agieren „im geschäftlichen Verkehr“. Hierzu zählen grundsätzlich alle Handlungen, die einem beliebigen eigenen oder fremden Geschäftszweck dienen. Im Gegensatz dazu stehen rein private, wissenschaftliche, politische und amtliche Handlungen. Schaltet man Banner auf seiner Website oder baut bezahlte Links ein, so entsteht dadurch ein Handeln im geschäftlichen Verkehr. Dies hat neben einer Impressumspflicht auch die heikle Nebenfolge, dass auf solche Websites unter anderem das Wettbewerbs- und Markenrecht anwendbar sind. Letztlich erhöht sich für den Betreiber das Risiko einer kostenintensiven Abmahnung um ein Vielfaches.

 

Haftung ab Kenntnis
Frage: Hafte ich für Kommentare von anderen auf meiner Seite, wenn diese auf illegale Websites hinweisen oder Beleidigungen aussprechen?
Antwort: Das Telemediengesetz (TMG), das die Haftung im Internet regelt, sieht in Paragraf 7 vor, dass ein Website-Betreiber nicht dazu verpflichtet ist, die Postings von Dritten zu überwachen, also zum Beispiel Kommentare in seinem Blog. Das gilt für private ebenso wie für geschäftliche Seiten. Anders sieht es aus, wenn der Anbieter Kenntnis von derartigem Inhalt erhält, zum Beispiel durch einen gezielten Hinweis. In diesem Fall muss er nach Paragraf 10 TMG unverzüglich tätig werden, „um die Information zu entfernen oder den Zugang zu ihr zu sperren“. Ansonsten riskiert er, für die Aussage des Dritten genauso zu haften wie für eigene Beiträge. Nicht ausdrücklich geregelt ist die Haftung für Links, die Dritte in Blog-Kommentaren posten. Es ist aber davon auszugehen, dass man auch hier erst ab Kenntnis haftet.

 

Grenzen des Zitatrechts
Frage: Auf einer Seite habe ich tolle Aussagen gefunden, die ich komplett, aber zu – sammen mit einem Kommentar von mir veröffentlichenmöchte. Darf ich das?
Antwort: Das Zitatrecht ist wohl die am meisten missverstandene Vorschrift des deutschen Urheberrechts. Richtig ist, dass durch diese Regelung in Paragraf 51 des Urheberrechtsgesetzes (UrhG) grundsätzlich die teilweise oder komplette Übernahme eines geschützten Werks erlaubt wird. Allerdings sind die Voraussetzungen sehr eng gesteckt. Es reicht insbesondere nicht, nur die Quelle anzugeben, wie manche vermuten. Dazu ist man zwar durchaus verpflichtet. Allerdings darf man nach dem Zitatrecht fremde Inhalte nur dann verwenden, wenn sie eine Belegfunktion aufweisen und es einen inneren Zusammenhang zwischen Werk und Zitat gibt. Der Artikel muss dementsprechend so geschrieben sein, dass er ohne den Bezug zum Zitat nicht funktionieren würde, da er sich inhaltlich entscheidend damit auseinandersetzt und den übernommenen Teil als Beleg für seine eigenen Aussagen nutzt. Ein Zitat ist unzulässig, wenn es nur der Ausschmückung oder Bebilderung eines eigenen Beitrags dient. Einen Artikel aus einer Zeitschrift zu übernehmen und dann einfach etwas im Sinne von „Stimmt!“ darunterzuschreiben, ist unzulässig. Bei Bildern ist es darüber hinaus entscheidend, dass das verwendete Bild nicht austauschbar ist. Bei einem Artikel über eine neue ICE-Generation ist die Übernahme eines beliebigen Fotos nicht vom Zitatrecht gedeckt. Anders sieht es aus, wenn man etwa einen Artikel über eine berühmte Aufnahme eines bestimmten Fotografen schreibt. Dann darf man das Bild natürlich auch verwenden. Insgesamt sind die Grenzen für Zitate eng gesteckt. In der Praxis gilt für Texte: Übernehmen Sie so wenig wie möglich. Ein oder maximal zwei kurze Sätze fallen meist noch nicht in den Schutzbereich des Urheberrechts, sodass man sie problemlos übernehmen darf.

 

Tracking nur mit Einwilligung
Frage: Ich tracke meine Besucher mit Google Analytics und Piwik. Inwieweit muss ich sie darüber unterrichten?
Antwort: Wer zur Erstellung von Statistiken personenbezogene Daten seiner Nutzer verwenden will, braucht dafür vorab die explizite Erlaubnis der User. Hierzu zählen auch die IP-Adressen. Doch auch wer nur pseudonyme Daten erfassen will, muss die Besucher darüber aufklären und ihnen eine Widerspruchsmöglichkeit geben. Dies ergibt sich auch aus Paragraf 15 TMG. Google Analytics bietet eine datenschutzfreundliche Variante, die ähnlich wie Piwik mit gekürzten IP-Adressen arbeitet. Allerdings erstellen beide auch pseudonyme Nutzerprofile. Daher hat das Landgericht Frankfurt/Main in einem Urteil von Februar 2014 explizit entschieden, dass ein abmahnbarer Datenschutzverstoß vorliegt, wenn Piwik ohne die Verwendung einer Datenschutzerklärung eingesetzt wird (Az. 3-10 O 86/12). Gleiches gilt für Google Analytics, das bereits einen entsprechenden Passus für den Einsatz auf Websites anbietet.

Netzgeflüster – Google straft Webseiten ohne Mobile-Optimierung ab

Google

Auf Webmaster kommt ein „Mobilegeddon“ zu, wenn man der Gerüchteküche und Berichterstattung glauben darf. Google will auf Mobile getrimmte Webseiten bevorzugen. Daher besteht die Befürchtung vieler Webmaster, daß ihre Webseiten in Zukunft abgestraft werden, wenn sie nicht für mobile Endgeräte optimiert wurden.

Vor Acht Wochen hat Google angekündigt, daß Webseiten ein schlechteres Ranking im Google Index bekommen, die sich nicht auf Tablets und Smartphones anzeigen lassen. „Da immer mehr Menschen Mobilgeräte für den Zugriff auf das Internet verwenden, müssen sich unsere Algorithmen diesen Nutzungsgewohnheiten anpassen“, heißt es in einem offiziellen Blogeintrag des Webmaster-Teams von Google.

Ab dem morgigen  21. April, wird die „Mobil-Freundlichkeit“ einer Webseite ein Kriterium für das Ranking bei Google werden. „Dieser Wechsel wird die Mobil-Suche in allen Sprachen weltweit betreffen und eine signifikante Auswirkung auf unsere Suchergebnisse haben“ heißt es weiter auf dem Blog bei Google.

Kurzum wertet Google zukünftig auch die Schriftgrößen, die für mobile Endgeräte nicht zu klein sein dürfen, oder Navigationselemente, die sich gut mit dem Finger erreichen lassen. Inhalte, die auf mobilen Endgeräten nicht angezeigt werrden können, beispielsweise Adobe Flash, führen auch zu einer Abwertung.

Kann ich mein Angebot auf Mobile-Tauglichkeit prüfen lassen?

Ja das kann man in der Tat. Google bietet einen Test an (Link am Ende des Artikels), der das Angebot auf Mobil-Tauglichkeit überprüft. Hier zeigt Google Fehler und Hinweise an, um das Onlineangebot dementsprechend überarbeiten zu können.

Wirkt sich der Mobil-Check auch auf die Suche vom Desktop-Computer aus?

Bisher ist allerdings noch unklar, ob sich das neue Ranking auch auf die Suche von einem Schreibtischcomputer auswirkt. Google-Manager Gary Illyes sagte auf dem IT-Event SMX West, seines Wissens werde der Mobil-Check keine Auswirkungen auf die Desktop-Suche haben. Allerdings ist es wahrscheinlich, daß die bessere Nutzererfahrung für mobile Endgeräte indirekt zu besseren Ergebnissen führen kann.

Der neueste Wechsel des Such-Algorithmus soll auch Inhakte von Android-Apps besser durchsuchbar machen. Wenn solche Mobil-Programme einen Index haben, sollen diese auch eine Chance bekommen, in den Such-Ergebnissen bei Google aufzutauchen. Der Konzern will damit der Herausforderung begegnen, dass immer mehr Informationen nicht unbedingt im offenen Web zu finden sind, sondern in den Daten-Containern einer App

Links

  1. Google Webmasterblog – Ankündig für neuen Suchalgorithmus
  2. Test auf Optimierung für Mobilgeräte

Sitemaps – Ein bisschen SEO muß sein

Die letzten Tage habe ich vor allem unter der Haube von WordPress und anderen Seiten von mir herumgefrickelt. Ein bisschen SEO – Search Engine  Sptimization (neudeutsch für Suchmaschinenoptimierung) – mußte sein. Das hat nur einen Grund, man möchte sich bei den Suchmaschinen – gerade bei Google – beliebt machen und die Seite übersichtlicher gestalten. Dazu gehören eben auch XML-Sitemaps. 🙂

Was sind Sitemaps? :scratch:

Sitemaps sind im Prinzip nur  Übersichtskarten für die Struktur der Webseite. Es ist kein Inhaltsverzeichnis für eine Webseite, eher eine hierarchische Struktur aller Übersichtsseiten einer Web-Präsens. Firmen und Unternehmen bauen soetwas ganz gern ein, um für Leser die Übersicht zu erhöhen.

XML-Sitemaps selbst bekommt der Leser ersteinmal nicht zu sehen, diese sind nur für Suchmaschinen sichtbar. Wie eine solche Sitemap aussieht, kann man sich bei der Medienspürnase anschauen. Solche auf XML basierenden Sitemaps sind für die Suchmaschinenoptimierung recht wichtig, gerade für Seiten, die mit Adobe Flash generiert wurden oder JavaScript-Menüs aufweisen, das heißt für Seiten mit Barrieren.

Außerdem folgen die meisten Suchmaschinen nur einer bestimmten Anzahl von Links. Bei Umfangreichen Seiten, dienen XML-Sitemaps hauptsächlich dazu, daß Suchmaschinen den gesamten Webauftritt im Blick haben.

Ist eine Webseite wirklich nutzerfreundlich ausgelegt – das heißt, daß die Navigation klar und übersichtlich strukturiert ist – entfällt eine Sitemap. Allerdings kann sich dadurch der Verwaltungsaufwand für den Webseitenbetreiber erhöhen, wenn er denn auf Sitemaps verzichtet.

Was gibt es zu beachten? :unsure:  

Eine Sitemap erstellt einen Index über die gesamte Struktur eines Webauftritts. Dazu gehören die Links zu allen Artikeln, Kommentaren und nicht nur auf der Startseite, sondern auch in den Kategorien. Jetzt ist es wichtig zu wissen, daß Suchmaschinen doppelte Inhalte abstrafen. Findet Google einen Artikel auf der Startseite des Blogs und gleichzeitig in der Kategorienübersicht, so gibts Minuspunkte beim Ranking. Also muß man den Suchmaschinen sagen, was genau sie in ihren Suchindex aufnehmen können. Das geschieht mit Hilfe der robots.txt

Besonderheiten bei WordPress :mail:

WordPress liefert die robots.txt nur virtuell aus, das heißt, das Programm generiert diese nur auf Anfrage. Allerdings ist es möglich, diese via Plugins oder eben auch manuell zu ändern. Erstellt man eine solche Datei händisch, kann man die im Wurzelverzeichnis des eigenen WordPress-Blogs deponieren, man sollte nur darauf achten, daß der komplette Dateiname aus Kleinbuchstaben besteht. Der Inhalt meiner robots.txt folgt sogleich.

# global
User-agent:
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/cache/
Disallow: /wp-content/themes/
Disallow: /trackback/
Disallow: /comments/
Disallow: */trackback/
Disallow: */comments/
Disallow: wp-login.php
Disallow: wp-signup.php
Allow: /wp-content/uploads

# Google Image
User-agent: Googlebot-Image
Disallow:Allow: /*

# Google AdSense
User-agent: Mediapartners-Google*
Disallow:
Allow: /*

# Internet Archiver Wayback Machine
User-agent: ia_archiver
Disallow: /

# digg mirror
User-agent: duggmirror
Disallow: /
Sitemap: http://www.xn--mediensprnase-3ob.de/sitemap.xml

Info: Der Link zur Sitemap ist natürlich auf die eigene Domain anzupassen. Die XML-Sitemap liegt im Wurzelverzeichnis wie die robots.txt

Und wie generiere ich nun die Sitemap? :wacko:

Dazu gibts ein einfaches Plugin mit dem grandiosen Namen Google XML Sitemaps, welches man sich direkt aus dem Installationsmenü von WordPress heraus installieren kann. Wer das gerne manuell erledigt lädt sich Google XML Sitemaps auf seinen Rechner herunter, entpackt das Plugin und transferiert es via FTP in den Pluginordner des WordPress-Blogs. Anschließend muß das Plugin noch aktiviert werden. Im Einstellungsmenü des Dashboards befindet sich nun ein Eintrag mit XML-Sitemap für die Einstellungen des Plugins

Die meisten dieser Einstellungen kann man so belassen. Allerdings habe ich die Option Sitemap in virtueller robots einfach deaktiviert, da eine manuell erstellte Robots-Datei im Wurzelverzeichnis des Blogs liegt. Das gilt für jede manuell erstellte Robots-Datei.

Links

Google XML Sitemaps

Die eigene Webseite und die sozialen Medien

Jeder Webseitenbetreiber kennt das Problem: er möchte seine Seite attraktiver gestalten und bekannter machen. Mundpropaganda ist da immer noch das beste Mittel der Wahl. Die besten Mittel für solche Mundpropaganda ist die Verknüpfung der eigenen Seite mit sozialen Medien wie Facebook, Twitter und Co. Doch dabei gibt es auch einige Fallstricke zu beachten.

Um eine Webseite interaktiver zu gestalten, kann man darauf sogenannte Social Media Buttons für jeden erdenklichen Zweck einbauen. Bekannte Möglichkeiten sind der Like-Knopf für Facebook, Buttons für Twitter, Xing, Instagram, Mr. Wong, Google+ und andere – nur um einige Möglichkeiten zu nennen. Die meisten Surfer im Internet sind nebenher in einem (oder auch mehreren) der genannten sozialen Netzwerke zu Gange. Daher ist es besondders praktisch, eine toll gefundene Webseite über diese Knöpflein mit anderen Leuten um Netzwerk zu teilen.

Genau das macht einen nicht zu vernachlässigenden Werbeeffekt für die Webseite aus. So gelangt diese auch über andere Quellen, abseits von Google, zu anderen Nutzern, die diese auch toll finden können. Und für den Nutzer eines Netzwerkes ist es auch praktisch, er muß keine großartigen Links und URLs kopieren. Einfach im Netzwerk der Wahl einloggen und bei einem Surftripp die gefundenen Website-Schätzchen mit einem Klick teilen und anderen Leuten auf die Schnelle zeigen.

Die meisten dieser Social Media Buttons sind recht einfach einzubinden. Diese gibts als Plugin für die meisten Content Management Systeme (CMS) oder als Scriptschnipsel in Javascript für statische Webseiten. Dieser bindet den Knopf ein und beim Betätigen soll er den Link zur Seite an ein soziales Netzwerk der Wahl schicken um diese Seite den Freunden und der Welt präsentieren.

Als Administrator einer Webseite sollte man allerdings einige Dinge beachten. Zu diesen Buttons sollte man sich eine Datenschutzerklärung ins Impressum einbauen. Diese informiert den Nutzer, daß schließlich Daten (der Link der Webseite und persönliche Daten, die das soziale Netzwerk selbstsändig sammelt) ausgetauscht werden. Eine solches Impressum mit dieser Datenschutzerklärung gibt es auf der Webseite von eRecht24 (Links dazu gibts am Ende wie üblich).

Der Haken dazu liegt allerdings im Detail. Als Webmaster ist es wichtig zu wissen, daß die Social Media Buttons Daten an ihre Netzwerke senden, gefragt (auf Klick) aber auch ungefragt im Hintergrund.

Was genau wird da gesendet? Meist sind es ersteinmal allgemeine Daten wie solche zum Betriebssystem, Browser, Monitorauflösung, IP-Adressen und softwaretechnische Einstellungen und natürlich welche Seiten man aufruft, wie lang man dort verweilt und wohin man weiterzieht. Ist der Nutzer noch bei einem sozialen Netzwerk registriert und eingeloggt, so kann das mit den vorhin beschriebenen Daten das Surfverhalten ziemlich genau protokollieren. Weiterhin kann es sein, daß diese Daten im Ausland gespeichert werden können, wo der Datenschutz weniger hoch gestellt ist, als in Deutschland oder der EU.

Das ganze geschieht zumeist im Verborgenem. Diese Daten werden hauptsächlich zu werbezwecken aufgezeichnet und vielleicht auch dazu weiterveräußert. Wenn solche Social Media Buttons verwendet werden, ist dazu ein entsprechender Hinweis im Impressum von Nöten. Diese gibt es schon vorformuliert auf der Seite von eRecht24. Ein Webmaster sollte natürlich über diese Datensammelpraxis von diversen Webseiten informiert sein und natürlich dafür Sorge tragen, daß nur wenig über die Leser seiner Webseite bekannt wird.

Daher gibt es gewisse Lösungen um bedenkenlos solche Knöpflein auf seiner Webseite einzubauen, die meisten gibt es schon vorgefertigt und gratis zum Download, aber wer selbst gern bastelt, dem sei versichert, daß auch solche Zwei-Klick Lösungen recht einfach umzusetzen sind. Diese Lösungen sind zwar für den Nutzer etwas unbequemer, aber als Webmaster einer Seite ist man auf der sicheren Seite den im Telekomunikationsgesetz vorgeschriebenen Datenschutz einzuhalten. Nutzer müssen hier den gewünschten Social Media Button ersteinmal aktivieren, bevor sie den Link zur Seite auf Twitter und Co teilen können. Aber es schützt auch solche Leute, die sozialen Netzwerken doch etwas mißtrauisch gegenüber stehen.

Link

Unterm Strich

Seit ca. zwei Monaten ist es hierzulande offensichtlich: Google hat den Strich gestrichen. Und zwar jenen unter den Hyperlinks in seinen Trefferlisten. Dieser Unterstrich gehörte bislang zum Netz-Inventar, seit es das World-Wide-Web gibt und erleichterte die Orientierung. Nun hat er seinen Dienst quitiert – wir wollen wissen, weshalb.

„Die Redaktion“: Nach 18 Jahren verlassen Sie Google. Wie erfolgte die Trennung?
Unterstrich: In beiderseitigem Einvernehmen. Als ich 1998 bei Google begann, da war ich noch so etwas wie ein Referenzobjekt. im Netz, ein Leuchtturm im Datenmeer. Ich habe den Leuten gezeigt, wo es lang geht. Inzwischen fühle ich mich überhaupt nicht mehr wahrgenommen. Man orientiert sich jetzt am @ oder #. Ich mußte einfach einen Schlußstrich ziehen. Das sah Google wohl ähnlich.

Wie fühlen Sie sich damit?
Unterm Strich betrachtet: Alles hat seine Zeit. Meine Trefferlisten waren immer strichhaltig. Wer anderes behauptet, lügt.

Nun mal langsam: Haben Sie Internetnutzer nicht auch nach Strich und Faden veralbert, in dem Sie auf virenverseuchte Seiten geleitet haben?
Gegenfrage: Glauben Sie, es ist für einen Profi wie mich ein Vergnügen unter Schlagwörtern wie „Lustige Katzenvideos“ oder „Frauen mit Riesenbrüsten“ aufzutauchen? Selber schuld, wer danach sucht.

Wie dürfen wir uns Ihre weitere Zukunft vorstellen?
Es gibt da mehrere Optionen. Ich könnte umschulen zum Trennstrich, Schrägstrich – selbst ein Job als Strichpunkt ist nicht ausgeschlossen. Allerdings liebäugele ich mit einem analogavantgardistischen Kunst-Projekt im öffentlichen Raum: der Rolle als Strich in der Landschaft.

Wenn Ihnen da mal nicht die gertenschlanke Lena Meyer-Landrut einen Strich durch die Rechung macht… Letzte Frage: Worin sehen Sie Ihre Lebensleistung?
Ich habe mich selbst überlebt – wer kann das schon von sich behaupten?