Artikel-Schlagworte: „Google“

Facebook und der Datenskandal – Wie schütze ich mich effektiv vor Tracking?

Der Skandal um den Mißbrauch von Facebookprofilen geistert nunmehr schon seit mehreren Wochen durch die Medien. Was das heißt, beschreibe ich in diesem Artikel.

Böses Google - Big Brother is watching you

Böses Google – Big Brother is watching you

Googles Tracking

Es war schon ein Hype, der an der Schwelle des 20. Jahrhunderts mit einer neuen Suchmaschine aus Silikon Valley losgetreten wurde. Auch ein neues soziales Netzwerk, was um 2005 an den Start ging wurde hoch gelobt. Alles war neu… und besser… und schneller.

Die Suchmaschine, Google genannt, lieferte auf Stichworte hin bessere Treffer, war schneller und krempelte den Suchvorgang im Netz um. Es wurden zur Suche nicht nur Schlagworte verwendet, die der Seitenbetreiber angeben konnte. Es wurden sämtliche Verlinkungen auf die Seite relevant, aber auch wie gut andere Seiten besucht sind, die auf die eigene Seite verlinken.

Content – also der Inhalt der eigenen Seite – wurde immer wichtiger und wie oft spezielle Schlüsselwörter (die der geneigte User in die Suchzeile eingibt) im Inhalt vorkommen. Spezielle Wörter – sogenannte Adwords – kann man beim Suchmaschinenbetreiber gegen Bares erwerben.

Für Webmaster und Seitenbetreiber bietet Google auch umfangreiche Analysetools an, die Aufschluss über ds Nutzerverhalten auf der Webseite geben und was den User interesiert, das sogenannte Google Analytics.

Sucheingaben und das, was der Nutzer in der Suche angeht, interessiert Google. Das ganze wird angeblich anonymisiert gespeichert. Hat man bei Google Plus (G+) ein Profil mit Namen, Adresse, Vorlieben und anderen Daten gespeichert, werden Suchanfragen personalisiert, was die Daten für Google noch wertvoller macht.

Dann sind da noch die ganzen Android-Smartphones. Auf denen ist Google sehr präsent, ohne Google läuft da recht wenig. Neben GPS-Trackern (für Navi) befinden sich noch eine ganze Menge andere Sensoren im Handy. Zudem gibt man seinem Smartphone doch eine Menge vertraulicher Daten in den Speiche – Kontaktdaten, Nutzungsdaten, Beispielsweise Navigieren, aber auch diverse Apps nehmen sich einige Rechte heraus, die sie eigentlich nicht brauchen. So bekommt Google noch mehr Daten, auch wenn man nicht am heimischen PC sitzt.

Daumen nach unten für Facebook

Daumen nach unten für Facebook

Facebooks Datensammelei

Facebook spielt in einer ähnlichen Liga wie Google. Hier wird man explizit aufgefordert ein Profil anzulegen, um sich mit anderen Leuten, sogenannte Freunde, zu vernetzen. In Profil gibt man schon allerhand von sich preis, neben Name, Anschrift, Interessen und vieles mehr. Auch wenn man spezielle Webseiten „liked“ wie es im Facebookjargon heißt, weiß Facebook, was einem gefällt.

Vom surfen im Internet kennt jeder die kleinen Facebooksymbole – ein Daumen nach oben – mit denen man webseiten mit einem Klick in seinem Facebook-Profil verlinken kann. Auch ohne ein solches Profil fließen schon Daten über die besuchten Seiten, IP Adresse vom Rechner, aber auch Infos zu installierter Software (Betriebssystem, Browser etc.) zu Facebook ab. Ist man beim sozialen Netzwerk registriert, hat man also ein Profil dort, werden die Surfdaten mit dem Profi verknüpft – auch wenn man sich für den Moment bei Facebook ausgeloggt hat. Ähnlich wie Google sammelt Facebook die Daten – wenn sie durch ein Profil personalisiert sind werden diese um so wertvoller – und verwurstelt diese zu personalisierter Werbung.

Kurz zusammengefasst: Jeder Klick wird gespeichert und wenn das still und heimlich im Hintergrund passiert, nennt man das Tracking. Nutzt man die Services von Facebook, Google und co, so spielt man denen zusätzlich in die Hände. Man kommt aber weder als normaler Nutzer oder als Webseitenbetreiber nicht drum herum, die Services aus Mangel an sinnvollen Alternativen in irgendeiner Form zu nutzen.Man kann ungewollten Datenabfluss aber eindämmen, es gibt dafür mehr oder minder effektive Tools.

Gegenmaßnahmen zur Datensammlung

Gegenmaßnahmen zur Datensammlung

Gegenmaßnahmen

Abwehrmaßnahmen für den Einsteiger

Fangen wir beim Browser auf dem Computer an.

Und zwar hat die Mozilla-Stiftung Ende März ein neues Plugin für den Firefox vorgestellt, was einen Tab mit geöffnetem Facebook in einem Container isolieren soll. Hat man nebenher weitere Internetseiten offen, beispielsweise mit dem angesprochenem Daumensymbol, so werden keine weiteren Daten (wie besuchte Webseite, Software etc.) an Facebook übermittelt. dieses Plugin gibts für jede Firefoxvariante. Nutzt man im Browser noch Plugins uBlock und NoScipt, fließen Daten auch nicht zu anderen Werbenetzwerken ab.

Um das besagte Plugin zu installieren einfach im AddOn Manager nach dem Facebook Container von Mozilla suchen. Mittlerweile gibt es einen Fork von diesem AddOn mit dem sprechendem Namen Google Container, der aber von einem anderen Entwickler betreut wird und nicht von Mozilla. Dieses Addon arbeitet im Prinzip genau so wie das Offizielle Anti-Facebook Plugin von Mozilla.

Weiterhin gibt es noch Werbeblocker wie AdBlock oder uBlock für den Firefox zu installieren. Beide Addons sind für sämtliche Firefoxvarianten erhältlich und das kostenlos. Diese Addons blockieren recht zuverlässig Werbung beim Surfen heraus.

Zudem bieten die hier vorgestellten Softwarelösungen auch einen gewissen Grundschutz vor Schädlingen wie Trojanern und Co, da viele dieser Schadprogramme auch über Werbenetzwerke verteilt werden. Allerdings greifen diese Softwarelösungen nur auf dem Rechner auf dem sie gerade eingesetzt werden. Smart-TV oder Daddelbox werden außen vorgelassen und können unerlaubt Werbung bekommen.

[Update] Die hier vorgestellten AddOns gibt es für Firefox und für Chrome.

Die Profiprivatisierung

Ich nutze für mich und mein Netzwerk allerdings die Profivariante. Auf einem Orange Pi – das ist ein kleiner Einplattinencomputer wie der Raspberry Pi – läuft eine PiHole-Installation.

„Was ist denn nun PiHole schon wieder?“

Das Internet arbeitet mit sogenannten Domains, wie www.medienspürnase.de. Gibt man diese Domain in seinem Browser ein, oder klickt man auf einen Link dazu, so sucht der Browser im Internet auf einem DNS-Server (DNS=Domain Name System) nach einer passenden IP Adresse dazu, zu der er dann die Verbindung aufbaut und sich die entsprechenden Daten abholt.

Allerdings besteht eine Internetseite aus vielen einzelnen Teilen – Texte, Bilder, Videos, Formulare, Facebooks Like-Buttons, Werbung und anderen Sachen. Oftmals sind Dinge wie Videos, Like Buttons und Werbung extern eingebettet. Das heißt, daß ein Video zum Beispiel bei Youtube liegt und mittels speziellem Link ein Player in die Webseite eingebettet wird, der das Video direkt auf der Webseite abspielt. Schon ein Besuch auf einer Seite, die ein solches Video eingebettet hat oder auf der ein Like-Button vorhanden ist, sendet an betreffende Betreiber (Facebook, Youtube…) ungewollt Informationen.

Werbung ist im Prinzip genauso eingebettet – das sind Links, die automatisch Inhalte aus Fremdquellen nachladen. Für jede besuchte Domain – die Medienspürnase, Youtube oder Werbedomains – macht der Browser immer vorher eine DNS Abfrage, nach der IP-Adresse.

Eine IP-Adresse ist im Prinzip mit einer Telefonnumer vergleichbar, die einem bestimmten Festnetzanschluß oder einem Handy zugeordnet ist. So besitzt jeder Computer, jeder Server (und damit jeder Webdienst) und jedes netzwerkfähige Gerät eine eigene IP-Adresse, die nur ihm gehört. Das ist wichtig, damit die einzelnen Geräte untereinander kommunizieren können und Daten austauschen können.

Und genau da greift PiHole ein. PiHole ist im Prinzip nichts anderes als ein DNS-Server, nur mit der Besonderheit, daß der zum Ersten im eigenem Netzwerk steht und zum zweiten mit Blacklisting und Whitelisting funktioniert. PiHole ist mit dem heimischen Internetrouter verbunden. Das darf via Kabel (Ethernet, LAN) oder kabellos (W-LAN) passieren. Jede Anfrage von einem im Netzwerk hängendem Gerät läuft nun über unser PiHole. PiHole ermittelt jetzt nun die IP-Adresse beispielsweise von www.Medienspürnase.de, blättert aber in den angegebenen Listen nach, ob die Domain durchgelassen werden darf oder auch nicht. Das geschieht mit jeder gleichgearteten Anfrage, genauso bei Facebook, Google oder Werbung. Unerwünschtes wird blockiert und erwünschte Inhalte dürfen passieren.

PiHole ist zudem recht flexibel zu konfigurieren, so daß der Schutz von Paranoia (alles wird blockiert und muß manuell freigeschaltet werden) bis leicht (nur einige Sachen werden blockiert) eingestellt werden kann. Das will heißen, der geneigte Nutzer kann blockieren was er will, oder über die Whitelists alles, was er braucht wieder freischalten.

Ich schrieb ja, daß PiHole die Blockierlisten namhafter Adblock-Plugins von Browsern nutzt. PiHole wendet diese Blockierlisten auf alle Geräte, die ihren Traffic ins Internet haben, an. Zudem ist es eine zentrakisierte Lösung, die leicht zu warten ist und auch keine hohen Hardwareanforderungen stellt. Es reicht schon wenn die auf einem Einplatinenrechner mit 10 Watt Stromverbrauch läuft.

[Update] In Deutschland und der EU sind die Datenschutzanforderungen sehr hoch angesiedelt, leider sind Kontrollen durch betreffende Behörden rar. Dafür allerdings gibt es eine reihe Anwälte, die sich selbst mit Abmahnungen bereichern, werden irgendwelche (vermeintliche) Verstöße aufgedeckt oder angezeigt. Die meisten größeren Webseiten und Portale in Deutschland wissen selbst um die Gefahr durch dubiose Anwälte oder den Staat abgestraft zu werden.

Deshalb setzen immer mehr Webseitenbetreiber auf Datenschutzkonforme Lösungen, beispielsweise bei den Like-Buttons von Facebook und co. Ich schrieb bereits vor geraumer Zeit darüber, daß es sogenannte Zwei-Klick Lösungen für alle erdenklichen Webseiten gibt. Diese Buttons haben den Vorteil, daß man die Like-Funktion mit dem ersten Klick aktiviert und beim zweiten Klick den Link sendet.

Think Social – Medienspürnase goes to Facebook, Twitter and Google+

Mittlerweile bin ich schon seit geraumer Zeit noch einen Schritt weiter gegangen. Der Heise Verlag bietet für WordPress und andere Contant Managementsysteme ein Plugin namens Shariff an. Das platziert die Like-Buttons als simplen HTML-Link, der mit stinknormalem CSS gestaltet wurde unter die Artikel. Reines HTML und CSS sendet von sich aus nichts, nur nach einem Klick auf den Button öffnet sich ein Anmeldefenster für das besuchte soziale Netzwerk zum teilen.

Die Medienspürnase wandelt sich

Fazit

Der Aufwand um die eigenen Daten besser zu Schützen bleibt auf einem erfreulich niedrigem Niveau, gerade bei den Addons für die gängigsten Browser. Hier punkte Firefox und Chrome gegenüber Internetexplorer und Edge. Die Addons für die Browser aktualisieren sich in gewissen Abständen automatisch und ohne den Nutzer zu belästigen.

Bei PiHole dauert das Aufsetzen schon ein wenig länger. Man benötigt eine gewisse Hardware und man ist da schon mit 40 bis 50 Euro plus Stromkosten dabei. Die Einarbeitung und Konfiguration dauert hier natürlich, wenn es aber läuft bietet es einen zuverlässigen Schutz. Wenn es optimal konfiguriert ist, zieht es sogar Updates von selbest. Der Aufwand wird der Laufzeit geringer. Anfangs ist das System auf sein Surfverhalten zu trainieren, denn einige Seiten, die man gern besuchen würde, landen vielleicht schon in der Blackliste, von der man sie in die eigene Whiteliste herausholen muß.

Beide Maßnahmen zu kombinieren ist recht Sinnvoll. Nutzt man PiHole, so können die Ad-Blocker und Container Plugins noch störende Platzhalter beim Browser entfernen. Vielleicht arbeiten dann bei euch die Sachen so miteinander, daß diese sich ergänzen?

Links

  1. Pi Hol – offizielle Seite
  2. Facebook Container für Firefox
  3. Google Container für Firefox

Netzgeflüster – Google straft Webseiten ohne Mobile-Optimierung ab

Google

Auf Webmaster kommt ein „Mobilegeddon“ zu, wenn man der Gerüchteküche und Berichterstattung glauben darf. Google will auf Mobile getrimmte Webseiten bevorzugen. Daher besteht die Befürchtung vieler Webmaster, daß ihre Webseiten in Zukunft abgestraft werden, wenn sie nicht für mobile Endgeräte optimiert wurden.

Vor Acht Wochen hat Google angekündigt, daß Webseiten ein schlechteres Ranking im Google Index bekommen, die sich nicht auf Tablets und Smartphones anzeigen lassen. „Da immer mehr Menschen Mobilgeräte für den Zugriff auf das Internet verwenden, müssen sich unsere Algorithmen diesen Nutzungsgewohnheiten anpassen“, heißt es in einem offiziellen Blogeintrag des Webmaster-Teams von Google.

Ab dem morgigen  21. April, wird die „Mobil-Freundlichkeit“ einer Webseite ein Kriterium für das Ranking bei Google werden. „Dieser Wechsel wird die Mobil-Suche in allen Sprachen weltweit betreffen und eine signifikante Auswirkung auf unsere Suchergebnisse haben“ heißt es weiter auf dem Blog bei Google.

Kurzum wertet Google zukünftig auch die Schriftgrößen, die für mobile Endgeräte nicht zu klein sein dürfen, oder Navigationselemente, die sich gut mit dem Finger erreichen lassen. Inhalte, die auf mobilen Endgeräten nicht angezeigt werrden können, beispielsweise Adobe Flash, führen auch zu einer Abwertung.

Kann ich mein Angebot auf Mobile-Tauglichkeit prüfen lassen?

Ja das kann man in der Tat. Google bietet einen Test an (Link am Ende des Artikels), der das Angebot auf Mobil-Tauglichkeit überprüft. Hier zeigt Google Fehler und Hinweise an, um das Onlineangebot dementsprechend überarbeiten zu können.

Wirkt sich der Mobil-Check auch auf die Suche vom Desktop-Computer aus?

Bisher ist allerdings noch unklar, ob sich das neue Ranking auch auf die Suche von einem Schreibtischcomputer auswirkt. Google-Manager Gary Illyes sagte auf dem IT-Event SMX West, seines Wissens werde der Mobil-Check keine Auswirkungen auf die Desktop-Suche haben. Allerdings ist es wahrscheinlich, daß die bessere Nutzererfahrung für mobile Endgeräte indirekt zu besseren Ergebnissen führen kann.

Der neueste Wechsel des Such-Algorithmus soll auch Inhakte von Android-Apps besser durchsuchbar machen. Wenn solche Mobil-Programme einen Index haben, sollen diese auch eine Chance bekommen, in den Such-Ergebnissen bei Google aufzutauchen. Der Konzern will damit der Herausforderung begegnen, dass immer mehr Informationen nicht unbedingt im offenen Web zu finden sind, sondern in den Daten-Containern einer App

Links

  1. Google Webmasterblog – Ankündig für neuen Suchalgorithmus
  2. Test auf Optimierung für Mobilgeräte

Sitemaps – Ein bisschen SEO muß sein

Die letzten Tage habe ich vor allem unter der Haube von WordPress und anderen Seiten von mir herumgefrickelt. Ein bisschen SEO – Search Engine  Sptimization (neudeutsch für Suchmaschinenoptimierung) – mußte sein. Das hat nur einen Grund, man möchte sich bei den Suchmaschinen – gerade bei Google – beliebt machen und die Seite übersichtlicher gestalten. Dazu gehören eben auch XML-Sitemaps. 🙂

Was sind Sitemaps? :scratch:

Sitemaps sind im Prinzip nur  Übersichtskarten für die Struktur der Webseite. Es ist kein Inhaltsverzeichnis für eine Webseite, eher eine hierarchische Struktur aller Übersichtsseiten einer Web-Präsens. Firmen und Unternehmen bauen soetwas ganz gern ein, um für Leser die Übersicht zu erhöhen.

XML-Sitemaps selbst bekommt der Leser ersteinmal nicht zu sehen, diese sind nur für Suchmaschinen sichtbar. Wie eine solche Sitemap aussieht, kann man sich bei der Medienspürnase anschauen. Solche auf XML basierenden Sitemaps sind für die Suchmaschinenoptimierung recht wichtig, gerade für Seiten, die mit Adobe Flash generiert wurden oder JavaScript-Menüs aufweisen, das heißt für Seiten mit Barrieren.

Außerdem folgen die meisten Suchmaschinen nur einer bestimmten Anzahl von Links. Bei Umfangreichen Seiten, dienen XML-Sitemaps hauptsächlich dazu, daß Suchmaschinen den gesamten Webauftritt im Blick haben.

Ist eine Webseite wirklich nutzerfreundlich ausgelegt – das heißt, daß die Navigation klar und übersichtlich strukturiert ist – entfällt eine Sitemap. Allerdings kann sich dadurch der Verwaltungsaufwand für den Webseitenbetreiber erhöhen, wenn er denn auf Sitemaps verzichtet.

Was gibt es zu beachten? :unsure:  

Eine Sitemap erstellt einen Index über die gesamte Struktur eines Webauftritts. Dazu gehören die Links zu allen Artikeln, Kommentaren und nicht nur auf der Startseite, sondern auch in den Kategorien. Jetzt ist es wichtig zu wissen, daß Suchmaschinen doppelte Inhalte abstrafen. Findet Google einen Artikel auf der Startseite des Blogs und gleichzeitig in der Kategorienübersicht, so gibts Minuspunkte beim Ranking. Also muß man den Suchmaschinen sagen, was genau sie in ihren Suchindex aufnehmen können. Das geschieht mit Hilfe der robots.txt

Besonderheiten bei WordPress :mail:

WordPress liefert die robots.txt nur virtuell aus, das heißt, das Programm generiert diese nur auf Anfrage. Allerdings ist es möglich, diese via Plugins oder eben auch manuell zu ändern. Erstellt man eine solche Datei händisch, kann man die im Wurzelverzeichnis des eigenen WordPress-Blogs deponieren, man sollte nur darauf achten, daß der komplette Dateiname aus Kleinbuchstaben besteht. Der Inhalt meiner robots.txt folgt sogleich.

# global
User-agent:
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/cache/
Disallow: /wp-content/themes/
Disallow: /trackback/
Disallow: /comments/
Disallow: */trackback/
Disallow: */comments/
Disallow: wp-login.php
Disallow: wp-signup.php
Allow: /wp-content/uploads

# Google Image
User-agent: Googlebot-Image
Disallow:Allow: /*

# Google AdSense
User-agent: Mediapartners-Google*
Disallow:
Allow: /*

# Internet Archiver Wayback Machine
User-agent: ia_archiver
Disallow: /

# digg mirror
User-agent: duggmirror
Disallow: /
Sitemap: http://www.xn--mediensprnase-3ob.de/sitemap.xml

Info: Der Link zur Sitemap ist natürlich auf die eigene Domain anzupassen. Die XML-Sitemap liegt im Wurzelverzeichnis wie die robots.txt

Und wie generiere ich nun die Sitemap? :wacko:

Dazu gibts ein einfaches Plugin mit dem grandiosen Namen Google XML Sitemaps, welches man sich direkt aus dem Installationsmenü von WordPress heraus installieren kann. Wer das gerne manuell erledigt lädt sich Google XML Sitemaps auf seinen Rechner herunter, entpackt das Plugin und transferiert es via FTP in den Pluginordner des WordPress-Blogs. Anschließend muß das Plugin noch aktiviert werden. Im Einstellungsmenü des Dashboards befindet sich nun ein Eintrag mit XML-Sitemap für die Einstellungen des Plugins

Die meisten dieser Einstellungen kann man so belassen. Allerdings habe ich die Option Sitemap in virtueller robots einfach deaktiviert, da eine manuell erstellte Robots-Datei im Wurzelverzeichnis des Blogs liegt. Das gilt für jede manuell erstellte Robots-Datei.

Links

Google XML Sitemaps

Die eigene Webseite und die sozialen Medien

Jeder Webseitenbetreiber kennt das Problem: er möchte seine Seite attraktiver gestalten und bekannter machen. Mundpropaganda ist da immer noch das beste Mittel der Wahl. Die besten Mittel für solche Mundpropaganda ist die Verknüpfung der eigenen Seite mit sozialen Medien wie Facebook, Twitter und Co. Doch dabei gibt es auch einige Fallstricke zu beachten.

Um eine Webseite interaktiver zu gestalten, kann man darauf sogenannte Social Media Buttons für jeden erdenklichen Zweck einbauen. Bekannte Möglichkeiten sind der Like-Knopf für Facebook, Buttons für Twitter, Xing, Instagram, Mr. Wong, Google+ und andere – nur um einige Möglichkeiten zu nennen. Die meisten Surfer im Internet sind nebenher in einem (oder auch mehreren) der genannten sozialen Netzwerke zu Gange. Daher ist es besondders praktisch, eine toll gefundene Webseite über diese Knöpflein mit anderen Leuten um Netzwerk zu teilen.

Genau das macht einen nicht zu vernachlässigenden Werbeeffekt für die Webseite aus. So gelangt diese auch über andere Quellen, abseits von Google, zu anderen Nutzern, die diese auch toll finden können. Und für den Nutzer eines Netzwerkes ist es auch praktisch, er muß keine großartigen Links und URLs kopieren. Einfach im Netzwerk der Wahl einloggen und bei einem Surftripp die gefundenen Website-Schätzchen mit einem Klick teilen und anderen Leuten auf die Schnelle zeigen.

Die meisten dieser Social Media Buttons sind recht einfach einzubinden. Diese gibts als Plugin für die meisten Content Management Systeme (CMS) oder als Scriptschnipsel in Javascript für statische Webseiten. Dieser bindet den Knopf ein und beim Betätigen soll er den Link zur Seite an ein soziales Netzwerk der Wahl schicken um diese Seite den Freunden und der Welt präsentieren.

Als Administrator einer Webseite sollte man allerdings einige Dinge beachten. Zu diesen Buttons sollte man sich eine Datenschutzerklärung ins Impressum einbauen. Diese informiert den Nutzer, daß schließlich Daten (der Link der Webseite und persönliche Daten, die das soziale Netzwerk selbstsändig sammelt) ausgetauscht werden. Eine solches Impressum mit dieser Datenschutzerklärung gibt es auf der Webseite von eRecht24 (Links dazu gibts am Ende wie üblich).

Der Haken dazu liegt allerdings im Detail. Als Webmaster ist es wichtig zu wissen, daß die Social Media Buttons Daten an ihre Netzwerke senden, gefragt (auf Klick) aber auch ungefragt im Hintergrund.

Was genau wird da gesendet? Meist sind es ersteinmal allgemeine Daten wie solche zum Betriebssystem, Browser, Monitorauflösung, IP-Adressen und softwaretechnische Einstellungen und natürlich welche Seiten man aufruft, wie lang man dort verweilt und wohin man weiterzieht. Ist der Nutzer noch bei einem sozialen Netzwerk registriert und eingeloggt, so kann das mit den vorhin beschriebenen Daten das Surfverhalten ziemlich genau protokollieren. Weiterhin kann es sein, daß diese Daten im Ausland gespeichert werden können, wo der Datenschutz weniger hoch gestellt ist, als in Deutschland oder der EU.

Das ganze geschieht zumeist im Verborgenem. Diese Daten werden hauptsächlich zu werbezwecken aufgezeichnet und vielleicht auch dazu weiterveräußert. Wenn solche Social Media Buttons verwendet werden, ist dazu ein entsprechender Hinweis im Impressum von Nöten. Diese gibt es schon vorformuliert auf der Seite von eRecht24. Ein Webmaster sollte natürlich über diese Datensammelpraxis von diversen Webseiten informiert sein und natürlich dafür Sorge tragen, daß nur wenig über die Leser seiner Webseite bekannt wird.

Daher gibt es gewisse Lösungen um bedenkenlos solche Knöpflein auf seiner Webseite einzubauen, die meisten gibt es schon vorgefertigt und gratis zum Download, aber wer selbst gern bastelt, dem sei versichert, daß auch solche Zwei-Klick Lösungen recht einfach umzusetzen sind. Diese Lösungen sind zwar für den Nutzer etwas unbequemer, aber als Webmaster einer Seite ist man auf der sicheren Seite den im Telekomunikationsgesetz vorgeschriebenen Datenschutz einzuhalten. Nutzer müssen hier den gewünschten Social Media Button ersteinmal aktivieren, bevor sie den Link zur Seite auf Twitter und Co teilen können. Aber es schützt auch solche Leute, die sozialen Netzwerken doch etwas mißtrauisch gegenüber stehen.

Link

Unterm Strich

Seit ca. zwei Monaten ist es hierzulande offensichtlich: Google hat den Strich gestrichen. Und zwar jenen unter den Hyperlinks in seinen Trefferlisten. Dieser Unterstrich gehörte bislang zum Netz-Inventar, seit es das World-Wide-Web gibt und erleichterte die Orientierung. Nun hat er seinen Dienst quitiert – wir wollen wissen, weshalb.

„Die Redaktion“: Nach 18 Jahren verlassen Sie Google. Wie erfolgte die Trennung?
Unterstrich: In beiderseitigem Einvernehmen. Als ich 1998 bei Google begann, da war ich noch so etwas wie ein Referenzobjekt. im Netz, ein Leuchtturm im Datenmeer. Ich habe den Leuten gezeigt, wo es lang geht. Inzwischen fühle ich mich überhaupt nicht mehr wahrgenommen. Man orientiert sich jetzt am @ oder #. Ich mußte einfach einen Schlußstrich ziehen. Das sah Google wohl ähnlich.

Wie fühlen Sie sich damit?
Unterm Strich betrachtet: Alles hat seine Zeit. Meine Trefferlisten waren immer strichhaltig. Wer anderes behauptet, lügt.

Nun mal langsam: Haben Sie Internetnutzer nicht auch nach Strich und Faden veralbert, in dem Sie auf virenverseuchte Seiten geleitet haben?
Gegenfrage: Glauben Sie, es ist für einen Profi wie mich ein Vergnügen unter Schlagwörtern wie „Lustige Katzenvideos“ oder „Frauen mit Riesenbrüsten“ aufzutauchen? Selber schuld, wer danach sucht.

Wie dürfen wir uns Ihre weitere Zukunft vorstellen?
Es gibt da mehrere Optionen. Ich könnte umschulen zum Trennstrich, Schrägstrich – selbst ein Job als Strichpunkt ist nicht ausgeschlossen. Allerdings liebäugele ich mit einem analogavantgardistischen Kunst-Projekt im öffentlichen Raum: der Rolle als Strich in der Landschaft.

Wenn Ihnen da mal nicht die gertenschlanke Lena Meyer-Landrut einen Strich durch die Rechung macht… Letzte Frage: Worin sehen Sie Ihre Lebensleistung?
Ich habe mich selbst überlebt – wer kann das schon von sich behaupten?

Kategorien
Zurück zum Seitenanfang