Ein kleiner Reiseführer durch die Netzwerkerei

Vor einigen Tagen wurde ich von einem Besuch gefragt „Hast du WLAN fürs Handy?“ Natürlich hatte ich das – schnell war ein Gästezugang ins heimische Netzwerk eingerichtet, doch ein fehlender Haken verhinderte den Zugriff ins Internet. Das Handy konnte so nicht zu Facebook und co. telefonieren, was für den Moment, bis das behoben war, für irritierte Blicke gesorgt hat.

Mit der Frage „Hast du WLAN?“ will der Besuch meist das hiesige Festnetz-Internet nutzen. Man will so sein eher begrenztes Datenvolumen für das Smartphone schonen. Oder man steckt in einem Funkloch wo 4G/5G nicht geht und man nur ein bescheidenes E (für Edge im Handydisplay stehen hat). Diskussionen mit dem Hintergrund einfache Techniken wie „WLAN“ der Verwandtschaft nahe zu bringen, gerade mit der älteren Generation, bringen gar erschreckendes und gefährliches Halbwissen zu Tage. Das geht sogar soweit, daß man sich Erklärungsversuchen schlichtweg verweigert.

Dieser Artikel will etwas Licht ins Dunkel bringen und das Wirrwar aus Begrifflichkeiten und Meinungen entfitzen. Seht diesen Beitrag als kleinen Hitchikers Guide an, der euch in die unendlichen Tiefen des Cyberspace bringt.

Das Internet…

Ich möchte am Anfang die Frage nach der Definition des Internets in den Raum stellen. Und diese läßt sich im Prinzip mit einem Satz beantworten, der das gesamte Internet beschreibt. Jetzt überlegen sich einige geneigte Leser was das soll und versuchen das Internet zu damit zu erklären, was man dort alles machen kann. Aber ein Satz reicht nicht für die Aufzählung dessen, was man dort machen kann. Keine Angst, die Auflösung folgt auf den Fuß.

„Das Internet ist ein weltweit verbreitetes Netzwerk aus Computern, die untereinander kommunizieren und verschiedene Dienste anbieten.“

Diese Definition ist zwar stark vereinfacht, trifft aber im Kern zu. Netzwerk und Kommunikation sind die Zauberworte, wobei mit Kommunikation nicht E-Mail, Whatsapp oder Twitter gemeint ist. Mit Kommunikation ist grundlegend der Datenaustausch zwischen Computern gemeint, Daten in jeglicher Form werden über Fernübertragung ausgetauscht, als Pakete aus Nullen und Einsen.

… auf Smartphones und Computern

An sich kommunizieren Smartphones über das überall zugängliche Mobilfunknetz mehr oder weniger Schnell mit dem Internet. Auch die Telefonie mit dem Handy läuft darüber. Hier geistern massig Buzzwords wie LTE, UMTS und Co durch die Welt der Werbung. Diese Schlagwörter beschreiben im weitesten Sinne des Wortes nur die Technik (Funkfrequenzen) und die Geschwindigkeit, die für den Zugang ins Internet nötig und verfügbar sind.

Bei der Computerei daheim währen vergleichbare Techniken DSL (Festnetz), Coaxkabel (TV Kabelanschluss) und Satelitt (DVB-S). Mit entsprechender Technologie kommt man auch über das Mobilfunknetz daheim mit dem eigenen Computer ins Internet, wobei dieser Standard über die im vorherigen Abschnitt erläuterten Zugangswege nutzt.

Smartphones an sich sind schon ohne Zusatzhwardware fürs Surfen im Internet gerüstet. Computer brauchen zumeist ein Modem um über einen der weiter oben genannten Zugangswege ins Internet zu kommen. Dieses Modem setzt empfangene und gesendete Daten auf einer tachnischen Ebene um, damit die für den Computer oder eine Gegenstelle verarbeitbar werden (Modem = Modulator Demodulator).

Älteren (und erfahreneren) Nutzern wird sicher dann ein Bild eines 33k oder 56k Modems (und zwar mit den piepsenden und surrenden Geräuschen dazu bei der Einwahl) aus den 90er Jahren durch das Hirn geistern, die damals die Verbindung vom Computer zum Internet hergestellt haben. Markand an dieser Technik damals war, daß man sich über das Telefonnetz auf die Server eines Providers eingewählt hat und dabei die Telefonleitung für Anrufer belegt war.

Smartphones haben Modems quasi schon integriert, für den heimischen (und meist moderneren) PC sind diese Modems zumeist in handelsüblichen Routern integriert. Bei einigen Routermodellen müssen externe Modems vorgeschaltet werden.

Die Netzwerkerei

Im vorhergendem Abschnitt ist ein Begriff schon mehrfach genannt worden. Und zwar war das der Router. Viele dieser Geräte gibt es im Handel bereits mit integriertem Modem. Aber im Prinzip hat der Router nur eine Funktion. Er ist die Zentrale Schnittstelle in jedem lokalen Netzwerk. Er verbindet über diverse Schnittstellen Computer, Drucker, den Flachfernseher, aber auch so manchen Kühlschrank, Amazons Alexa und viele Geräte mehr mit einander. Im Prinzip ermöglicht ein Router den Datenaustausch zwischen all diesen Geräten, die mit ihm im lokalen Netzwerk (LAN) verbunden sind. Über ein integriertes oder externes Modem bekommt der Router zudem Zugang ins Internet, und verteilt Daten daraus an angeschlossene Systeme.

Einige Geräte sind via Kabel (Ethernet, Netzwerkkabel) mit dem Router verbunden, andere wie Mobilgeräte via WLAN. Wie eingangs schon erwähnt, steckt der Teufel im Detail. Ist ein Handy via WLAN oder ein anderes Gerät über Kabel mit einem Router verbunden, muss es nicht zwangsläufig Zugriff ins Internet besitzen. Es ist somit zwar ein Teil eines Netzwerkes und kann in erster Linie erst einmal nur mit anderen Geräten aus dem Netzwerk kommunizieren. Ob ein Gerät Zugriff ins Internet bekommt, entscheidet letztlich der Router und die Freigaben die man dort hinterlegt hat.

WLAN, Powerline, Ethernet beschreiben grundsätzlich nur den Übertragungsweg im Netzwerk.

WLAN ist nicht gleich Internet. Es ist ein Funkstandard, mit dem sich Geräte, wie Handys, Computer und co. mit einander verbinden und über einen Router zu einem Netzwerk zusammengeschaltet werden können. WLAN ermöglicht es in erster Linie, daß Geräte prinzipell miteinander kommunizieren. Im Router ist zumeist hinterlegt, welches Gerät ins Internet funken darf und welches nicht.

Die meisten modernen Geräte funken im 2,4 GHz Band und im 5 GHz Band, wobei das letztere zwar schneller ist, aber durch die höhere Frequenz aber auch durch angrenzende Hindernisse (Mauern) mehr gedämpft wird. Das 2,4 GHz Band ist durch die schiere Anzahl von Geräten in der näheren Umgebung schon kräftig belastet.

Jedes dieser Frequenzbänder hält eine Anzahl von Kanälen Frei, jedes Gerät, was sich ins Netz einloggt (oder sich uneingeloggt durch den WLAN Bereich bewegt) belegt einen Kanal. Sind Geräte inaktiv oder brauchen momentan mal keine Verbindung, so funken andere aktive Geräte auf gerade frei gewordenen Kanälen. Das verursacht Instabilitäten im WLAN Netz.

Prinzipiell kann man beim WLAN folgendes sagen: Je mehr Geräte im Netz und je mehr WLAN-Hotspots in der Nähe sind, desto instabiler die Verbindung. Physisch kommen dann auch noch diverse Hindernisse dazu wie zum Beispiel Mauerwerk, Spiegel und dergleichen, die das Signal soweit dämpfen, daß am Endpunkt nicht mehr soviel ankommt, wie eigentlich sollte.

Lan/Ethernet – Hier ist nicht viel dazu zu schreiben. Das ist die stabilste Verbindung für zwei Geräte in einem Netzwerk. Die Verbindung zwischen Computer und Router wird über ein sogenanntes Ethernetkabel (oder auch Netzwerkabel) aufgebaut. Diese Verbindung eignet sich vornehmlich für Geräte, die sowieso immer am selben Platz stehen oder die nur selten bewegt werden (PC, Kühlschrank, vielleicht das TV Gerät).

Powerline – hier wird die Stromleitung im Haus zum Datenhighway gemacht. Auf den normalen Stromfluss mit 230 Volt und 50 Herz wird der Datenstrom aufmoduliert und am anderen Ende wieder abgenommen. Zumeist ist dieser Übertragungsweg gegenüber jedem Werbeversprechen eher instabil. Und das hängt von den verschiedenen Belastungen des häuslichen Stromnetzes, verwendeten Netzteilen, sowie Verzweigungen im Hausnetz ab, wie Stabil oder Instabil die Datenübertragung ist.

Die meisten handelsüblichen Smartphones können auch die Aufgabe eines WLAN-Routers übernehmen. Als mobiler Hotspot übernimmt es die Verwaltung weiterer Geräte im Netzwerk und erlaubt auch den Zugriff aufs eigene Datenvolumen. Hierbei bauen auch verschiedene Smartphones und jedes WLAN-fähige Gerät ein Netzwerk auf. Das Hand, was den Part des Routers oder Hotspots einnimmt regelt den Datenverkehr und erlaubt bzw verbietet den Zugriff aufs mobile Datennetz.

Und die Cloud?

Ich denke das ist recht schnell erklärt. Die Cloud ist im Prinzip ein Verbund aus Serveern (Großrechnern) die für die Masse der Internetnutzer verschiedene Dienste anbietet. Das währen genau die Dienste, die man aufzählen würde, wenn man das Internet beschreiben würde – E-Mail, Chat, Dtenspeicherung und vieles mehr.

Fazit

Man wirft oftmals leichtfertig mit Begriffen und Buzzwörtern um sich, ohne sich einmal Gedanken zu machen, wasdenn genau dahinter steckt. Manch einer neigt zudem, das eine mit dem anderen zu vermischen – Aus WLAN wird dann schnell mal das Internet und das Internet wird auf Whatsapp, Amazon und Facebook reduziert.

Wie man bei WordPress die IP Adressen aus den Kommentaren verbannt

Blaues WordPress Logo
Blaues WordPress Logo Zekelhuter, WordPress logo 8, CC BY-SA 4.0

Die neue DSGVO ist seit nunmehr einer Woche gültig. Das heißt, daß alle Webseitenbetreiber, die in irgend einer weise Daten speichern und Verarbeiten, sich an die Bestimmungen der neuen Rechtslage halten müssen. Statische Webseiten, die aus reinem HTML und CSS ohne weitere Scripte zum Tracken angereichert wurden sind fein raus. Bei Content-Managementsystemen wie WordPress, Foren und anderen Systemen sieht es anders aus. Meist sind da Kommentarfunktionen implementiert, die per Default auch unnötige Daten sammeln. In dem Fall soll es um die Kommentarfunktion von WordPress gehen, die neben einigen Zeilen, die der Verfasser hinterlässt, auch noch die IP Adresse dessen anzeigt und speichert. Und das in der Grundeinstellung.

An IP-Adressen in den Kommentaren denkt man meist nur in den seltensten Fällen. Mir ist auch erst die Tage mit der neuen Datenschutzverordnung aufgefallen, daß WordPress per Default IP-Adressen der einzelnen Kommentatoren abspeichert. Die müssen natürlich raus aus der Datenbank, denn für weitere Verwendung sind die Adressen natürlich überflüssig.

Als zweiten Schritt muß man WordPress dazu bringen, keine IP Adressen mehr zu speichern. Seit Version 4.9.6 bringt zwar WordPress Funktionen dafür mit, die aber nicht wirklich einfach zu implementieren sind. Aber der Reihe nach.

Wie man WordPress dazu bringt, neue IP’s nicht mehr zu speichern

Das Löschen der Adressen kann man auf zwei Arten angehen.

Remove IP
Remove IP

Zum einen geht das ohne viel Aufwand via Plugin Remove IP. Allerdings ist das Plugin das letzte mal vor über 2 Jahren aktualisiert worden und wer weiß ob diese Version in Zukunft noch neuere WordPressinstallationen unterstützen wird. Jedes Plugin, was man installiert ist potenziell angreifbar. Außerdem möchte man auch seine Installation schlank halten oder? Egal ob mit oder ohne Plugin, neue Kommentare dürfen nicht mit IP Adresse gespeichert werden, weil die hier schlichtweg nicht notwendig ist, daß man als Seitenbetreiber die weiß.

Ich für meinen Teil habe mein Theme entsprechend angepast. Und zwar muß die functions.php dafür geändert werden. Dazu wird folgender Code in diese datei eingefügt werden:

function wpb_remove_commentsip( $comment_author_ip ) {
return '';
}
add_filter( 'pre_comment_user_ip', 'wpb_remove_commentsip' );

Schon wird WordPress bei der Speicherung von IP-Adressen vergesslich und läßt diese einfach aus. Als kleine Anmerkung: Diese Variante funktioniert bei einigen Themes nur bis zum nächsten Update, dann muß dieser Code wieder eingefügt werden :mail: .

IP Adressen aus der Datenbank löschen

IP Adressen in der Datenbank
IP Adressen in der Datenbank

Bleiben noch die bereits gespeicherten IP Adressen, bevor man an die Möglichkeit gedacht hat, daß WordPress da etwas speichern könnte. Die Tabelle mit den IP Adressen der Kommentatoren steht in der Datenbanktabelle xx_comments in der Spalte comment_author_IP. Wobei das xx_ vor der Tabelle das Präfix was man gewählt hat darstellt Standardmäßig ist es auf wp_ gesetzt.

SQL im PHPMyAdmin
SQL im PHPMyAdmin

Ist man zu der Tabelle xx_comments navigiert, wird ein Mausklick oben auf SQL notwendig. Im sich auftuenden Fenster einfach folgende Zeile einfügen – dabei aber das xx_ durch das richtige Tabellenpräfix ersetzen:

UPDATE xx_comments SET comment_author_IP = ' ';

Danach dürfte das Fenster vom PHPMyAdmin wie folgt aussehen und sämtliche bisher gespeicherte IP Adressen gelöscht sein.

[Update am 3. Juni 2016]

Neben der IP Adresse wird noch der genaue Zeitpunkt gesichert, wann ein Kommentar eingereicht wurde aufgezeichnet. Mit genau diesen Daten kann man im Ernstfall nachvollziehen zu welchem Anschluss der Kommentar zurückführen kann. Obwohl IP Adressen sich providermäßig alle paar Stunden ändern, so bleibt mit einem Zeitstempel genau erfassbar, wer einen Kommentar abgegeben hat. Das erlaubt Rückschlüsse auf Wohnort und Anschlussinhaber, so wie es die Abmahnanwälte gern bei Peer-to-Peer Tauschbörsen mit mehr oder minder legalen oder illegalen Inhalten tun.

WordPress speichert IP Adressen bei den Kommentaren komplett und nicht anonymisiert, also mit fehlenden oder unkenntlich gemachten Stellen. Auch eine Checkbox kann da im Zweifel nichts gegen eine Abmahnung ausrichten, wenn da irgendetwas bekannt wird.

Von der Impressumspflicht und der neuen Datenschutz-Grundverordnung

Am vergangenem Freitag (25. Mai 2018) ist die neue DSVGO in Kraft getreten. Die bringt kleine Seitenbetreiber ins Schwitzen, obwohl die eigentlich auf große Unternehmen abzielt. Allerdings ist die DGSVO in Teilen so schwammig formuliert, daß sie auch auf den kleinen Webseitenbetreiber anwendbar ist.

Disclaimer

Ich bin kein Jurist und kein Experte in Sachen Recht, daher darf dieser Artikel nicht als Rechtsberatung angesehen werden. Ich habe mich in den letzten Wochen allerdings mit der neuen Datenschutzverordnung auseinander gesetzt, um meinen Blog so gut es geht rechtssicher zu machen. Daher kann dieser Artikel nur als kleiner Leitfaden und Chekliste mit Tips und Tricks, sowie Anregungen zur DSGVO und zum Impressum dienen. Meine Checkliste erhebt auch keinen Anspruch auf Vollständigkeit und Fehlerfreiheit.

Die umstrittene Impressumspflicht

Eine Diskussion in einem IRC-Channel befleißigt mich, dieses Thema anzunehmen. Im Allgemeinen ging es bei dieser Argumentation, wo privat aufhört und kommerziell anfängt, im Zusammenhang mit der Impressumspflicht nach TMG §5 und der neuen Datenschutzgrundverordnung.

Der Paragraph 5 des Telemediengesetzes schreibt Anbietern vor, die ihre Dienste geschäftsmäßig in er Regel entgeltlich anbieten, ein Impressum vor. Das bezieht auch den kleinen Seitenbetreiber mit ein, der auf seiner Seite mit den privaten Kochrezepten ein bisschen Werbung setzt, um die Kosten für seine Domain zu refinanzieren.

Kann aber eine Seite, die öffentlich zugänglich ist als Privat gelten? Daum ging es in der Diskussion vornehmlich. Eine private Seite bedeutet für mich auf einer technischen Ebene, daß nur der Seitenbetreiber und ein paar seiner Bekannten darauf Zugriff haben. Das geht recht einfach via .htaccess, wo der Seitenbetreiber Passwörter einträgt, die er an Freunde und Familie weitergibt. Um eine ungewollte Verbreitung der Passwörter vorzubeugen, kann man hin und wieder ändern und neu vergeben.

Die neue Datenschutzverordnung

Eigentlich sollte das neue Gesetz den Bürger vor großen Internetkonzernen schützen. Laut einiger Recherchen im Netz treibt die Verordnung reichlich kuriose Stilblüten. Anwaltskammern schließen ihren Internetauftritt, Blogs schließen … zumindest temporär. Europäer dürfen keine amerikanischen Medien mehr lesen, Twitter sperrt Konten, vieles gibt es in diesen Tagen zu berichten.

Das neue europäische Recht, soll die Datenverarbeitung transparenter machen, Konzerne wie Facebook, Google und Co nehmen das allerdings zum Anlass, ihre Datenschutzerklärungen zu überarbeiten. Gerade bei sozialen Netzwerken gab es in den letzten Tagen schon fälle, daß Konten gesperrt wurden, weil die neue Datenschutzerklärung nicht aktzeptiert wurde – aus dem einfachen Grund, weil sich amerikanische Konzerne nicht um das neue europäische Recht scheren und ihre Datensammelwut mit einer überarbeiteten und an das neue Getz angepasste Erklärung rechtfertigen.

Kleine Websitebetreiber haben allerdings ein Problem, denn auch auf sie kommen hohe Strafen bei Verstößen zu, ebenfalls auch hohe Kosten, wenn sie ihren Auftritt korrekt rechtssicher gestalten wollen. Aber zur Erleichterung der kleinen Webseitebetreiber wie Blogger – Datenschutzbeauftragte werden nicht benötigt, daß man kein Unternehmen mit mindestens 10 Angestellten führt, was als Kerntätigkeit die Verarbeitung von Daten hat.

Aber dennoch gilt es als erstes die Webseite abzuklopfen und zu schauen wohin überall Daten abfließen. Mit Pi Hole kann man das selbst sehr schön nachvollziehen. Man loggt sich dort einfach ins Dashboard ein und schaut einfach in die Logs, wohin welche Abfragen gehen, wenn man seine Seite öffnet und welche Domains angepingt werden.

Meist findet man dann doch Anfragen neben seiner Domain zu Google Analytics, Google Ads (oder Google allgemein) oder anderen Werbenetzwerken (wenn man denn soetwas eingebunden hat).

Als erste Anlaufstelle für die Umsetzung der eigenen DSGVO Konformen Seite sollte der Provider sein, wenn man sich irgendwo eine Domain und ein bisschen Webspace für den eigenen Blog besorgt hat. Der müsste einen rechtssicheren Vertrag für die Datenverarbeitung anbieten, den man mit dem Provider abschließen muß. Das Selbe muß man mit Google tun, sofern man irgendwelche Trackingdienste für Werbung und Analyse nutzt.

Blogger benutzen gern auch diverse Tools für die Spamabwehr. Akismet ist da führend, überprüft aber jede IP Adresse auf ausländischen Server ob die für Spam bekannt sind. JetPack und Matomo – ehemals Piwik – sind ebenfals sehr mächtige Analystools. Der Unterschied: JetPack sendet auch Daten an fremde Server, Piwik speichert anonymisiert auf dem eigenen Webspace. Matomo ist als Statistictool Google Analytics aus genannten Gründen vorzuziehen. Bleiben beim Ersteren die Satistikdaten anonymisiert auf dem eigenen Webspace, so funkt Google Analytics diese auf Google Server, die mitunter auch im Ausland stehen. Bleibt noch eine Frage offen: Speichert Google diese Daten auch anonymisiert?

Die Originalen Like-Buttons von Facebook, Twitter und co. werden zumeist als iFrame eingebunden. Das sind meist kleine Browserfenster im Browerfenster. Man lädt also einn Teil von einem sozialen Netzwerk, mit einer Seite, auf dem einer der Buttons eingebunden ist. So fließen ungewollt Daten auf andere Server ab.

Für alle Plugins, die auf Fremden Servern Daten auslagern: Man muß im Zweifelsfall einen Vertrag zur Auftragsdatenspeicherung abschließen. Meine Ansicht dazu: Wenn man ohne Trackingtools nicht leben kann, dann sollte die man auf dem eigenen Server bzw. bei seinem Webhoster betreiben, denn mit dem hat man ja bereits einen Vertrag. Like-Buttons sollte man lieber als HTML Version oder 2-Clickmethode einbinden, so wie ich das mit Shariff schon früher beschrieben habe.

Als nächstes ist natürlich eine DSGVO Konforme Datenschutzerklärung notwendig. Hier ändert sich allerdings nicht viel, denn ähnliches war schon im deutschen Datenschutzrecht verankert. Für die Hobbyblogger unter uns gibt es zahlreiche DSGVO Konforme Generatoren für die Datenschutzerklärung im Netz, die man schon für lau nutzen kann. Aber auch da gibt es keine Hundertprozentige Sicherheit für eine Fehlerfreie Erklärung.

Hat man unter der Haube eine Bestandsaufnahme gemacht und eine Datenschutzerklärung fertig, so fällt meistens auf, daß man sowieso nicht alles DSGVO-konform ist. Jetzt geht es daran Plugins, Kontaktformulare und Kommentarspalten abzuklopfen.

Kann man auf diverse Dinge, wie Statistik nicht verzichten, sollte man sich villeicht nach Alternativen zu den Diensten von Google und Co. umsehen. Piwik währe da eine gute Alternative, hier hat man 99protzentig selbst in der Hand was wie gespeichert wird. Akismet ist beispielsweise durch die AntiSpamBee auszutauschen, die setzt auf unsichtbare Formularfelder um Spambots draußen zu halten.

Trackt man irgendwie, so werden Cookies und/oder Zählpixel eingebettet, das heißt, eine Zustimmung für das Setzen von Cookies muß beim Betreten der Seite her. Auch bei der Kommentarfunktion sowie Kontaktformularen werden Daten wie IP Adresse und Mailadresse gespeichert. Bei WordPress kann man Kinderleicht mit WP GDPR Compliance Checkboxen setzen, die die entsprechenden Zustimmungen einholen.

Dann bleiben noch die IP Adresssen, die die Kommentarfunktion speichert. Hier gibt es einen tieferen Eingriff ins Getriebe von WordPress um bereits gespeicherte Adressen zu löschen und einige Scripte, die künftiges Speichern verhindern. Darauf werde ich allerdings in einem kommenden Artikel eingehen, dafür habe ich einen schönen Workflow recherchiert und erarbeitet.

Ja, angebotene Downloads. Hier sind wieder Urheberrechte und Lizenzrechte zu beachten. Aber ich gehe mal davon aus, daß ihr alle, wenn ihr etwas zum Download anbietet, das auch auf legale Weise tut. Vor Jahren habe ich aus Mangel an bezahlbaren Alternativen einige Downloads einfach in die Dropbox geschubst. Synchroordner auf der Festplatte erstellt, Dateien dort reingeschmissen und wusch, verlinkt. Dropbox ist ein US-amerikanisches Unternehmen mit Serverstandorten in den USA und auf der Welt verteilt. Auch wenn da sowieso nur Downloads drin waren, die für die Öffentlichkeit bestimmt sind, so können doch beim Klick auf die entsprechende Verlinkung, Daten zu dieser Firma abfließen. Daten dafür sind nunmal IP-Adressen, damit die Server wissen, wohin sie die Downloads schicken müssen. Also dran denken: Wenn ihr einen deutschen oder europäischen Server für eure Webseite nutzt, dann lagert eure Downloads auch dort.

Bleibt noch die Frage zu den Bildern. Im Prinzip gilt hier immer noch das Urheberrecht. Der Blogger, der ein Bild aufnimmt darf das auch online stellen, sofern eine schöpferische Tiefe erkennbar ist. Stehen allerdings Personen im Vordergrund, auf denen der Hauptaugenmerk liegt, so muß da eine schriftliche Einverständniserklärung vorliegen, denn die haben auch noch Rechte am eigenen Bild, um es mal in juristischer Fachsprache zu versuchen. Fotografiert man allerdings ein öffentliches Panorama, auf dem in einiger Entfernung viele Leute durch das Bild laufen, so kann man das soweit posten. Für Bilder aus der Wikipedia so gilt der Beitrag den ich früher schonmal geschrieben habe. Auch wenn es Creative Commons ist, Quellenangaben und die Lizenz dazu, dabei hilft der dort vorgestellte Lizenzgenerator.

Fazit

Die DSGVO ist ein ganz schönes Bürokratiemonster und setzt dem eh schon straffen deutschen Datenschutz noch einiges drauf. Für kleine Webseitenbetreiber kommt einiges an Arbeit zu, vielleicht auch an Kosten für die rechtskonforme Umsetzung der DSGVO.

Links

  1. Das virgestellte Shariff Plugin
  2. Der Lizenzhinweisgenerator von Wikimedia Commons für sorgenfreie Bilder
  3. Facebook, Datenskandale und Maßnahmen gegen Trcking wie Pihole
  4. FAQ zur Absicherung des Blogs

Von Digicordern, Homevideos und Videoschnitten

Lange fristeten TV-Aufnahmen, Bilder und Homevideos ein langweiliges und ungesehenes Dasein bei mir auf der Festplatte meines Digicorders, während ich den Videoschnitt und die Aufbereitung des Materials vor mich herschob. Natürlich fiel immer mehr Arbeit an. Aber in den letzten Tagen habe ich den Berg an Filmen schon gewaltig reduzieren können. Hier mein Arbeitsworkflow und ein paar Kurzanleitungen für einige Schritte. Auf zuviel Schritt-für-Schritt-Anleitungen werde ich verzichten, da dies den Rahmen des Artikels sprengen würde. Wenn sich die Gelegenheit ergibt, werde ich dieses oder jenes Thema noch einmal gesondert behandeln.

Die Zutaten

Videoschnitthardwarehäufig benutzte VideotoolsVideobearbeitungDigicorder Schwarz

Hardware

  1. Camcorder der Marke Sony
  2. Digicorder ISIO S von Technisat
  3. Samsung NX3000 Systemkamera
  4. Logitech Z333 Lautsprecher
  5. Kopfhörer SADES SA902
  6. Zotac Rechner mit Core i5 4-Kern Prozessor und Nvidia GeForce 970 Grafikkarte
  7. eine 2,5 Zollige Festplatte mit 1 TB Kapazität
  8. BluRay Brenner von Archgon
  9. Auswahl an verschiedenen beschreibbaren und wiederbeschreibbaren optischen Datenträgern (BluRay, DVD-R, DVD-RW) sowie anderen Speichermedien wie USB Festplatten, USB Sticks usw

Software

  1. Smartcutter
  2. Magix Video Deluxe 2016
  3. Magix Fotostory
  4. Nero 2016 Platinum
  5. Firefox mit Plugin Youtube Download Helper und ConverterHelper
  6. MP3Tag für die Katalogisierung von Musikdateien
  7. Audacity zur Musikbearbeitung

 

Von Technisats Digicordern, Transportströmen und Videoformaten

Von Haus aus ist der Technisat Digicorder ISIO ein recht nutzerfreundlicher Digitalreciever mit verbauter Terabyte Festplatte. Die aufgenommenen TV-Sendungen und Filme lassen sich recht einfach via Netzwerk oder extern angeschlossener USB-Platte an andere Rechner weiterschicken und dort auch sichern. Technisats Digicorder speichern Mitschnitte im Transportstreamformat .ts für die normale Standardauflösung in 768 × 576 Pixeln und (Full)HD 1080 x 720 bis 1920 x 1280 Pixel in .ts4. Von der Auflösung und der genutzten Bildwiederholfrequenz (Hertz=Hz) hängt dann auch die Größe der Filmdatei auf der Digicorderplatte ab. Das Transportstreamformat behinhaltet die Videospur im MPEG-2-Format, eine oder mehrere Audipsuren als MPEG-1 Audio Layer 2 (MP2) oder Dolby Digital (AC3) nebst etwaiger Untertitelspur – und das ganze in Standardauflösung. Steckt HDTV in der Datei, wird das Video in H.264 (AVC) ausgeliefert.

Der Teufel steckt aber im Detail. Hochaufgelöstes Fernsehen bekommt man kostenfrei und unverschlüsselt von den öffentlich rechtlichen Fernsehsendern in einer Qualität von 1080×720 Bildpunkten Interlaced – also im Zeilensprungverfahren. Das kann jeder mit seinem Flachfernseher empfangen. Private Sender bekommt man zwar noch höher aufgelöst – in 1920×1280 Bildpunkten im Vollbildverfahren. Dafür muß man allerdings bezahlen und zudem ist das verschlüsselt. Will man Schneiden oder  zusätzliche Effekte einfügen, so ist das generell nur mit unverschlüsseltem Material machbar. An verschlüsselte Aufnahmen von HD+ oder von Sky kommt man prinzipiell nicht ran.

Obwohl die Digicorder rudimentäre Videoschnittwerkzeuge, wie das Löschen von Werbung, Setzen von Marken und Trennen von Dateien (bei mehreren Filmen in einer Datei) beherrschen, habe ich mich für den Videoschnitt am PC entschieden. Vor einigen Jahren habe ich schon ein Tutorial über die Netzwerkanbindung des Technisatdigicorders geschrieben. Doch diesmal entschied ich mich für den Anschluss einer 2,5 zolligen 1 Terabyte Festplatte von Toshiba am vorderen USB-Anschluss des Gerätes. Genaue Schnitte lassen sich mit Technisats Schnittwerkzeugen nicht machen, daher die Bearbeitung am PC.

DVB kennt zwar diverse Mechanismen zur Aufnahmesteuerung wie zum Beispiel Running Status oder Programme Delivery Control. Diese werden aber nur von den wenigsten Sendern (zumeist Öffentlich Rechtlichen) unterstützt. Die Technische Umsetzung ist noch komplizierter, so daß nur sehr wenige Geräte das Ganze unter dem Namen Accurate Recording (beispielsweise bei Windows DVBViewer Pro) oder bei Technisat Perfect Recording unterstützen. Bei vielen Geräten und den meisten Sendern ärgert man sich über den mehr oder weniger langen Vor- und Nachlauf, der neben eventueller Werbung weg muß.

Im Laufe der Jahre hat Technisat einige Bugs, die mit dem Kopieren großer Filmdateien zusammen hingen, mittlerweile korrigiert. Für den eiligen Leser: Dateien, die größer als 4 GB waren, hat der Digicorder zwar an einem Stück auf der internen Festplatte gespeichert. Wurden die Filmdateien mit mehr als 4 GB auf eine externe NTFS-formatierte Festplatte kopiert, so hat Technisat diese dann in mehr oder weniger große Häppchen geteilt, die kleiner als 4 GB waren.

Hat man heute noch einen Reciever, der die Filmadateien zerstückelt, muß man unter Windows die Kommandozeile – am besten mit Adminrechten – mit dem COPY-Befehl bemühen. Das würde in dem Falle etwa so aussehen

COPY /b "File1.ts" + "File2.ts" + "File3.ts" "Komplett.ts"

beziehungsweise

 COPY /b "File?.ts" "Komplett.ts"

Alternativ hängt man die Filmteile in der verwendeten Schnittsoftware (beispielsweise Magix Video Deluxe) aneinander und läßt die Software das einmal rendern.

Das Kopieren großer Datenmengen wurde durch den USB 2 Anschluß des Digicorders ganz schön ausgebremst, Aber schneller als durch das Netzwerk geht es allemal. Eine kleine Bilderstrecke erklärt kurz, wie man seine Filme auf die Festplatte bekommt.

Mit einem Druck auf die "Stop"Taste kommt man recht flott ins DVR-Menü mit den aufgenommenen Filmen und Sendungen. Ein Druck auf OPT bringt ein kleines Menü zu Tage. Mit dem Steuerkreuz an der Fernbedienung navigiert man auf den Eintrag Filme-Verwalten und drückt OK
Mit einem Druck auf die „Stop“Taste kommt man recht flott ins DVR-Menü mit den aufgenommenen Filmen und Sendungen. Ein Druck auf OPT bringt ein kleines Menü zu Tage. Mit dem Steuerkreuz an der Fernbedienung navigiert man auf den Eintrag Filme-Verwalten und drückt OK
Im Menü Filme-Verwalten ist der Bildschirm zweigeteilt. Auf der einen Seite wird der Inhalt der internen Platte angezeigt, auf der anderen Seite der Inhalt des angestöpselten Mediums. Ein Klick auf OPT öffnet ein weiteres Menü. Hat man mehrere Filme zu kopieren, wählt man "Selektieren" und wählt dann mit der gelben Taste die gewünschten Filme aus. Anschließend eion neuer Druck auf OPT und dann wählt man KOPIEREN und schon startet der Kopiervorgang, der sich über einige Zeit hinziehen kann.
Im Menü Filme-Verwalten ist der Bildschirm zweigeteilt. Auf der einen Seite wird der Inhalt der internen Platte angezeigt, auf der anderen Seite der Inhalt des angestöpselten Mediums. Ein Klick auf OPT öffnet ein weiteres Menü. Hat man mehrere Filme zu kopieren, wählt man „Selektieren“ und wählt dann mit der gelben Taste die gewünschten Filme aus. Anschließend eion neuer Druck auf OPT und dann wählt man KOPIEREN und schon startet der Kopiervorgang, der sich über einige Zeit hinziehen kann.

Wenn der Kopiervorgang beendet ist, kann man beruihgt die Platte vom Digicorder abnehmen, an den heimischen PC anstöpseln und die gewünschten Filme auf diesen übertragen. Bei PCs mit USB 3.x dauert das Übertragen der Filme weniger lang. Ein Fallstrick beim Zuschneiden der TV-Aufnahmen mit Smartcutter hängt mit der Dateiendung des Transportstreamformates zusammen. Sendungen in Standardauflösung werden immer mit der Endung .ts versehen. Dieses Format lässt sich ohne weiteres mit dem VLC-Player und dem Smartcutter via Klick öffnen. HDTV wird mit der Endung .ts4 versehen. VLC öffnet das nicht mit einem einfachen Klick auf die Datei, dazu muß man erst den VLC Player öffnen und dann via Medien –>Datei Öffnen anklickern und sich durch den Explorer zum gesuchten Film hangeln. Bei Smartcutter hilft dieser Schritt auch nicht. Unter Windows muß man sich über das Ansicht-Menü die Ordneroptionen abrufen und die Dateierweiterungen einblenden. Hat man das gemacht, benennt man die Datei einfach um – das .ts4 stutzt man auf .ts zurecht. Im Nächsten Schritt kann man dann die gewünschte Datei in Smartcutter öffnen.

Ein paar Grundlagen vor dem Videoschnitt

Die meisten Standardschnittprogramme eignen sich für den verlustfreien HDTV-Schnitt nur in den seltensten Fällen. Sie kommen zwar mit den M2TS Dateien von AVCHD und Bluray zurecht, versagen aber meist bei den TV-Transportströmen.

Zudem gibt es zwei weitere Gründe für mich, für das reine Schneiden der Transportströme Smartcutter und kein anderes Videoschnittprogramm zu nutzen.

  1. Für das reine Schneiden braucht man die Filme nicht in ein anderes Format (meist mit anderer Dateiendung) zu kodieren. Das erspart viel Zeit – dadurch ist ein 2 Stunden Film in ca 10 Minuten von Werbung, Vor und Nachlaufzeit befreit
  2. Man braucht bei TV-Sendungen zumeist nichts mehr zu bearbeiten, es müssen keine Effekte, Musik oder sonstiges eingefügt werden – außer man will Untertitel einfügen.

Von verschiedenen Framesorten

Bei H.264 treten die IDR-Frames (Instantaneous Decoder Refresh) an die Stelle der I-Frames.
Bei H.264 treten die IDR-Frames (Instantaneous Decoder Refresh) an die Stelle der I-Frames.

Bis auf den Smart Cutter können die meisten H.264-Cutter derzeit nicht bildgenau schneiden, sondern nur an bestimmten Stellen. Je nach Senderaster der Programme kann man alle 0,1 bis 1 Sekunden Schnittmarken setzen. Der Grund dafür liegt in Aufbau eines H.264-Videostroms. Grundsätzlich setzt er sich wie alle MPEG-Videoformate aus Gruppen verschiedener Frame-Typenzusammen: von anderen Frames unabhängig kodierte Bilder (Intra-Frame, I-Frame) und davon abgeleitete Bilder (Inter-Frames, zum Beispiel P-Frames und B-Frames). Während sich Letztere bei MPEG-2 nur auf ein vorangegangenes abgeleitetes oder Intrakodiertes Bild beziehen, dürfen es bei H.264 mehrere sein („bewegungskompensierte Langzeitprädiktion“). In diesem Zusammenhang führte man einen speziellen Keyframe-Typ namens „Instantaneous Decoder Refresh“ (IDR) ein, der bei H.264 die Rolle des klassischen I-Frame einnimmt und die Länge einer Group of Pictures (GOP, von einem IDR-Frame zum nächsten) bestimmt. Nur der IDR-Frame kommt als Referenzbild für die Langzeitprädiktion infrage, andere I-Frames („Partial Sync Key Frames“) eignen sich nicht als Schnittstartpunkt (Cut-in).Für den Cut-out kann man solche „normalen“ I-Frames aber ebensonutzen wie die sich nur auf vorangegangene Bilder beziehende P-Frames. Wird nur von I-Frames gesprochen, sind meist IDRFrames gemeint.

Videoschnitt mit Smart Cutter

Mit dem Smart Cutter schneidet man Bildgenau in nur wenigen Minuten einen Film
Mit dem Smart Cutter schneidet man Bildgenau in nur wenigen Minuten einen Film

Der Smart Cutter ist schlicht und ergreifend Shareware. Schon kostenlos ist diese Software uneingeschränkt nutzbar, nur wird im Vorschaubild des geschnittenen Filmes ein „Demo“ angezeigt. Zahlt man 40 Euronen, dann verschwindet auch das Demo. Smart Cutter schneidet Filme im .ts-Transportstream-Format bildgenau, also ohne die weiter oben beschriebene Einschränkung. Smart Cutter schneidet nur die gewählten Stellen wie Werbung aus dem Film und beläßt das Material im .ts-Format. Daher dauert das Schneiden meist nur ein paar Minuten. Ein zweistündiger Film war bei mir in ca 10 Minuten geschnitten.

Zwei kleine, aber in der Regel bedeutungslose Macken hat diese Software. Zum Ersten ist die deutsche Übersetzung sehr stark fehlerbehaftet. Abhilfe schafft da die Umschaltung auf die englische Sprache.

Die zweite Macke ist die automatische Erkennung von Werbung. Diese funktioniert nur in den seltensten Fällen wirklich korrekt. Hier ist man am besten beraten, wenn man seine Start- und Endpunkte (das sind die Schnittpunkte) manuell setzt. Die Bedienelemente beschränken sich auf das Nötigste, doch man kann damit sehr genau arbeiten.

Hat man einen Film im .ts-Format mit dem Smart Cutter geöffnet, findet man so ziemlich in der Mitte des Arbeitsfensters einen Schieberegler, der über die komplette Breite des Fensters verläuft. Mit dem kann man grob Anfang und Ende eines Films und der Werbung ansteuern. Über der Leiste mit den einzelnen Bildern befindet sich noch ein Schieberegler, mit dem man langsam eine Gruppe von Bildern vor und zurückschieben kann. Reicht das nicht aus, springt man mit den Doppelpfeilen zur nächsten Bildergruppe.

Hat man den Anfang des Filmes gefunden, setzt man da einfach einen Startpunkt. Em Anfang jeder Werbung und dem Ende des Filmes einen Endpunkt und an jedem Ende der Werbung einen erneuten Startpunkt. Ein klick auf den Knopf mit dem roten Punkt startet den Schnitt. Das Ergebjis landet direkt in dem Verzeichnis, wo der Originalfilm herumfliegt. Dieser wird nicht überschrieben und kann für eventuelle Fehler beim Schnitt nochmal verwendet werden.

Filme mit zusätzlichen Effekten aufwerten

Magix Video Deluxe eignet sich hervorragend zum Verdeln von Urlaubsvideos
Magix Video Deluxe eignet sich hervorragend zum Verdeln von Urlaubsvideos

TV-Aufnahmen brauchen eigentlich auch nicht mehr durch irgendwelche Musik oder Effekte ergänzt werden. Will man aber dennoch Untertitel einfügen, dann reicht Smart Cutter nicht mehr aus. Eine Textspur, zusätzliche Musik, Überblendungseffekte oder Audiokommentare und vieles mehr kann man mit Magix Video Deluxe in einen Film einspielen. Video Deluxe von Magix ist recht einsteigerfreundlich, bietet mehrere Spuren für die eigene Kreativität.

Audiokommentare zu einem Film oder einem, mit dem Camcorder aufgenommenen, Urlaubsvideo kann man leicht mit Audacity und einem Headset bzw einem Microphon aufnehmen und zuschneiden. Hat man das erledigt schiebt man diese einfach in eine Spur unter dem Film, in weitere Spuren kann man zusätzlich noch Musik und Untertitel einfügen. Sind Filmteile unnötig verwackelt oder verwaschen, kann man sich diese Teile mit Druck auf T zurechtschneiden und danach aus der Videospur tilgen.

Mit Audacity kann man Musikstücke bearbeiten und Audiokommentare als Filmbeiwerk aufnehmen
Mit Audacity kann man Musikstücke bearbeiten und Audiokommentare als Filmbeiwerk aufnehmen

Magix Video Deluxe kennt so ziemlich die gängigsten Video-Formate und Container. Allerdings dauert es je nach Ausstattung des Computers (hauptsächlich nach Stärke und Takt des Prozessors) eine ganze Weile den Film mit den ganzen Effekten abzumischen, im zweifelsfall dauert es schon mal mehrere Stunden, bis HD-Material soweit gerendert ist, daß man es auf DVD brennen kann oder direkt am Computer ansehen kann.

Hat man neben dem Urlaubsvideo auch noch Fotos gemacht, kann man diese als Standbilder zwischen verschiedene Videosequenzen einfügen. Eigene Diashows mit Musik und Überblendeffekten gehen aber qualitativ besser mit Magix Fotostory (ehemals Bilder auf CD und DVD). Dabei macht die Fotostory im Endeffekt das Selbe wie Video deluxe – die Bilder, Effekte und Musik werden zu einem MPEG2 oder H.264 Video abgemischt und auf ein optisches Medium gesichert. Beide Programme ähneln sich stark und sind in der Handhabung fast identisch, sind aber qualitativ auf ihren jeweils Spezialgebieten stärker.

Verfeinert man seine Videos mit Musik und Audiokommentaren, kann ich das Consumer-Headset SADES SA902, sowie die Logitech Z333 Aktivboxen empfehlen. Beide bringen einen recht guten und ausdifferenzierten Klang und das Mikro ist auch recht gut – ja, bevor hier Einwände kommen – es gibt noch qualitativ bessere Kopfhörer und Boxen, auch im High-End Bereich, aber das ist für den gelegentlichen Videoschnitt eigentlich zu überdimensioniert.

 

Tonspuren extrahieren und mit Audacity bearbeiten

Zu einigen TV-Aufnahmen von mir gehören auch ein paar Konzert Live-Mitschnitte, die auf den Offentlich Rechtlichen Sendern wie Arte oder ZDF-Kultur übertragen wurden. Auch auf Youtube gibt es zu Weilen interessante Videos – mit und mit ohne Musik.

Der VLC-Player bietet die Möglichkeit, die Audiospur eines Filmes (in meinem Fall eines Musikvideos oder Konzertmitschnittes) mit wenigen Mausklicks zu extrahieren und als MP3 zu speichern.

Der VLC Player kann Audiospuren aus Filmen extrahieren und als MP3 speichern
Der VLC Player kann Audiospuren aus Filmen extrahieren und als MP3 speichern
  1. Über Menü – Medien – Konvertieren/Speichern… zum Dialog „Medien öffnen“ wechseln. Dort die zu konvertierende Quelle festlegen. Das kann eine Datei sein, dann erfolgt die Festlegung über das Register „Datei“ und die Schaltfläche „Hinzufügen“. Es kann aber auch ein ein Link zu einer Datei im Netz sein, zum Beispiel die Adresse eines Videos bei YouTube, dann diese im Register „Netzwerk“ eintragen und Dialog über Schaltfläche „Konvertieren/Speichern“ verlassen.
  2. Im nächsten Dialog „Konvertieren“ die Zieldatei bestimmen. Dafür über die Schaltfläche „Durchsuchen“ zum Datei-Dialog wechseln und dort den Zielpfad und den Dateinamen einschließlich der Namenserweiterung „.mp3“ eintragen. Danach diesen Dialog über „Speichern“ verlassen.
  3. Die Option Ausgabe anzeigen nicht aktivieren.
  4. Nun wieder im Dialog „Konvertieren“ für die Profileinstellung aus der Auswahlliste das Profil Audio-MP3 wählen.
  5. Wenn man sich nicht auf die Profileinstellung verlassen will, sollte man den Einstellungsdialog dafür über den kleinen Button mit dem gekreuzten Werkzeug rechts der Profilauswahlliste öffnen. Dort im Register Audiocodec kann man zum Beispiel die Bitrate und die Abtastrate verändern.
  6. Zuletzt den Dialog „Konvertieren“ über die Schaltfläche „Start“ verlassen.

Gerade bei längeren Konzertmitschnitten muß man an der MP3 Datei noch ein bisschen Hand anlegen. Hierbei hilft wiederum Audacity. Will man gerade sehr große Dateien in mehre einzelne Musikstücke aufteilen geht das mit diesem Open Source Tool recht einfach und schnell. Man spult einfach zu den Anfängen und Enden der einzelnen Titel und setzt doch mit der Tastenkombination STRG+B die einzelnen Schnittmarken. Hat man das erledigt, klickert man auf Mehrere Dateien exportieren und nimmt seine Einstellungen vor. Will man allerdings die Tonspur im MP3 Format speichern benötigt man den LAME-Encoder für Audacity. Mit MP3Tag kann man die ganzen Musikstücke für den hauseigenen Musikkatalog noch mit Interpreten, Titelnamen und dergleichen versehen. Das macht später die Musik in einer großem Sammlung besser auffindbar.

Achja, für Firefox gibt es das schöne Plugin Youtube Download Helper. Das benötigt noch den ConverterHelper, aber damit kann man auch Videos von Youtube herunterladen und nach eigenem Gusto mit der hier vorgestellten Software weiterbearbeiten.

DVDs, Festplatten und andere Medien

Nero Video für meine TV-Aufnahmen
Nero Video für meine TV-Aufnahmen

Viel ist nun nicht mehr zu schreiben. Den Abschluss der ganzen Arbeiten bildet für einige vielleicht dsas Brennen des eigenen Kunstwerkes auf eine DVD oder BluRay. Zu Testzwecken nutze ich meist eine DVD-RW oder eine wiederbeschreibbare BluRay. So kann ich bedenkenlos noch einmal Fehler korrigieren, die mir im Nachhinein auffallen. BluRays bietet um ein vielfaches mehr Kapazität (bis über 100 GB) an, als gewöhnliche DVDs mit 4,7 GB oder um die 9 GB bei Double-Layer DVDs. Daher eignet sich eine BluRay für HD und FullHD Material, DVDs dagegen nur für Filme in Standardauflösung in 768 × 576 Pixeln. Für TV Aufnahmen, die ich nur schneide und nicht weiter ändere und auch für Musik-CDs nutze ich Nero 2016 Platinum zum Brennen, das geht recht rasch und Dateien im Transportstream-Format werden auch recht flott transkodiert. Je nach Kapazität unterscheiden sich die Preise für die optischen Speichermedien. CDs mit 700 MB Kapazität (80 Minuten Spielzeit) kriegt man schon für unter 30 Cent den Rohling. CD-RWs sind etwas teurer und kosten so zwischen 30 und 50 Cent das Stück. DVDs mit 4,7 GB Kapazität gibt es für rund 50 Cent das Stück, die wiederbeschreibbare Sorte ist etwas teurer. BluRays sind momentan erst ab über 3 Euro das Stück zu haben, von daher ist das auch die teuerste Variante. Die Preise für diese Rohlinge befinden sich aber nach wie vor im Fall. Es bleibt abzuwarten, bei welchen Stückpreisen sich die BluRays ansiedeln werden.

[Update 27. Juni 2016] Es ist noch erwähnenswert, daß der vielseits beliebte VLC Player keine BluRays abspielen kann – sei es eine selbst erstellte BluRay oder eine kommerziell gekaufte. Bei einem Start von so einem Medium aus, wirft er immer eine Fehlermeldung aus. VLC besitzt aus rechtlichen Gründen nicht die Implementierung für BluRays. Hierfür gibt es kostenlose, aber auch kostenpflichtige Player für alle Betriebssytseme.

Man kann sich zum Testen eines Films prinzipiell auch das Brennen auf einen wiederbeschreibbaren DVD Rohling sparen. Die hier vorgestellten Lösungen von Magix bieten an, ein ISO-Abbild der DVD auf die Festplatte zu schreiben. Ab Windows 10 kann man ein ISO direkt als optisches Medium ins System einbinden (Stichwort: virtuelles Laufwerk) und das erstmal so anschauen ohne Brennen. Hat man Fehler gefunden, so korrigiert man diese im Magix-Programm und läßt das Ganze dann schlichtweg noch einmal rendern. [Update Ende]

Nero Express für Musi-CDs
Nero Express für Musik-CDs

Für Urlaubsvideos mit vielen Überblendeffekten, Musik, Schriftzügen und dergleichen nutze ich hingegen die Brennfunktion von Magix, denn die meisten Filme werden mit dem Camcorder in M2TS aufgenommen und je nach DVD-Sorte vor dem Brand in MPEG 2 bzw H.264 abgemischt. Aus Haltbarkeitsgründen nutze ich DVD Minus R (DVD – R).

Warum eigentlich noch optische Medien in Zeiten von Terabyte Festplatten und riesigen USB-Sticks? Nun ja, die Frage ist recht leicht beantwortet. Nicht jeder Fernseher kommt mit dutzenden verschiedener Videoformate zurecht, aber viele Nutzer haben doch irgendwo einen DVD-Player oder eine Playstation herumstehen. Und auf DVDs bzw BluRays werden Filme in einheitlichen Standards gespeichert, so daß man die überall, wo ein entsprechender Player vorhanden ist, angucken kann. Mit etwas Aufwand kann man sogar die Rückseiten der DVDs und BluRays schön bedrucken und für die Schachtel tolle Booklets entwerfen. Software für die Booklets und entsprechende Webdienste dafür gibt es wie Sand am Meer. Auch Drucker, die die Rückseiten der DVDs bedrucken gibt es im Fachhandel. Den Möglichkeiten dafür sind also keine Grenzen gesetzt – außer dem Geldbeutel natürlich.

Zum Brennen meiner Filme und Musik benutze ich einen externen USB 3.0 Brenner von Archgon, der von der BluRay abwärts bis zur CD soweit alles brennt – auch BluRays und DVDs mit mehreren Layern. Extern deshalb, weil kein Platz mehr dafür in meinem Rechnergehäuse war. Das Portable hat auch so seine Vorteile – man kann überall brennen, wo ein PC mit USB 3.0 Anschluss steht.

Die meisten Filme wie TV-Aufnahmen habe ich auf einer kleinen Terabyte-Festplatte mit 2,5 Zoll, die bei mir am Technisat-Digicorder angestöpselt ist. Mittlerweile gibt es auch große 3,25 Zollige Festplatten mit 8 Terabyte Kapazität. Hier muß aber beachtet werden, daß diese einen separaten Stromanschluß benötigen, der Strom aus der USB-Buchse reicht da nicht mehr wirklich aus.

Meine Musik kaufe ich meistens auf Original-CDs, die ich dann nach dem Kauf als MP3 – als verlustbehaftete – und FLAC – als verlustfreie Kompression – auf 2 Festplatten und einer SD-Karte im Auto sichere. Die Original-CDs werden bei mir im etwas abgedunkelten CD-Schrank aufbewart. Das Verlustfreie FLAC nutze ich eben als Musik zum Unterlegen von Filmen, Diashows oder die Tanzmusik der Verwandtschaft. Qualität auf dem höchsten Niveau.

Die meisten modernen Fernseher und Stereoanlagen bieten auch schon USB-Anschlüsse in Hülle und Fülle, an die man sein

Recht gute Alternativen sind auch sogenannte NAS-Systeme, die als UPnP-Server ins Heimnetz eingebunden werden und die Filme dann einfach an alle anderen Endgeräte streamen können – eine gute (W)LAN Anbindung vorausgesetzt.

Ein gutes Backup der Filme (Urlaubsvideos und Fotos sind Unikate, also nicht zu ersetzen) setzt voraus, daß diese auf unterschiedlichen Datenträgern an unterschiedlichen Orten gelagert werden – zumeist in trockener Umgebung mit relativ konstanten Luftfeuchtigkeiten und Temperaturen. Das erspart allemal den Frust bei einem Verlust wie durch Kryptotrojaner und irgendwelchen Umwelteinflüssen wie einen Hausbrand. TV-Aufnahmen sind längerfristig ersetzbar – sie werden ja öfter im TV wiederholt – und müssen nicht unbedingt mit der gleichen Priorität gesichert werden wie das Video vom letzten Urlaub.

Fazit

Videobearbeitung macht einen Heidenspaß, kann aber auch mordsmäßig viel Arbeit machen, je nachdem wie man die Sache aufzieht. Mit dem richtigen Computer, der richtigen Software – bei mir war es eine Mischung aus Open Source Software und proprietärer Software aus dem Handel – und der richtigen Peripherie kann man heutzutage schon für recht wenig Geld Semiprofessionell arbeiten. Man muß sich aber mit der Materie auskennen und anfangs auch viel experimentieren um die passende Software und die richtigen Klicks zu finden. Nicht zuletzt ist eben auch viel Zeit und Geduld gefragt, um gute Ergebnisse zu erzielen.

Warum ich Nero 2016 und die beiden Magix Programme verwende? Nero 2016 ist in der Videobearbeitung und der Erstellung von Diashows recht umständlich zu bedienen, die Einstellungen gehen bei weitem nicht so flott von der Hand, wie mit den Magixprogrammen. Das ist jedoch meine persönliche Meinung, da ich schon seit Jahren mit Magix für Diashows und Videos arbeite. Für alle anderen Brennaufgaben ist Nero super geeignet, da gibt es nichts zu mäkeln.

 

Links

  1. Vor- und Nachteile von HD Plus
  2. Technisat die zweite – Ab ins Netzwerk mit dem Technisatreciever
  3. Technisat – Ein kleines Resümee
  4. Smart Cutter
  5. Audacity
  6. VLC-Player
  7. LAME-Encoder
  8. MP3Tag

Wikipedia-Bilder ohne Stress benutzen

Wikipedia Lizenzhinweisgenerator
Wikipedia Lizenzhinweisgenerator

Inhalte für eine Webseite sind schnell geschrieben, benötigen aber oftmals noch ein oder zwei Bilder um diese zu illustrieren und aufzulockern. Blog- und Webseitenbetreiber haben es oftmals nicht einfach, an passendes Bildmaterial zu kommen, da Abmahn-Anwälte schnell dabei sind hohe Geldbeträge zu fordern, wenn die Bilder nicht ordentlich lizenziert wurden. Wikipedia schaft da nun Abhilfe.

Wikipedia, bzw die Bilddatenbank Wikimedia Commons hält eine riesige Auswahl an kostenlosen (aber unterschiedlich lizenzierten) Bilder bereit, die man zumeist mit Quellenangabe und Lizenzhinweisen auch für die eigene Internetseite nutzen darf. Meist fällt es aber oft schwer, die genaue Lizenzierung herauszufinden. Dem will die Wikipedia nun mit dem Lizenzhinweisgenerator entgegentreten.

Das Vorgehen, für die richtigen Lizenzhinweise ist recht simpel: Man sucht sich bei Wikipedia oder der Bilddatenbank ein Bild aus und kopiert die URL dieses Bildes (also das was oben in der Adresszeile des Browser) steht in den Generator.

Browser Adresszeile - Inhalt ist zu kopieren (Klick auf Bild vergrößert es)
Browser Adresszeile – Inhalt ist zu kopieren (Klick auf Bild vergrößert es)

Nach ein paar kurzen Fragen, wie man das Bild weiterverwenden will, bekommt man auch schon den fertigen Lizenzhinweis in Text oder HTML angezeigt und kann diesen zu dem Bild mit einfügen.

Lizenzhinweisgenerator - Fertige Lizenz
Lizenzhinweisgenerator – Fertige Lizenz

Ein Klick auf die Bilder vergrößert diese auf Bildschirmgröße

Links

  1. Lizenzhinweisgenerator

Netzgeflüster – Der verschwundene Kurz-Link Button

Das Update auf WordPress 4.4 hat einige Neuerungen gebracht und eine unscheinbare, aber für soziale Medien (Twitter) wichtige Funktion entfernt.

Bis Version 4.3.x des beliebten Content Management und Blogsystems WordPress gab es eine Funktion um die Links und Verweise für Beiträge und Seiten schnell zu kürzen, um diese auf Twitter und anderen Sozialen Netzwerken mit beschränkter Zeichenanzahl bereit zu stellen. Diese Funktion nannte sich Kurzlink (engl. Shortlink). Mit ein bisschen Code in der functions.php des eigenen Blogs kann man diese Funktion schnell wieder zurückholen. Folgende Bilder zeigen diese Funktion im Bearbeitungsmodus.

Kurzlink Button nicht vorhanden
Kurzlink Button nicht vorhanden
Kurzlink Button vorhanden
Kurzlink Button vorhanden

Den Code, den man in der functions.php eingefügt werden muß, kann aus der nachfolgenden Box einfach in diese Datei kopiert werden. Das geht recht schnell und unproblematisch.

// Kurzlink in WP 4.4 zurückholen
if ( function_exists( 'add_filter' ) ) {
    add_filter( 'get_shortlink', function ( $shortlink ) {
        return $shortlink;
    } );
}

Meinerseits ungetestet ist auch das Plugin Bring Back the Get Shortlink Button für WordPress eine Alternative zur Codefrickelei.

Links

Tutorial zum Update von Bukkit, CraftBukkit & Spigot – Teil 3 – Kompilierung auf Windows oder Windows-Server

Minecraft - Landschaft
Minecraft – Landschaft

Aus Teaminternen Streitereien und lizenztechnischen Gründen (wem gehört welcher Quellcode?) wurde mit Erscheinen der Minecraft-Version 1.8 die beliebte Minecraft-Serverversion CraftBukkit eingestellt. 😥 Nach einigen Verhandlungen ging das Projekt vorerst an das Spigot-Team über, welches CraftBukkit in seine Servervariante mit einfließen läßt. Allerdings gibt es zum Download und zur Einsicht nur den Quellcode, der allein nützt aber nichts, um einen eigenen Minecraft-Server zum Spielen einzurichten. Wie das geht hat Greeney vom Forum Gaming Squirrels beschrieben und mir freundlicherweise das Tutorial zum Weiterveröffentlichen zur Verfügung gestellt. Vielen Dank an dich Greeney.

Was erwartet euch bei dem Tutorial? :mail: Im Großen und Ganzen beschreibt das Tutorial von Greeney das Kompilieren des Quellcodes zum Spigot-MC-Server. Aufgebaut ist das insgesamt in drei Kapiteln – ein How To für ein Debian-basierendes Linux mit grafischen Oberflächen (in diesem Fall Ubuntu), eine Anleitung für ein textbasierendes Linux und eins für Windows. Der Übersichtlichkeit halber habe ich das Tutorial dann auch entsprechend dreigeteilt. Links zu den Quellen, benötigter Software und allem anderen Wissenswertem befinden sich immer am Ende jedes Artikels. Zudem habe ich Zwecks der Aktualität ein paar Pfadangaben angepasst und werde vielleicht den einen oder anderen Schritt noch kommentieren. Kommentare werden auch als solche gekennzeichnet. Auf Greeneys Inhaltsverzeichnis verzichte ich ebenfalls.

3 Windows (Server)

In diesem Abschnitt werde ich euch zeigen, wie Ihr Spigot & Co. unter Windows herunterladen und kompilieren könnt. Ich verwende hierfür das Betriebssystem: Microsoft Windows Server 2012 R2. Keine Angst, das Vorgehen unter Windows 7, 8, 8.1 und 10 ist exakt dasselbe.

3.1 Vorbereitungen

Als aller erstes müssen wir die für das weitere Vorgehen benötigte Software installieren. (Java jdk – Developers Kit – und git)

Anmerkung: Git ist eine Software, die es Softwareentwicklern ermöglicht über ein Serverbasiertes System ihren Quellcode und Dateien zu verwalten und mit anderen Entwicklern auszutauschen. Java JDK oder auch Java Developer Environment erweitert das normale Java um eine Entwicklungsumgebung, diese ist dafür zuständig, daß der Quellcode vom Spigot-Server kompiliert wird.

3.1.1 Software installieren

Um die zum kompilieren benötigten Dateien herunter zu laden benötigen wir eine Möglichkeit Git Repos zu Klonen. Hierzu empfiehlt sich die gleichnamige Software git (für windows) Die Software kann unter folgendem Link heruntergeladen werden: http://git-scm.com/downloads

Nach dem Download kann die Software Default mässig installiert werden. Es ist hierbei jedoch wichtig, die Git Bash Shell zu installieren, welche standartmässig installiert wird. Wenn Ihr also die zu installierenden Pakete anpasst, achtet darauf, dass Bash mitinstalliert wird.

Als nächstes benötigen wir das Java development kit (kurz jdk) für Windows. Es ist wichtig, dass Ihr das development Kit installiert. Wenn Ihr also bereits Java installiert habt um z.B. Minecraft zu spielen wird dies nicht ausreichen und Ihr müsst die jdk nachinstallieren. Wenn Ihr jedoch schon selbst ein Plugin auf eurem System erstellt habt, könnt Ihr davon ausgehen, dass jdk bereits installiert wurde.

Das Java development kit kann auf folgender Seite für eure Windows Plattform heruntergeladen werden: Download Java Development Kit

Eventuell müsst Ihr euren Computer/Server nach dem installieren von Java neu starten.

3.1.2 Arbeitsverzeichnis erstellen

Da Spigot & Co. Nun jedes Mal kompiliert werden müssen, werden jede Menge Dateien benötigt, welche zunächst heruntergeladen werden müssen, aus welchen später die .jar Datei gebaut wird.

Damit diese nicht euer System zumüllen empfiehlt es sich einen Verzeichnis anzulegen in welchem alle Dateien gespeichert werden welche benötigt werden.

Ich empfehle hierzu im Dokumente Ordner einen neuen Ordner mit dem Namen minecraftServer oder minecraftServerSRC zu erstellen.

Arbeitsverzeichnis unter Windows

3.2 BuildTools herunterladen

Um die BuildTools herunter zu laden öffnet Ihr euren Internet Browser und lädt folgende Datei herunter: Download BuildTools

Speichert die Datei dabei in eurem zuvor erstellten Ordner ab.

BuildTools downloaden und sichern

Die BuildTools werden benötigt um die Minecraft Server .jar Files zu kompilieren

Erstellt im inneren eures zuvor erstellten Ordners eine Datei mit der Endung .sh mit dem für euer System passendem Inhalt:

In meinem Beispiel trägt die Datei den Namen: BuildTools.sh

Shellscript für BuildTools

Windows 32 bit:

JAVA_HOME=“C:\Program Files (x86)\Java\jdk1.8.0_X“ java -jar BuildTools.jar

Windows 64 bit:

JAVA_HOME=“C:\Program Files\Java\jdk1.8.0_X“ java -jar BuildTools.jar

Je nachdem wo Ihr das Java development kit installiert habt kann es sein, dass Ihr den Pfad zu eurer Java.exe Datei anpassen müsst.

Anmerkung: Das X steht für die Update Nummer. Normalerweise liefert das Java-JDK auch die aktuelle Java-Runtime mit aus. Aktuell ist es Java jdk1.8.0_31 was da stehen müsste.

3.3 Spigot & Co. Herunterladen und Bauen

Nach dem Ihr die .sh Datei erstellt habt, könnt Ihr diese durch einen Doppelklick starten.

Anschliessend sollten alle Dateien heruntergeladen werden und 10 min später die Spigot Server Files unter: Spigot\Spigot-Server\target\ zu finden sein.

Spigot Speicherort für fertige Serverdatei

3.4 Hilfe!

Das Programm startet nicht oder Ihr findet keine Server Files?

  1. Stelle sicher, dass Bash zusammen mit git installiert wurde.
  2. Stelle sicher, dass die JAVA jdk installiert wurde
  3. Stelle sicher, dass die Datei auf .sh endet und nicht auf .sh.txt
  4. Stelle sicher, dass der Pfad zu Java in der .sh Datei korrekt ist.

3.5 Video Tutorial

Euch ist das Ganze zu kompliziert? Ihr möchtet das ganze zuerst einmal sehen bevor Ihr es durchführt? Hier gibt es ein Video Tutorial, in dem ich das hier beschriebene kurz demonstriere.

[Tutorial] Windows Minecraft 1.8 +【1.9】 Bukkit, CraftBukkit & Spigot Update [German]

Links und Quellen:

  1. Tutorial von Greeney – Quelle
  2. Youtube-Kanal von Greeney
  3. BuildTools.jar Download
  4. Spigot Forum – Übernahme von CraftBukkit durch Spigot
  5. SpigotMC.org

Für Windows benötigte Software

  1. http://git-scm.com/downloads
  2. Download Java Development Kit
  3. Download BuildTools

Tutorial zum Update von Bukkit, CraftBukkit & Spigot – Teil 2 – Verwendung eines textbasiertem Linux

Minecraft - Landschaft
Minecraft – Landschaft

Aus Teaminternen Streitereien und lizenztechnischen Gründen (wem gehört welcher Quellcode?) wurde mit Erscheinen der Minecraft-Version 1.8 die beliebte Minecraft-Serverversion CraftBukkit eingestellt. 😥 Nach einigen Verhandlungen ging das Projekt vorerst an das Spigot-Team über, welches CraftBukkit in seine Servervariante mit einfließen läßt. Allerdings gibt es zum Download und zur Einsicht nur den Quellcode, der allein nützt aber nichts, um einen eigenen Minecraft-Server zum Spielen einzurichten. Wie das geht hat Greeney vom Forum Gaming Squirrels beschrieben und mir freundlicherweise das Tutorial zum Weiterveröffentlichen zur Verfügung gestellt. Vielen Dank an dich Greeney.

Was erwartet euch bei dem Tutorial? :mail:

Im Großen und Ganzen beschreibt das Tutorial von Greeney das Kompilieren des Quellcodes zum Spigot-MC-Server. Aufgebaut ist das insgesamt in drei Kapiteln – ein How To für ein Debian-basierendes Linux mit grafischen Oberflächen (in diesem Fall Ubuntu), eine Anleitung für ein textbasierendes Linux und eins für Windows. Der Übersichtlichkeit halber habe ich das Tutorial dann auch entsprechend dreigeteilt. Links zu den Quellen, benötigter Software und allem anderen Wissenswertem befinden sich immer am Ende jedes Artikels. Zudem habe ich Zwecks der Aktualität ein paar Pfadangaben angepasst und werde vielleicht den einen oder anderen Schritt noch kommentieren. Kommentare werden auch als solche gekennzeichnet. Auf Greeneys Inhaltsverzeichnis verzichte ich ebenfalls.

2 Linux Ohne Grafische Oberfläche (Server)

In diesem Abschnitt werde ich euch zeigen, wie Ihr Spigot & Co. unter Linux Ohne GUI (Server) herunterladen könnt. Ich verwende hierfür das Betriebssystem Ubuntu 14.04 LTS.

Darauf wie Ihr auf einen Server über SSH oder mit ähnliche Methoden verbinden könnt, werde ich hier nicht weiter eingehen.

2.1 Vorbereitungen

Als aller erstes müssen wir die für das weitere Vorgehen benötigte Software installieren. Java Developer Environment und git. Mit folgendem Befehl können alle Paket-Definitionen aktuallisiert, sowie git und openjdk-7-jdk (Java Developer Environment) installiert werden.

sudo apt-get update && sudo apt-get install git openjdk-7-jdk

Anmerkung: Git ist eine Software, die es Softwareentwicklern ermöglicht über ein Serverbasiertes System ihren Quellcode und Dateien zu verwalten und mit anderen Entwicklern auszutauschen. Java JDK oder auch Java Developer Environment erweitert das normale Java um eine Entwicklungsumgebung, diese ist dafür zuständig, daß der Quellcode vom Spigot-Server kompiliert wird.

2.2 Arbeitsverzeichnis erstellen

Als nächstes erstellen wir ein Arbeitsverzeichnis, in dem alle Dateien, welche zum kompilieren der .jar Files benötigt werden, gespeichert werden können. Ich empfehle hierfür ein Ordner im User home anzulegen

Als erstes wechseln wir mit dem Befehl cd in das Verzeichnis user home

Nun erstellen wir einen neuen Ordner mit dem Namen minecraftServer

mkdir minecraftServer

2.3 BuildTools herunterladen

Um die BuildTools herunterzuladen wechseln wir zunächst in den eben erstellten Ordner

cd minecraftServer
Nun laden wir mit folgendem Befehl die BuildTools.jar herunter:
wget -O BuildTools.jar https://hub.spigotmc.org/jenkins/job/BuildTools/lastSuccessfulBuild/artifact/target/BuildTools.jar
syntax: wget -O BuildTools.jar

2.4 Spigot & Co. Herunterladen und Bauen

Als letztes starten wir das kompilieren der der .jar Files mit:

java -jar BuildTools.jar

Nach Abschluss des Building Vorgangs, könnt ihr in eurem zuvor erstellten Arbeitsordner unter: Spigot/Spigot-Server/target die spigot-1.8-R0.1-SNAPSHOT.jar finden, welche eure Server .jar Datei ist. Wie Ihr euren Server starten und konfigurieren könnt, solltet ihr ja alle schon wissen  :bye: Have FUN!

2.5 Abkürzung

Falls euch das Ganze zu kompliziert ist und Ihr mir vertraut könnt Ihr auch folgenden Befehl in der Konsole eingeben, welcher für euch alle hier beschriebenen Schritte automatisch durchführt:

sudo apt-get update && sudo apt-get install git openjdk-7-jdk && mkdir -p ~/minecraftServer && cd ~/minecraftServer && wget -O BuildTools.jar https://hub.spigotmc.org/jenkins/job/BuildTools/lastSuccessfulBuild/artifact/target/BuildTools.jar && java -jar BuildTools.jar

Dieser Befehl erstellt im Home Ordner des aktuell eingeloggten Users einen neuen Ordner mit dem Namen minecraftServer, in welchem alle Dateien abgelegt werden. Weiterhin startet er alle anderen hier beschriebenen Vorgänge.

HINWEIS: Falls ihr den Ordner minecraftServer bereits in eurem Home (~/minecraftServer) besitzt und nicht wollt, dass in diesem die Dateien erstellt werden, müsst Ihr im Befehl die entsprechenden Pfade bei mkdir und cd anpassen.

2.5 Video Tutorial

Euch ist das ganze zu kompliziert? Ihr möchtet das ganze zuerst einmal sehen bevor Ihr es durchführt? Hier gibt es ein Video Tutorial, in dem ich das hier beschriebene kurz demonstriere.

[Tutorial] Debian Minecraft 1.8 +【1.9】Bukkit, CraftBukkit & Spigot Update [German]

Links und Quellen:

  1. Tutorial von Greeney – Quelle
  2. Youtube-Kanal von Greeney
  3. BuildTools.jar Download
  4. Spigot Forum – Übernahme von CraftBukkit durch Spigot
  5. SpigotMC.org

Tutorial zum Update von Bukkit, CraftBukkit & Spigot – Teil 1 – Verwendung eines grafischen Linux

Minecraft - Landschaft
Minecraft – Landschaft

Aus Teaminternen Streitereien und lizenztechnischen Gründen (wem gehört welcher Quellcode?) wurde mit Erscheinen der Minecraft-Version 1.8 die beliebte Minecraft-Serverversion CraftBukkit eingestellt. 😥 Nach einigen Verhandlungen ging das Projekt vorerst an das Spigot-Team über, welches CraftBukkit in seine Servervariante mit einfließen läßt. Allerdings gibt es zum Download und zur Einsicht nur den Quellcode, der allein nützt aber nichts, um einen eigenen Minecraft-Server zum Spielen einzurichten. Wie das geht hat Greeney vom Forum Gaming Squirrels beschrieben und mir freundlicherweise das Tutorial zum Weiterveröffentlichen zur Verfügung gestellt. Vielen Dank an dich Greeney.

Was erwartet euch bei dem Tutorial? :mail:  

Im Großen und Ganzen beschreibt das Tutorial von Greeney das Kompilieren des Quellcodes zum Spigot-MC-Server. Aufgebaut ist das insgesamt in drei Kapiteln – ein How To für ein Debian-basierendes Linux mit grafischen Oberflächen (in diesem Fall Ubuntu), eine Anleitung für ein textbasierendes Linux und eins für Windows. Der Übersichtlichkeit halber habe ich das Tutorial dann auch entsprechend dreigeteilt. Links zu den Quellen, benötigter Software und allem anderen Wissenswertem befinden sich immer am Ende jedes Artikels. Zudem habe ich Zwecks der Aktualität ein paar Pfadangaben angepasst und werde vielleicht den einen oder anderen Schritt noch kommentieren. Kommentare werden auch als solche gekennzeichnet. Auf Greeneys Inhaltsverzeichnis verzichte ich ebenfalls.

1. Tutorial – Linux mit Grafischer Oberfläche

1.1 Vorbereitungen :idee:  

Als aller Erstes müssen wir die für das weitere Vorgehen benötigte Software installieren (Java Developer Environment und Git).

Anmerkung: Git ist eine Software, die es Softwareentwicklern ermöglicht über ein Serverbasiertes System ihren Quellcode und Dateien zu verwalten und mit anderen Entwicklern auszutauschen. Java JDK oder auch Java Developer Environment erweitert das normale Java um eine Entwicklungsumgebung, diese ist dafür zuständig, daß der Quellcode vom Spigot-Server kompiliert wird.

Um Verwirrung durch mehrere gleichnamige Pakete im Softwarecenter zu vermeiden bevorzuge ich die Installation von Software über das Terminal. All jene, welche das Terminal nicht verwenden wollen, dürfen gerne das entsprechende Paket im Software Center suchen.

Um das Terminal zu öffnen drücken wir unter Anwendungen auf den Eintrag Terminal. Oder wir suchen in der Ubuntu-eigenen Suchfunktion nach dem Wort „terminal“.

Terminal öffnen
Terminal öffnen

1.1.1 System Updaten :yes:  

Sobald sich das Terminal geöffnet hat beginnen wir damit die neusten Packetdefinitionen herunterzuladen, um später die aktuellsten Version der zu installierenden Programmen herunter zu laden.

Um dies zu tun geben wir folgendne Befehl in der Konsole ein:

sudo apt-get update

Nach der Eingabe des Befehls müssen wir das Update mit unserem Passwort bestätigen. Tippt euer Passwort einfach in die Konsole, auch wenn ihr weder Sterne noch sonst etwas in der Konsole sehen könnt.

System Update Linux
System Update Linux

Nach der Eingabe beginnt Ubuntu Damit die Paketliste zu aktualisieren.

1.1.2 Software installieren B-)  

Sobald die Listen aktuell sind und Ihr die Meldung „Fertig“ in der Konsole seht, könnt Ihr mit dem nächsten Schritt vorfahren. Um später Spigot & Co. erstellen zu können, benötigen wir folgende Pakete: git und java-1.7.0-openjdk. Wenn noch keines der beiden Programme auf eurem System installiert ist, können mit folgendem Befehl beide Programme installiert werden.

sudo apt-get install git openjdk-7-jdk

Falls Java (openjdk-7-jdk) bereits installiert ist, könnt Ihr mit folgendem Befehl git installieren.

sudo apt-get install git

Falls git bereits installiert ist, könnt Ihr mit folgendem Befehl Java (openjdk-7-jdk) installieren.

sudo apt-get install openjdk-7-jdk

Falls ihr euch nicht sicher seid, ob ihr schon eines der Programme installiert habt, verwendet den ersten Befehl welcher beides installiert. Falls bereits eines der beiden Programme installiert sein sollte, wird dieses entweder aktualisiert oder übersprungen.

Nachdem beides installiert wurde, könnt ihr die Konsole wieder schliessen oder minimieren.

1.2 Arbeitsverzeichnis erstellen :mail:  

Da Spigot & Co. nun jedes mal kompiliert werden müssen, werden jede Menge Dateien benötigt. Diese müssen zunächst heruntergeladen werden, aus welchen später die .jar Datei gebaut wird. Damit diese nicht euer System zumüllen empfiehlt es sich einen Verzeichnis anzulegen, in welchem alle Dateien gespeichert werden welche benötigt werden.

Ich empfehle hierzu im Home Ordner einen neuen Ordner mit dem Namen MinecraftServer oder Spigot zu erstellen.

Um dies zu tun öffnet den Datei Manager und springt in den Persönlichen Ordner. In diesem Ordner angekommen, könnt Ihr via. Rechtsklick einen neuen Ordner erstellen. In meinem Beispiel nenne ich den Ordner Spigot.

Arbeitsverzeichnisse erstellen
Arbeitsverzeichnisse erstellen

1.3 BuildTools herunterladen :wacko:  

Um die BuildTools herunter zu laden öffnet Ihr euren Internet Browser und lädt folgende Datei herunter: BuildTools.jar Speichert die Datei dabei in eurem zuvor erstellten Ordner ab. Die BuildTools werden benötigt um die Minecraft Server .jar Files zu kompilieren.

Eigenschaften BuildTools
Eigenschaften BuildTools

Als nächstes öffnet Ihr erneut ein Terminal oder verwendet das Terminal vom letzten Mal und navigiert mit dem Befehl

cd Pfad/zum/Ordner

zu eurem zuvor erstellten Ordner. Wenn Ihr nicht sicher seid wie der genaue Pfad zu eurem Ordner lautet, könnt Ihr diesen Herausfinden indem Ihr einen Rechtsklick -> Eigenschaften auf die BuildTools.jar in dem entsprechenden Ordner macht.

Arbeitsverzeichnisse erstellen
Arbeitsverzeichnisse erstellen

Der Befehl könnt wie folgt aussehen:

cd /home/greneey/spigot

1.4 Spigot und Co. Herunterladen und Bauen 😉

Sofern Ihr im letzten Schritt mit dem Terminal in den zuvor erstellten Ordner gewechselt habt, können wir fortfahren, ansonsten müsst Ihr dies zuerst erledigen. Um sicher zu stellen, dass Ihr euch im richtigen Ordner befindet gebt den Befehl ls für List ein. Auf der Konsole sollte nun der Eintrag: BuildTools.jar erscheinen.

Listing Ordnerinhalt
Listing Ordnerinhalt

Nun können wir damit starten alle benötigten Dateien herunterzuladen und die .jar Dateien zu erstellen. Hierzu gebt Ihr folgenden Befehl ein:

java -jar BuildTools.jar

Dieser Befehl startet die BuildTools, welche für uns den Rest übernehmen. Nach Eingabe dieses Befehls wird es zwischen 5 – 15 Minuten dauern und eure .jar Dateien wurden erfolgreich erstellt. Währen dieser Zeit ist es wichtig, dass Ihr weder das Terminal schliesst, noch die Operationen im Terminal abbrecht oder gar den Computer neu startet.

Nach Abschluss des Vorgangs sollte das Terminal in etwa wie folgt aussehen.

Spigot wurde erfolgreich kompiliert
Spigot wurde erfolgreich kompiliert

Nach Abschluss des Building Vorgangs, könnt ihr in eurem zuvor erstellten Arbeitsordner unter: Spigot/Spigot-Server/target die spigot-1.8-R0.1-SNAPSHOT.jar finden, welche eure Server .jar Datei ist. Wie Ihr euren Server starten und konfigurieren könnt solltet ihr ja alle schon wissen :bye:   Have FUN!

1.5 Abkürzung :good:  

Falls euch das Ganze zu kompliziert ist und Ihr mir vertraut könnt Ihr auch folgenden Befehl in der Konsole eingeben, welcher für euch alle hier beschriebenen Schritte automatisch durchführt:

sudo apt-get update && sudo apt-get install git openjdk-7-jdk && mkdir -p ~/minecraftServer && cd ~/minecraftServer && wget -O BuildTools.jar https://hub.spigotmc.org/jenkins/job/BuildTools/lastSuccessfulBuild/artifact/target/BuildTools.jar && java -jar BuildTools.jar

Dieser Befehl erstellt im Home Ordner des aktuell eingeloggten Users einen neuen Ordner mit dem Namen minecraftServer, in welchem alle Dateien abgelegt werden. Zudem startet er alle Vorgänge, die weiter oben im Tutorial gelistet sind.

Hinweise: Falls ihr den Ordner MinecraftServer bereits in eurem Home (~/minecraftServer) besitzt und nicht wollt, dass in diesem die Dateien erstellt werdet, müsst Ihr im Befehl die entsprechenden Pfade bei mkdir und cd anpassen.

1.6 Video Tutorial 😯 

Euch ist das ganze zu kompliziert? Ihr möchtet das ganze zuerst einmal sehen bevor Ihr es durchführt? Hier gibt es ein Video Tutorial, in dem ich das hier beschriebene kurz demonstriere.

[Tutorial] Ubuntu Minecraft 1.8 +【1.9】Bukkit, CraftBukkit & Spigot Update [German]

Links und Quellen:

  1. Tutorial von Greeney – Quelle
  2. Youtube-Kanal von Greeney
  3. BuildTools.jar Download
  4. Spigot Forum – Übernahme von CraftBukkit durch Spigot
  5. SpigotMC.org

Chatten mit Facebook geht auch sicher – Verschlüsselung mit Pidgin

Derzeit steht Facebook vor Gericht, weil private Chatlogs gespeichert und ausgewertet wurden. Ganau genommen wurden über den Haus eigenen Chat verschickte Links ausgewertet um die Beliebtheit dieser in Zahlen zu packen. Damit kann Facebook nun genauer Werbung platzieren – dabei werden bestimmte Firmen bevorzugt und die Privatsphäre der Chatter weiter ausgehöhlt. Wie man Spionage umgehen kann, habe ich im artikel Privates verschlüsselt – Sicher Chatten mit Pidgin letztes Jahr schon einmal beschrieben. Und das geht auch mit Facebook.

Zusammengefasst

In der Regel braucht man nur zwei kostenlose Programme auf Open-Source-Basis. Pidgin und ein Verschlüsselungsplugin namens OTR – Off the Record Messaging. Und man braucht hierfür noch die Facebook-ID. Jeder Nutzer, jede Nutzerin bekommt von Facebook eine zufällig generierte Nummer, mit der man Pidgin sagen kann, wer man auf Facebook auch ist. Die ID von Facebook findet man auf der Seite www.facebook.com/max.muster wobei das Max.Muster durch den eigenen Vornamen und Nachnamen zu ersetzen ist, getrennt durch einen einfachen Punkt. Zum Tragen kommt das Protokoll XMPP, besser bekannt auch als Jabber. Alle genutzten Programme sind noch einmal am Ende des Artikels noch einmal verlinkt.

Warum verschlüsseln?

Bei Privatgesprächen gelten prinzipiell vier Grundsätze, die aus dem realen Leben übernommen worden sind.

Folgenlosigkeit: Wenn der (langlebige) private Schlüssel einem Dritten in die Hände fällt, hat dies keine Auswirkung auf die Kompromittierung bisher getätigter Gespräche: Die Gespräche können damit nicht nachträglich entschlüsselt werden.

Abstreitbarkeit: Verschlüsselte Nachrichten enthalten keine elektronische Signatur. Es ist also möglich, dass jemand Nachrichten nach einer Konversation so fälscht, dass sie von einem selbst zu stammen scheinen. Während eines Gespräches kann der Empfänger aber gewiss sein, dass die empfangenen Nachrichten authentisch und unverändert sind.

Beglaubigung: Man kann sich sicher sein, dass der Empfänger derjenige ist, für den man ihn hält.

Verschlüsselung: Niemand kann die Nachrichten mitlesen, wenn denn der Zeichensalat mitgeschnitten wird, dann erhöht sich der Aufwand um an die Inhalte zu kommen enorm.

Detailiert

Falls noch nicht geschehen, installiert man sich zuerst Pidgin und dann OTR. Sind beide Installiert, müssen noch genutzte Konten hinzugefügt werden, hier ein Facebook-Konto. Die Kontoverwaltung öffnet sich beim allerersten Start von Pidgin, bzw nach einem Klick auf Konten —> Konten verwalten.

Willkommensassistent Pidgin
Willkommensassistent Pidgin

Ein weiterer Klick auf Hinzufügen führt uns zu einem Auswahlmenü, wo wir bei den Protokollen Facebook auswählen. Der Chat vonFacebook fußt auf dem XMPP-Protokoll, bei der Auswahl füllt Facebook schon ein Feld aus, die Domain. Deiese brauchen wir nicht zu ändern. Via Copy and Paste tragen wir nun noch unsere Facebook-ID in das entsprechende Feld ein und weiter unten noch das Passwort. Hier ist das Passwort zu unserem Facebook-Account gemeint. Ein klick auf das Feld Passwor Speichern sichert das Passwort für spätere Logins mit Pidgin.

Pidgin Facebookanmeldung

Jetzt dürfte man schon in der Freundesliste alle Kontakte sehen, die man auf Facebook angesammelt hat. Wenn OTR installiert ist, muß es noch konfiguriert werden, das heißt es muß ein Schlüssel eingerichtet werden und sofern die anderen sogenannten Freunde auch Pidgin nutzen oder zur Verschlüsselung bereit sind, dann ist es ein Kinderspiel, die Gespräche sicherer zu machen.

Man öffnet unter Werkzeuge –> Plugins bei Pidgin eine Liste aller derzeit auf dem Rechner verfügbaren Plugins. Dort wählt man OTR aus.

Installierte Plugins Pidgin Hier sucht man sich das Plugin OTR aus und klickert auf Konfigurieren
Installierte Plugins Pidgin Hier sucht man sich das Plugin OTR aus und klickert auf Konfigurieren

Ein Klick auf Plugin konfigurieren genügt um ins nächste Auswahlfenster zu kommen. Im Drop-Down Menü sucht man sich das Konto für Facebook heraus, ein Klick auf Generieren erstellt neue Schlüssel und Fingerabdrücke für den Chat über Facebook.

Ein Klick auf Generieren erzeugt neue Schlüssel für jedes gewählte Konten.
Ein Klick auf Generieren erzeugt neue Schlüssel für jedes gewählte Konten.

Jetzt hat man Pidgin für die verschlüsselte Kommunikation soweit vorbereitet. Hat der Chatpartner selbst Interesse an. Die folgenden Schritte beschreiben, wie die Schlüssel ausgetauscht werden. Ist das alles einmal erledigt, kann man mit der jenigen Person auch zukünftig verschlüsselt chatten. Jede Person, mit der man einmal verschlüsselt geplaudert hat, braucht in Zukunft nicht mehr für die Verschlüsselung registriert werden. Allerdings erfordern die folgenden Schritte, daß der Chatpartner bereits auch entsprechende verschlüsselungssoftware installiert hat und seine Schlüssel erzeugt hat.

Im Vorfeld sollte man sich mit dem Chatpartner auf einem anderen Weg, beispielsweise per E-Mail, eine kleine Frage samt Antwort vereinbaren. Aus diesen Worten werden für die Zukunft alle neuen Sitzungsschlüssel vereinbart – keine Angst das geschieht bei Gesprächsbeginn voll automatisch. Ist alles Vereinbart müssen sich die Chatpartner nun gegenseitig authentifizieren. Dazu muß man die Antwort auf die Frage wissen. Für die folgenden Schritte habe ich allerdings ältere Screenshots von mir recyelt. Wenn da Jabber oder ein anderes Messengerprotokoll steht, so gilt das natürlich auch für den Facebookchat via Pidgin.

Authentification OTR Pidgin - Vorab muß man sich auf eine FRage und eine passende Antwort verständigen, man kann natürlich auch manuell über einen Sicheren Weg die beiden Schlüssel authentifizeren.
Authentification OTR Pidgin – Vorab muß man sich auf eine FRage und eine passende Antwort verständigen, man kann natürlich auch manuell über einen Sicheren Weg die beiden Schlüssel authentifizeren.

Hier tippt man Frage und Antwort ein, auf die man sich vorher irgendwie verständigt hat. Wenn der Chatpaartner mit der Verifikation begonnen hat, dürfte man selbst nur ein Fenster sehen, wo man nur die Antwort rein schreibt.

Authtentificationsanfrage Pidgin - Der Kommunikationspartner muß antworten, damit die öffentlichen Schlüssel gesichtert ausgetauscht werden können.
Authtentificationsanfrage Pidgin – Der Kommunikationspartner muß antworten, damit die öffentlichen Schlüssel gesichtert ausgetauscht werden können.

Hat man alles richtig getipt, oder eben irgendwo einen Schreibfehler unter gebracht, so sieht man eines der beiden folgenden Fenster.

Authentification war erfolgreich Pidgin - Eine verschlüssselte Verbindung steht
Authentification war erfolgreich Pidgin – Eine verschlüssselte Verbindung steht
Authentification fehlgeschlagen Pidgin - Die Prodzedur mit Frage und Antwort sollte wiederholt werden, da sonst keine verschlüsselte Verbindung zustande kommt
Authentification fehlgeschlagen Pidgin – Die Prodzedur mit Frage und Antwort sollte wiederholt werden, da sonst keine verschlüsselte Verbindung zustande kommt

Fazit

Bei mir und einigen Chatpartnern hat die Einrichtung der gesamten Software und die Verständigung auf Frage und Antwort keine viertel Stunde gedauert. Nutzt man Pidgin bereits mit anderen Protokollen, dann geht das ganze noch schneller von statten. Haben bereits beide die nötige Software installiert braucht man nur noch 2 Minuten für die Verifikation des Gesprächspartners.

In Zeiten der Totalüberwachun, Big Brother und Stasi zwei Punkt null bringt Verschlüsselung einen deutlichen Mehrwert. Die Floskel Ich habe doch nichts zu verbergen ist für jeden die Erlaubnis alles mithören und lesen zu dürfen. Wer sich allerdings selbst schon einmal beobachtet hat, der redet mit Freunden irgendwo in der Öffentlichkeit doch ein bisschen anders, als wenn man nur irgendwo privat gegenüber sitzt. Vielleicht sollte man auch nach den letzten bekannt gewordenen Angriffen auf beliebte Internetdienste (iCloud als Beispiel) und die neuen Nutzungsbedingungen von Facebook (mit denen sich Facebook die Nutzungsrechte an allen Inhalten für Werbung sichert) doch kurz innehalten und überlegen, was man via Internet von sich gibt.

Links

Im Artikel benutzte Programme

  1. Downloadseite OTR – Off the Record Messaging
  2. Download Pidgin – Multimessenger

Weiterführende Lektüre

Verordnete Demenz beim Feuerfuchs

Gestern hat die Mozilla-Foundation zum 10-jährigen Bestehen des Firefox ein kleines Überraschungsupdate mit der Versionsnummer 33.1 herausgebracht. Das bringt anlässlich der eskalierenden Datenspionage ein kleines Schmankerl mit sich. Auf Knopfdruck vergisst Firefox die Chronik der in den letzten 24 Stunden angesuften Seiten. Zum Download steht der aktuelle Firefox für MacOS, Windows und Linux bereit.

Was muß ich dafür tun?

Um den Firefox dafür vorzubereiten brauchts erst einmal nur wenige Handgriffe. Die sind in nicht einmal 2 Minuten erledigt.

1. Dazu klackert man auf die Menüschaltfläche new fx menu

2. Ein Klick auf Schaltfläche Anpassen öffnen bringt uns in einen neuen Tab mit Weiteren Werkzeugen und Funktionen

3. Jetzt zieht man die Schaltfläche Vergessen  forget button gray aus dem Menüteil Weitere Werkzeuge und Funktionen in die Symbolleiste und klicken Sie dann auf Schaltfläche Anpassen abschließen.

4. Will man nun die kürzlich angelegte Chronik löschen klickert man nun auf Vergessen  forget button gray .

5. Es erscheint ein Dialog, in dem man den Zeitraum der Löschung (5 Minuten. 2 Stunden oder 24 Stunden) auswählen kann. Ein Klick auf den roten Knopf läßt Firefox die angefallene Chronik in dieser Zeit vergessen.

Loesch Dialog

Links

Firefox Download

Windows vom USB Stick installieren

Vor ein paar Tagen mußte ich Windows 7 nach einer digitalen Influenza (Virenbefall)  😥 neu aufsetzen. Dabei habe ich festgestellt, daß die Installation von einer DVD aus doch recht lang dauert, fast 45 Minuten bei mir. Also habe ich mich entschlossen, mir einen USB Stick vorzubereiten, um künftige Installationen von diesem aus zu erledigen. Dazu sind nur ein paar Handgriffe zu erledigen, die innerhalb von ein paar Minuten recht fix erledigt sind.

Zutaten :scratch:  

Die Zutatenliste ist recht kurz. Man benötigt einen FAT32 formatierten USB Stick . Hat man nur eine Windowsversion zu installieren, reichen 4 GB aus, mehrere Versionen benötigen dementsprechend auch mehr Platz. Dann benötigt man natürlich ein Original-Installationsmedium für Windows (eine DVD oder ein Image von den Microsoft Downloadseiten) und eventuell noch gültige Lizenzkeys, fals man Windows länger als 30 Tage nutzen möchte. Bei Bedarf muß noch ein Texteditor herhalten (Notepad von Windows genügt) um die Lizenzschlüssel in einer Text-Datei abzulegen. Nutzt man ein halbwegs aktuelles Windows, bringt dieses ein Kommandozeilen-Tool namens Diskpart mit sich. Keine Sorge, das ganze enthält kaum Tipparbeit. Nur 6 Befehle müssen abgearbeitet werden und die kann man schon als Abkürzung eingeben.

Zubereitung :whistle:  

Achtung, der USB Stick wird bei der Vorbereitung gelöscht! Also alle Daten vom Stick zuvor sichern. Um den Stick bei den folgenden Schritten besser identifizieren zu können, kann dieser ruhig mit einem Namen benannt werden, beispielsweise Winstall (abgeleitet von Windows und Installation). Natürlich muß dieser Stick bootfähig gemacht werden, das ist mit ein paar Handgriffen schnell erledigt.

Áls erstes öffnen wir das „Ausführen“-Feld mit der Tastenkombination Windows+R und tippen in das Feld diskpart ein, gefolgt von der Enter-Taste. Damit startet man das Kommandozeilen-Partitionierprogramm von Windows.

Diskpart starten
Diskpart starten

Hat sich die Kommandozeile geöffnet, gibt man ein list disk ein, gefolgt von Enter. In der Ausgabe steht nun eine Tabelle mit verschiedenen Speichermedien, die nun partitioniert werden können. Mein Stick hat in diesem Fall eine Größe von 30 GB gehabt. Also muß natürlich dieser auch ausgewählt werden. Und das geschieht mit select disk 2. Mit detail disk kann man sich noch einmal vergewissern, ob das richtige Medium gewählt ist. Man schaut unter Bezeichnung nach ob das gewählte „Winstall“ steht. Mit dem Befehl clean wird der Stick komplett gelöscht. Ein create partition primary erstellt man eine primäre Partition auf dem Stick, das kann ruhig die gesamte Größe des Sticks sein. Mit active setzt man diese dann auf aktiv und assign gibt dem Stick einen neuen Laufwerksbuchstaben. Letzterer Befehl löst eine erneute Formatierung aus.

Man kann die Befehle natürlich auch abkürzen. Dazu nutzt man die ersten 3 Buchstaben der jeweligen Befehle, also sel dis 2, det dis, cle, cre par pri, act und ass.

Stick Vorbereiten
Stick Vorbereiten

Achtung! Nach dem letzten Diskpart-Befehl wird der Stick noch einmal neu formatiert. Hier sollte man darauf achten, daß dieser mit FAT32 formatiert wird. Als Datenträgerbezeichnung kann man natürlich wieder „Winstall“ vergeben.

Formatierung Fat 32
Formatierung Fat 32

Gut garniert…

Nun braucht nur noch die Software, in dem Fall unser Windows auf den Stick. Entweder kopiert man sich einfach die Image-Datei von den Microsoft-Downloads in das Wurzelverzeichnis, oder man sucht sich alle Windows-DVDs die man daheim herumfliegen hat und kopiert diese jede in ein einzelnes Verzeichnis auf den Stick, natürlich schön beschriftet für die Version und 32 oder 64 Bit-Variante und dergleichen. Nach dem Schema Windows_7_x64_Ultinmate kann man die Ordner mit den verschiedenen Windows-Versionen benennen.

Ist noch genug Platz auf dem Stick, können gleich noch die passenden Installationsprogramme für die benötigten Treiber mit auf den Stick – in einen sparaten Ordner natürlich. Will man Windows länger als 30 Tage nutzen, so brauchts noch die Lizenzschlüssel. Daher legt man sich eine Textdatei (.txt) mit allen benötigten Lizenzkeys ins Wurzelverzeichnis des Sticks. Als Name füer die Textdatei habe ich cdkey.txt gewählt.

… und serviert

Will man eine bestimmte Windowsversion installieren, schiebt man diese vom Ordner Windows_7_x64_Ultinmate ins Wurzelverzeichnis des Sticks. Später kann man diese wieder zurückverschieben und das durch eine andere Version ersetzen.

Kleiner Tipp am Rande: Will man mehrere Windowsinstallationen auf einen Rechner packen, so installiert man immer vom älteren Windows (z.B. Win Vista) zum neueren Windows (z.B. Win8.1). Das neuere Windows erstellt immer einen aktuellen Boot-Loader, in dem man beim Start die gewünschte Version wählen kann.

Geht es an die Installation von Windows, sollte man im BIOS-Setup die Bootreihenfolge ändern, so daß vom Stick direkt gebootet wird. Wie genau das geht ist von rechner zu Rechner unterschiedlich, meist muß beim Start des Rechners eine bestimmte Taste – F2, F8, Entf oder ähnliche – gedrückt werden.

Beim ersten Installationsbedingtem Neustart ist diese allerdings wieder zu ändern und die Festplatte vorn anzustellen, sonst lädt der Rechner wieder die Installations-Runtime wieder vom Stick.

Wird man im Laufe der Installation nach dem Installationskey gefragt, so drückt man Umschalt+F10. In der aufklappenden Kommandozeile gibt man notepad gefolgt von einem Druck auf Enter ein. es öffnet sich das Notepad, mit dem man sich zur Datei cdkey.txt durchhangelt und via Copy and Paste den gewünschten Key in den Setup-Dialog kopiert.

[Update 30. Mai 2016]

Mittlerweile ist ja seit knapp einem Jahr auch Windows 10 auf dem Markt. Erhältlkich ist es kostenlos via Upgrade für Windows 7, Windows 8 und Windows 8.1. Bis Ende Juli gibt es Windows 10 je nach Version des eigenen Windows 7 oder 8 kostenlos. Das Versionskuddelmuddel habe ich im Eintrag mit meinen Windows 10 Erfahrungen erörtert, daher werde ich hier nicht mehr gesondert darauf eingehen.

Kurze Rede, langer Sinn (oder so ähnlich :wacko: ). Mit dem Windows Media Creation Tool lädt man sich ein ISO des aktuellen Windows 10 Build herunter und etpackt das mit 7zip oder einem anderen Packprogramm seiner Wahl. Den Inhalt des Verzeichnisses schiebt man genauso auf seinen USB Stick, wie es mit Windows 7 oder 8 erklärt wurde. Mit dem Windows 7 oder 8.x Lizenzkey, sofern man denn einen besitzt, kann man sogar Windows 10 als Neuinstallation durchlaufen lassen und mit diesem Key aktivieren.

Ansonsten gibt es nur noch zu sagen, daß das Kostenlose Windows 10 Upgrade dann nur auf dem Rechner, der geupgradet wurde gilt. Microsoft sichert einen Hardwarekey auf den Aktivierungsservern. Ändert sich sehr viel Am Rechner, oder kriegt der ein neues Mainboard, dann ist das Upgrade hinfällig.

Viel Spaß mit dem jungfräulichen Windows auf eurem Rechner. :bye:

Links

  1. Windows Media Creation Tool
  2. 7zip

Impressum bei Webseiten – Fragen und Antworten

Dienste-Anbieter haben für geschäftsmäßige, in der Regel gegen Entgelt angebotene Telemedien folgende Informationen leicht erkennbar, unmittelbar erreichbar und ständig verfügbar zu halten.

Genauso stehts im Paragrafen Nummero 5 im deutschen Telemediengesetz. Das allerdings wirft ein paar Fragen auf: Wie ist ein Impressum zu gestalten? Wer hat eins anzubieten? Was muß drinnenstehen? Wie sieht es bei Social Media aus? Das alles wird hier kurz angesprochen. In einem früheren Artikel – Die eigene Webseite und die sozialen Medien – bin ich bereits kurz auf einige Fakten zum Impressum eingegangen. Das möchte ich hier nun noch einmal ein bisschen vertiefen. Allerdings ersetzt diese FAQ keine Beratung durch einen Rechtsanwalt.

Ab wann ist ein Impressum auf einer Webseite nötig?

Das deutsche Telemediengesetz sagt im §5 (TMG §5) besagt „Dienste-Anbieter haben für geschäftsmäßige, in der Regel gegen Entgelt angebotene Telemedien folgende Informationen leicht erkennbar, unmittelbar erreichbar und ständig verfügbar zu halten.“ Nun ist diese Aussage recht ungünstig formuliert. Gegen Entgelt angeboten meint der Gesetzgeber nicht zwangsweise nur Webseites, die man nur gegen eine Gebühr besuchen darf. Viel mehr gilt das für alle Angebote, die in irgend einer Form ein wirtschaftliches Interesse an ihrem Angebot haben. Zu solchen Angeboten gehören Plattformen zum Verkauf von Waren oder Dienstleistungen. Weiterhin fallen unter diese Anbieterkennzeichnungspflicht auch Unternehmenspräsenzen, die nur zur Darstellung einer Firma gehören. Auch wenn man nur eigene oder fremde Produkte bewirbt, dazu Rezensionen schreibt oder Werbebanner schaltet, fällt unter diese Definition.

Werbebanner und andere Werbeformen im Internet dienen dazu, den eigenen Internetauftritt zu Finanzieren. Es wird ein gewisser Ertrag generiert, der steuerlich geltent gemacht werden muß und daraus folgt, daß eine Art kommerzieller Gewinn erzielt wird.

Auf der anderen Seite bestimmt Paragraf 55 des Rundfunkstaatsvertrags (RStV), dass Angebote, die „ausschließlich persönlichen oder familiären Zwecken dienen“, kein Impressum benötigen. Dazu gehören beispielsweise die Fotos vom neuen Katzenbaby, welche man seinen Freunden oder der Familie präsentieren möchte. Ist man aber als Katzenzüchter tätig, ist ein Impressum notwendig.

Diese Wertung gilt auch bei eigenen Blogs oder Internetseiten, wo die eigene Sicht auf die Welt dargestellt wird aber auf Werbung verzichtet wird. Steht die eigene Internetseite irgendwie in Zusammenhang mit dem eigenen Beruf, so weitläufig das auch immer sein mag, dann ist ein Impressum fällig.

Werden durch den Aufbau der Webseite (beispielsweise bei Blogs und Foren) Daten wie e-Mail Adresse oder Nutzerstatistiken erhoben, so ist wiederum ein Impressum mit einer Datenschutzerklärung nötig.

Im Zweifelsfall sollte ein Impressum erstellt werden, um rechtliche Verstrickungen zu vermeiden.

Was gehört denn eigentlich in ein Impressum?

Prinzipiell sind sehr wichtig der voll ausgeschriebene Name und die Postanschrift, unter der man ständig erreichbar ist.

Was zusätzlich noch wichtig ist, hängt vom Betreiber ab. Sind Firmen im Internet vertreten gehören dazu der Firmenname, die Unternehmensform, die Namen der Vertretungsberechtigten, das Handelsregister und die dazugehörige Registernummer. Häufig wird jedoch auch eine Steuernummer angegeben, diese hat auf keinen Fall etwas in der Anbieterkennzeichnung zu suchen. Das Gesetz verlangt dort nur die Umsatzsteueridentifikationsnummer oder die Wirtschafts-Identifikationsnummer.

Grundsätzlich erforderlich sind außerdem noch die Angaben „die eine schnelle elektronische Kontaktaufname und unmittelbare Kommunikation ermöglichen“ – also mindestens eine e-Mail Adresse.

Wo hat das Impressum zu stehen?

Das Impressum muss über maximal zwei Klicks erreichbar sein. Für den Textlink sollten Sie eine eindeutige Bezeichnung wie „Impressum“ oder „Kontakt“ wählen und den Link auf jede Unterseite einbauen. Das gilt übrigens auch bei Seiten für mobile Anwendungen oder Apps. Weiterhin muß der Link zum Impressum auf jeder Seite eines Webauftritts sichtbar sein.

Muß denn auch die Telefonnummer angegeben werden?

Die e-Mail Adresse ist zwingend vorgeschrieben, aber die Telefonnummer wegzulassen macht sich nicht wirklich gut. Der Europäische Gerichtshof (EuGH) hat zwar 2008 entschieden, daß die Telefonnummer keine notwendige Angabe im Impressum ist. Allerdings kommt beim Weglassen der Telefonnummer wieder ein Stolperstein auf den Anwender zu. Nach dem Willen des EuGH muß dann ein Kontaktforumlar angeboten werden, über daß der Werbsite-Betreiber innerhalb von maximal 60 Minuten erreichbar ist. Solche Fristen sind in der Praxis oftmals recht unrealistisch, daher sollte man nicht ausschließlich auf Kontaktforumlare setzen. Für Online-Händler gilt seit Mitte 2014 gdenrell die Pflicht , die Telefonnummer mitzuteilen (Artikel 246 Pragraf 1 EGBGB).

Wird auf meinen Social-Media-Angeboten wie einer Facebook-Seite ein Impressum benötigt?

Hier gelten genau die selben Pflichten wie für andere Internetangebote auch. Laut Tlelemediengesetz ist auch der Betreiber einer Seite bei Facebook, Shop-Präsenzen auf Plattformen wie eBay oder Amazon verpflichtet ein Impressum gut sichtbar zu verlinken. Gerade dort trudeln häufig Abmahnungen wegen fehlerhaftem oder fehlendem Impressum ein. Hier gilt auch wieder: Geschäftliche Angebote benötigen ein korrektes Impressum, private Seiten sind dazu nicht verpflichtet.

Was passiert, wenn auf ein Impressum bewußt verzichtet wird oder Angaben im Impressum fehlen?

Juristisch gesehen ist ein fehlerhaftes oder fehlendes Impressum ein Wettbewerbsverstoß, durch den sich der Anbieter einen Vorteil im geschäftlichen Verkehr beschafft. Beispielsweise kann ein Händler durch weglassen einer Mail-Adresse eine Reklamation zu einem Produkt entgehen. Ein Mitbewerber kann den Händler deshalb über einen Anwalt abmahnen lassen. Wenn eine solche Abmahnung berechtigt ist, entstehen Kosten von 500 Euro und mehr im Raum.

Ein vorsetzlicher oder ein fahrlässiger Verstoß gegen die Vorgaben des Telemediengesetzes stellt sogar eine Ordnungswidrigkeit dar, die die Aufsichtsbehördem bei nicht richtigen oder vollständig verfügbaren Angaben mit Geldbußen von bis zu 50000 Euronen abstrafen. Aber im Gegensatz zu Abmahnungen sind solche Strafen zur Zeit noch ungewöhnlich.

Was ist mit Statistiktools wie Google Analytics oder Social Media Buttons und Cookies?

Neben den allgemeinen Anbieterdaten empfiehlt es sich – nein es ist dringend Notwendig – eine Datenschutzerklärung bereit zustellen. Diese hat alle relevanten Informationen zum Einsatz von Cookies zu enthalten. Darüber Hinaus müssen beim Einsatz von Social-Media-Buttons die jeweiligen Anbieter davon ausgewiesen sein und daß diese auch Informationen wie IP-Adresse oder die Softwarekonfiguration des Rechners ermitteln.

Nutzt man Google-Analytics sollte man den umfangreichen Informationstext integrieren, den der Suchmaschinenbetreiber Google anbietet.

Kleinere Webseites und Unternehmen können dieser Pflicht schon im Impressum nachkommen und haben das natürlich dann auch dementsprechend schon im Link auszuweisen.

Wer eine umfangreiche Privacy-Policy bereit hält hat dies unter einem Separaten Bereich mit eigenem Link dazu bereitzuhalten. Beschrieben sollte der mit Datenschutzerklärung werden.

Gibt es auch im Internet Hilfe ein Konformes Impressum zu erstellen?

Diese gibt es auf den Webseiten verschiedener Anwaltskanzleien. Dort wird die Unternehmensform abgefragt und jenachdem dazugehörige Informationen, aus denen ein Impressum erzeugt wird.

WordPress – Mehrere Zeilenumbrüche erzwingen

Bei einem der letzten Artikel ist mir aufgefallen, daß WordPress und der Standard-Editor von eben jenem Blogsystem manuell eingefügte, zusätzliche Leerzeilen einfach ignoriert und das br-Tag einfach übergeht. Ärgerlich ist dieses Verhalten, will man einen Blog-Artikel mit Bildern garnieren, deren Größe ein wenig über einen Absatz hinaus ragt und man zum nächsten Absatz vielleicht noch ein oder zwei Leerzeilen benötigt, damit alles – Text und Bild – exakt positioniert werden werden können. Einfach gehts mit einem einfachen Code-Schnippsel, welches man beliebig oft zwischen die Textzeilen einfügen kann um mehrere Leerzeilen zu erzwingen.

<br class="clear" />

Windows 7 – Defekte Programm Icons

Iconecache Fehler
Iconecache Fehler

Bei meinem 64-bittigem Windows 7 Ultimate trat kürzlich ein recht nerviges Problem auf. Mehrere Programmsymbole wurden fehlerhaft dargestellt. Gezeigt wurden nur weiße Flächen im Startmenü und auf der Taskleiste. Schuld daran war eine defekte IconCache.db unter Appdata. Wie es zu reparieren ist, zeige ich hier. Insgesamt gibt es mehrere verschiedene Ansatzpunkte dafür, um diese Datei zu reparieren.




Variante 1: Geklicker im Windows Explorer

Diese Variante geht schnell, hält aber wahrscheinlich nur bis zum nächsten Neustart von Windows an. In diesem Fall müsste die IconCache.db erneut gelöscht werden oder ein neuer Wert in der Registry eingestellt werden. Mehr dazu siehe ganz unten.

  1. Öffnet euren Windows Explorer

  2. Über das Menü Extras öffnet ihr die Ordneroptionen. Im Reiter Ansicht aktiviert ihr „Ausgeblendete Dateien, Ordner und Laufwerke“ anzeigen.
  3. Ordneroptionen
    Ordneroptionen
  4. Dann navigiert ihr zum Pfad: C:\Benutzer\Name\AppData\Local hindurch. Dort löscht ihr einfach die Datei IconCace.db – Alternativ kann man auch ein %appdata% im Suchfeld des Starmenüs eingeben.

  5. Anschließend startet ihr euren Rechner neu.


Variante 2: Geklimper auf der Konsole

Etwas komplexer ist die Variante über die Konsole. Diese Anleitung ist der vorhergehenden vorzuziehen, weil der Explorer dabei abgeschaltet wurde.

  1. Mit einem Rechklick auf die Taskleiste und einem Klick auf Taskmanager öffnen öffnet man diesen auch.

  2. Klackert einmal mit der linken Maustaste auf den Reiter „Prozesse“ und sucht in der Liste den Eintrag explorer.exe (Windows 7)

  3. Task Manager Prozesse
    Task Manager Prozesse


  4. Es folgt ein weiterer Klick auf Prozess beenden, dann wird der Explorer geschlossen. Nicht erschrecken, die Taskleiste verschwindet, der Taskmanager bleibt aber geöffnet, den brauchen wir später noch.

  5. Im Reiter Anwendungen (bei Windows 7) wird jetzt ein neuer Task geöffnet. In die aufklappende Leiste wird CMD.exe eingetippt und mit Enter bestätigt. Nun öffnet sich eine Konsole (bei Windows 8 ein Klick auf Neue Aufgabe ausführen im Menü Datei des Takmanagers)

  6. Neuer Task - Startbefehl eingeben
    Neuer Task – Startbefehl eingeben


  7. In der Konsole geben wir zweimal cd.. ein jedes Mal gefolgt von einem Druck auf die Entertaste.

  8. Nun wird CD /d %userprofile%\AppData\Local eingetippt, gefolgt von einem Enter (vor und nach dem /d ist jeweils ein Leerzeichen zu setzen).

  9. Jetzt gibt man DEL IconCache.db /a gefolgt von einem Druck auf Enter ein. Ein Leerzeichen zwischen .db und /a nicht vergessen!

  10. Zu guter Letzt tipselt man Exit ein und drückt erneut sehr liebevoll die Entertaste.

  11. Nun muß der Explorer wieder gestartet werden. Im Taskmanager geht man auf den Reiter Anwendungen und auf Neuer Task (Windows 7). (bei Windows 8 ein Klick auf Neue Aufgabe ausführen im Menü Datei des Takmanagers)

  12. In der erscheinenden Zeile gibt man dann noch ein explorer.exe gefolgt von einem Druck auf Enter ein.



Nun dürfte Windows alle Icons wieder normal anzeigen. Diesen Prozess kann man auch mit einer Batch-Datei automatisieren

Variante 3: Anklickbare Automatismen

Hier erstellt man eine Batch-Datei die den unter Variante 2 beschriebenen Prozess automatisiert. Eine elegante Lösung, aber mir ist schon zu Ohren gekommen, daß diese auch nicht immer von dauerhafter Natur ist. Also die Batch-Datei gut aufheben.

  • Einen Texteditor (zum Beispiel Notepad) öffnen [Kein Wordpad oder Word – Anmerkung der Redaktion]
  • Die folgenden dort hinein schreiben – oder auch kopieren – Dabei sind allerdings auf die Leerzeichen vor den Schrägstrichen zu achten.
@echo off
taskkill /f /IM explorer.exe
CD /d %userprofile%\AppData\Local
DEL IconCache.db /a
Start explorer.exe
  • Danach speichert man die Datei als IconCache.txt ab.
  • Nun muß diese Datei umbenannt werden und zwar in IconCache.bat
  • Nachdem diese Datei steht, kann man diese mit einem Doppelklick ausführen.

Variante 4: Farbveränderungen

Eine letzte Möglichkeit besteht noch darin, die angezeigte Farbtiefe von 32-Bit auf 16-Bit abzusenken und schließlich wieder anzuheben. Dauerhafter Erfolg ist nicht garantiert.

  1. Mit der rechten Maustaste wird auf dem Desktop ein Kontexmenü geöffnet und dann die Bildschirmauflösung (mit links) angeklickert
  2. Desktop Bildschirmaufloesung
    Desktop Bildschirmaufloesung
  3. Im sich nun öffnendem Fenster klackert man auf Erweiterte Einstellungen

  4. Es öffnet sich erneut ein Fenster und man öffnet den Reiter Monitor
  5. Erweitere Einstellungen - Monitoreinstellungen
    Erweitere Einstellungen – Monitoreinstellungen
  6. Dort setzt man im Drop-Down Menü unter die Farbtiefe auf High Color 16 Bit. Das Ganze bestätigt man mit einem Klick auf Übernehmen. Eventuell will Windows noch wissen, ob man diese Einstellung dauerhaft beibehalten will, das kann man mit Ja beantworten.

  7. Nun gehts wieder zurück. Man wähle True Color 32 Bit aus und bestätigt das Ganze mit Übernehmen und einem Klick auf Ja bei Einstellungen beibehalten.

Zusatztip: IconCache erhöhen

Sollte Windows die Icons nach Änderungen am System (durch Softwareinstallationen oder Updates) oder einem Neustart wieder falsch anzeigen, kann man noch versuchen, den IconCache zu erhöhen. Dazu ist ein kleiner Registry-Hack notwendig.

  1. Startmenü öffnen und regedit ins Suchfeld schreiben, gefolgt von Enter.

  2. Mit der rechten Maustaste auf regedit.exe klickern und im aufklappendem Menü Als Admin starten

  3. Zum Pfad KEY_LOCAL_MACHINE/Software/Microsoft/Windows/CurrentVersion/Explorer navigieren. Das geschieht durch Klick auf die Pfeile vor den Ordnersymbolen
  4. Registry Pfad zum Explorer
    Registry Pfad zum Explorer
  5. Im Menü Bearbeiten auf Neu und Zeichenfolge klicken. Das Wort Neuer Wert wird durch Max Cached Icons geändert.

  6. Ein Rechtsklick auf das neu entstandene Feld und ein Linksklick auf Ändern öffnet eine Eingabezeile. Dort tippselt man 4096 ein.
  7. Registry - Iconcache Wert einstellen
    Registry – Iconcache Wert einstellen
  8. Ein Klick auf Okay legt diesen Wert fest. Löscht man diese Zeile wieder, so setzt Windows den voreingestellten Wert von 500.

  9. Die Registry-Änderung wird erst nach einem Neustart wirksam.

Problem gelöst – 3 Stunden Zittern um den Blog der Medienspürnase

Sonntag der Dreizehnte, aber angefühlt hat sich dieser Tag heute wie ein Freitag der Dreizehnte. Ganze 3 Stunden war auf Grund eines fehlerhaften Plugins Die Medienspürnase Down (neudeutsch für nicht erreichbar).

Was war geschehen?

Ich habe testweise in der vergangenen Nacht ein Plugin installiert, welches automatisch in festgelegten Intervallen Backups vom Blog und der Datenbank des Blogs installiert. Beim Backup heute Mittag hat mir das besagte Plugin auf Grund einer von mir falsch gesetzten Einstellung die Blog-Datenbank schwer bechädigt. In dieser Datenbank werden neben den Blogartikeln auch Kommentare, Links, Tags und vieles mehr von WordPress verwaltet.

Zum Glück bin ich ein vorsichtiger Mensch und ziehe regelmäßig per Hand Backups von meinem Blog – Datenbank und Medienordner – und zusätzlich dazu vor jedem Test von Plugins. Genauso auch gestern Abend. Dazu bin ich bei meinem Webspaceprovider den PHPmyAdmin, also die grafische Datenbankverwaltung, aufgerufen und mit der Exportfunktion die Datenbank lokal auf meinem Computer gesichert. Soweit zum Backup der entsprechenden Daten.

Heute Mittag gab es dann beim automatischen Backup einige Fehlermeldungen, nach denen die Medienspürnase nicht mehr funktionsfähig war. Also habe ich mir die Backups von gestern Abend herausgekramt und die Mediafiles auf den Webspace geschoben. Beim Import der Datenbank gab es allerdings Probleme, denn im Backup standen Anweisungen, die nicht zur MySQL-Version (MySQL steht für ein Datenbankverwaltungssystem) meines Providers gepasst haben. Folgender Code

INSERT DELAYED IGNORE INTO

mußte in

INSERT IGNORE INTO

geändert werden. Das habe ich das Backup der Blog-Datenbank, also die datenbank.sql mit einem Texteditor, dem Notepadd++ geöffnet und mittels automatischem Ersetzen diese Zeilen geändert. Bis der Fehler gefunden war, gabs allerdings fast 3 Stunden Fehlersuche und Bastelei um den Blog wieder zum Laufen zu kriegen.

Fals euch das einmal passieren sollte, könnt ihr das hier gleich als Lösung für dieses problem betrachten.

Word 2013 – Bloggerparadies

Seit einigen Wochen ist Word 2013 ein Softwarebestandteil meines Computersystems, ich berichtete im April bereits über meine ersten Eindrücke über Microsofts Office-Paket. Seit Word Version 2007 ist es grundsätzlich möglich, direkt aus dem Redmonter Schreibprogramm heraus im eigenen Blog einen Artikel zu schreiben. Dazu sind nur ein paar kleine Handgriffe nötig. Was genau zu tun ist, beschreibe ich hier.

Gehen wir davon aus, daß Word bereits auf dem Computer installiert ist und gestartet ist. Gleich beim ersten Fenster, dort wo man sich eine voreingestellte Formatvorlage auswählen kann, klackert man mit der linken Maustaste auf Blogbeitrag und im aufklappenden Fenster auf die etwas kleinere Schaltfläche Erstellen.

Word 2013 - Blogbeitrag Formatvorlage wählen
Word 2013 – Blogbeitrag Formatvorlage wählen
Word 2013 - Blogbeitrag erstellen
Word 2013 – Blogbeitrag erstellen

Hat man die entsprechende Formatvorlage geöffnet (eine kurzzeitige Internetverbindung ist nötig, um diese von den Microsoft-Servern zu erhalten) muß man nun seinen Blog registrieren. Mit WordPress geht das am allereinfachsten, es bedarf hier keinen Eingriff mehr ins Blogsystem, da WordPress schon alle nötigen Vorraussetzungen in der Standardinstallation mit sich bring.

Word 2013 - Blog registrieren
Word 2013 – Blog registrieren

Jetzt muß muß das benutzte Blogsystem ausgesucht werden. Das ist wichtig, weil Word bereits einige kleine, aber entscheidende Dinge voreinstellt. Aber dazu später mehr. Im Fall von WordPress, wird eben jenes ausgewählt. Das geschieht über das Drop-Down Menü. welches im kommenden Screen angezeigt wird.

Blogsystem waehlen

Im nächsten Schritt ist es wichtig, daß man die korekte Domain angibt und dazu hinter einem Schrägstrich nach rechts folgenden Eintrag hinzufügt: /xmlrpc.php fals Word das nicht automatisch erledigen sollte. Insgesamt sollte dann dastehen http://beispieldomain.de/xmlrpc.php. Beispieldomain.de ist natürlich durch eigene existierende Einträge zu ersetzen. Das nächste Bild erläutert das optisch noch einmal. Benutzernamen und Kennwort sind wichtig, weil Word geschriebene Beiträge und Bilder im Blog ablegen muß und dazu brauchts eine funktionierende Anmeldung.

Word 2013 - Blog registrieren
Word 2013 – Blog registrieren

Ist das alles erledigt, öffnet Word den eigenen Texteditor. Das Menüband (Ribbons) oben präsentiert sich beim Bloggen nun etwas sparsamer. Es enthält nur die wichtigsten Funktionen, die man beim Schreiben fürs Internet und den eigenen Blog benötigt. Dazu gehören ersteinmal die grundlegenden Schriftformatierungen (Schriftart, – größe, Ausrichtung und Schriftsatz wie Fett, Kursiv und unterstrichen), weiterhin Formatvorlagen für das Layout und dazu noch einige Blogfunktionen, wie das Verschlagworten von Artikeln, das Generieren und Hinzufügen von Kategorien und ein großer Knopf zum Veröffentlichen von Beiträgen. Weiterhin kann man bereits geschriebene Artikel und Artikelentwürfe verwalten. Ein weiteres Menüband erledigt das Hinzufügen von Bildern, Wordarts und Tabellen. Eine Rechtschreibekontrolle darf natürlich nicht fehlen. Das ganze untergliedert sich in nur zwei Menübänder, den Rest läßt Word außen vor, weil dieser im Fall eines Bloggs nicht benötigt wird.

Blogbeitraege verfassen und bearbeiten
Blogbeitraege verfassen und bearbeiten

Bilder werden automatisch áuf den Webspace übertragen und in die zugehörigen Ordner des Blogsystems übertragen. Bei WordPress ist das der Ordner WP-Content

Fazit

Word 2013 macht es dem geneigten Blogger leicht seine Beiträge zu verfassen und entsprechend zu gestalten. Zur Standardinstallation von Word muß nichts weiter installiert werden und bei den meisten Blogsystemen muß auch nichts mehr herumgefriemelt werden, damit man beides verbinden kann. Die Einrichtung von Word ist innerhalb von 2 Minuten erledigt, schon kann man mit dem Bloggen, Ideen immer vorrausgesetzt, loslegen. Auf Wunsch verwaltet Word sogar mehr als einen Blog. Man muß nur an die Ribbons gewöhnt sein. Dieses Tutorial funktioniert ab Word 2007.

Links

  1. Angetestet – MS Office 2013
  2. Erfahrungen mit MS Office 2013

Günstige Lektüre für den Urlaub – Der Buchexport von Wikipedia

Die Urlaubszeit steht vor der Tür und das lang ersehnte Buch für den Strand ist beim Buchhändler oder beim Verlag noch nicht verfügbar, oder eben doch zu Teuer für due magere Urlaubskasse. Fliegt man ins Ausland, so darf das Gepäck nicht zu schwer werden. Da bleiben noch E-Books für Tablett, Reader oder Smartphones und die kosten auch Geld. Kostenlos gehts bei der Wikipedia und in quasi unbegrenzter Länge und Seitenzahl. Wie das geht, steht hier im Artikel.

Die Buchfunktion bei der Wikipedia ist noch recht selten genutzt, doch es gibt sie und man kann damit praktisch die gesamte Enzyklopädie für sein Tablet oder E-Book Reader aufbereiten. Dazu muß im Menü am linken Rand bei Drucken/Exportieren der Befehl Buch erstellen angeklickert werden.

Exportfunktion auswaehlen

Im nächsten Screen einfach Die Buchfunktion starten. Das geschieht durch den Klick auf den grünen Button

Buchfunktion Starten - Quelle Wikipedia
Buchfunktion Starten – Quelle Wikipedia

Jetzt kann man nach herzenslust auf der Wikipedia stöbern. Gefällt ein Artikel, dann kann man diesen am oberen Ende durch ein Klick auf Diese Seite dem Buch hinzufügen ins Buch aufnehmen. Will man mehrere Seiten zu einem bestimmten Thema aufnehmen, schaut man ob man dazu eine Kategorie findet (Wikipedia geht automatisch bis zu 500 Artikeln mit, mehr Artikel müssen dann noch einzeln hinzugefügt werden). Ist man in dieser, reicht ein Klick auf Alle Seiten der Kategorie ins Buch aufnehmen und schon landen alle Artikel im Buch. Bei Nichtgefallen kann man einzelne Artikel natürlich wieder aus dem Buch streichen.

Gesamte Kategorie ins Buch aufnehmen - Quelle Wikipedia
Gesamte Kategorie ins Buch aufnehmen – Quelle Wikipedia
Seite ins Buch aufnehmen - Quelle Wikipedia
Seite ins Buch aufnehmen – Quelle Wikipedia
Seite aus Buch entfernen - Quelle Wikipedia
Seite aus Buch entfernen – Quelle Wikipedia

Ist man mit dem zusammensuchen der Seiten fertig, oder möchte man zwischendurch alle aufgenommenen Artikel in eine Bestimmte Reihenfolge sortieren, so ist die Buchverwaltung da. Sie ermöglicht auch die letzten Feinarbeiten am erstellten Buch, beispielsweise Titel und Untertitel, Inhaltsverzeichnisse anlegen oder die Seitengröße anpassen – dazu stehen A4 und der amerikanische Standard Letter zur Verfügung. Für Tablat, Computer und Co. stehen nun verschiedene Formate zur Verfügung: Das herkömmliche PDF, das quelloffene Format epub sowie das weiterverarbeitbare Textdateinformat odt und OpenZim, welches Inhalte von Wikis zum offline arbeiten speichert.

Buchverwaltung - Quelle Wikipedia
Buchverwaltung – Quelle Wikipedia

Insgesamt bietet Wikipedia vier Exportformate für E-Books an. Zum einen das klassische PDF, welches auf jeder Plattform zu lesen ist. Weiterhin kann man sein Buch auch im Open Document Format mit dem kürzel .odt. Das ist das gängige Format von Open-Source Büropaketen wie LibreOffice und OpenOffice. Epub ist ein weiteres Format, basierend auf HTML, XML und diversen anderen Scriptsprachen. Das bietet im Gegensatz zum PDF oder Open Document Format ein recht flexibles Layout, welches sich an die Bildschirmgröße des Ausgabegerätes, beispielsweise Tablett oder Smartphone anpasst. Zu guter Letzt bietet die Buchfunktion der Wikipedia noch an, die Artikel im Zim-Format zu speichern. Das ist im Prinzip nur eine Art Datenbank für ein lokales Desktopwiki.

Hat man sich ein Format ausgewählt, so klackert man auf Herunterladen und schon erstellt der Buchgenerator der Wikipedia das Buch aus den gewünschten Seiten. Das dauert je nach Anzahl der Seiten und Artikel unterschiedlich lang. Im Endeffekt hat man das Buch dann im gewünschten Format bei sich auf dem Computer oder Tablett liegen und kann diese Dateien auch beliebig tauschen… und das völlig kostenlos. Man braucht nur dazu die entsprechenden Programme um das gewünschte Dateiformat anzuzeigen und die gibts zu großen Haufen im Internet für jedes beliebige Betriebssystem.

Wikipedia bietet noch ein besonderes Schmankerl: Das eigens aus Wikipedia-Artikeln erstellte Buch kann man auch bei PediaPress als eine Art Unikat drucken lassen, das kostet natürlich je nach Seitenzahl, Farb- oder Schwarzweißdruck und weitere Ausstattung natürlich Geld und das nicht zu wenig.

Fazit

Wikipedia liefert eine Menge interessanten Lesestoff und das kostenlos. Allerdings sollte man das vom heimischen Internetanschluss tun, denn mobil und im Ausland kann das schon etwas mehr Geld kosten, als daheim vom Computer aus. Etwas friemelig wirds vom Tablett oder Smartphone aus, so richtig bequem gehts vom eigenen Computer. Die entstandenen Dateien kann man per Netzwerk von einem Endgerät aufs andere schaufeln.

Insgesamt bieten die beiden Formate PDF und Epub, die besten Ergebnisse nach der erstellung des Lieblingsbuches. PDF ist vom Layout recht starr, man kann es durch seine Plattformunabhängigkeit auch gut auf verschiedenen Geräten anschauen. Man braucht dafür nur einen PDF Viewer. Auch ein Epub kann man gut auf unterschiedlichen Betriebssystemen und Mobilgeräten lesen, braucht man dazu allerdings ersteinmal eine speziellere Software um diese zu öffnen. Generell findet sich aber dazu auch einiges im Internet zum Download.

Das Opendocumentformat für LibreOffice und OpenOffice hat das schlechteste Layout. Hier muß man allerdings noch von Hand nachhelfen und selbst einige Anpassungen vornehmen. Dafür bietet es allerdings eine recht gute Ausgangsbasis zur Konvertierung in andere Dateiformate. Weiterhin kann man hier auch recht leicht ohne große Spezialsoftware noch die Inhalte selbst ein bisschen Anpassen und dem ganzen Layout eigene Strukturen aufdiktieren.

Privates verschlüsselt – Sicher Chatten mit Pidgin

Immer häufiger kommen in verschiedenen Internetforen Fragen auf, wie man am Besten seine Kommunikation im Internet verschlüsseln kann. Das hat sicherlich mit der NSA Spähaffäre zu tun, die immer gewaltiger(er)e Ausmaße annimmt. Leider gibt es für das Verschlüsseln kein allgemeingültiges Patentrezept und keine praktikablen Lösungen für Jedermann, die zudem noch systemweit (auf dem eigenen Rechner) sämtliche Kommunikation verschlüsselt. So muß jedes Programm zur digitalen Kommunikation einzeln irgendwie abgesichert werden. Daher bedeutet Verschlüsselung immer noch einiges an Grundwissen, die richtige Software und Geduld beim Einrichten eben dieser. Auch ist Disziplin gefragt. Fakt ist: Es artet ganz schnell in Arbeit aus. Daher beschäftigt sich dieser Artikel mit der Verschlüsselung von Privatgetippsel über verschiedene Instantmessenger.

Instantmessenger, was ist das?

Instantmessenger sind kleine Zusatzprogramme zum Chatten und Versenden von Sofortnachrichten in verschiedenen Längen. Hierfür haben sich mittlerweile viele Protokolle etabliert, man nehme beispielsweise ICQ, XMPP/Jabber, Yahoo oder Skype. In diesen Messengern werden Kommunikationspartner abgelegt, verwaltet und man kann am eigenen Bildschirm sehen, wer Online ist und wer nicht. Ist jemand Online, kann man dieser Person über ein Chatfenster eine Nachricht zukommen lassen, die ohne Zeitverzug bei ihm/ihr auch angezeigt wird. Der Begriff Peer-to-Peer (P2P) trifft es daher recht gut. Textnachrichten werden je nach genutztem Protokoll entweder direkt zum Gegenüber geroutet oder nehmen einen Umweg über die Server des jeweiligen Diensteanbieters.

Die einzelnen Dienste weisen jedem Benutzer eine eigene Adresse zu, die wie die Postanschrift im Heimatort wirkt. Mit dieser Adresse und einem Passwort kann sich der jeweilige Nutzer authentifizieren. Die eigene Adresse tauscht man mit anderen Personen meist auf anderem Wege aus und erlaubt somit den anderen Nutzern seinen Status (Online oder Offline) anzuzeigen.

Instantmessenger gibt es wie Sand am Meer, zu jedem Protokoll gibt es mindestens eines, welches die Entwickler des Protokolls herausgeben. Nutzt man mehrere dieser Protokolle, kommen aus Gründen des eigenen Komforts oder der eigenen Systemressourcen Multimessenger zum Einsatz. Eine Open-Source Alternative ist beispielsweise Pidgin. Diese Multimessenger vereinen mehrere (oder alle) dieser Protokolle unter einem Dach, so daß man nicht für jedes Protokoll einen anderen Messenger benötigt.

Wie Funktioniert eine Verschlüsselung?

Alice möchte Bob eine Nachricht über einen Messenger schreiben. Nun kann sich jeder Neugierige zwischen den Beiden einklinken und Alices Nachricht mitlesen oder sogar verändern.

Daher einigen Alice und Bob sich darauf, ihre Kommunikation zu verschlüsseln. Dazu generiert Alice an ihrem eigenen Computer ein Schlüsselpaar aus einem öffentlichen Schlüssel und einem geheimen, privaten Schlüssel.

Bob tut das gleiche an seinem Computer. Jeder besitzt also einen privaten Schlüssel, der bei jedem selbst bleibt. Die öffentlichen Schlüssel werden nun zwischen Bob und Alice ausgetauscht. Ohne beide Schlüsselpaare können neugiereige Mitleser nur Zeichensalat empfangen.

Jetzt möchte Alice eine verschlüsselte Nachricht an Bob schicken. Für diesen Brief kramt sie Bobs öffentlichen Schlüssel heraus, dazu ihren eigenen geheimen Schlüssel, den nur sie persönlich kennt. Mit dieser Kombination verschlüsselt sie ihre geheime Nachricht und schickt diese an Bob.

Kurze Zeit später bekommt Bob die Nachricht und sieht ersteinmal nur Zeichensalat, denn die Nachricht ist ja codiert. Nun braucht er Alices öffentlichen Schlüssel und seinen geheimen Schlüssel um den Zeichensalat zu entziffern.

Kurz gesagt: Wenn ich eine Nachricht verschlüsseln möchte, brauche ich eine Kombination aus meinem eigenen, nur mir bekanntem Privatschlüssel und dem öffentlichen Schlüssel des Kommunikationspartners. Beim Entziffern läuft das faktisch genauso ab, nur irgendwie anders und umgekehrt.

Asymmetrische Verschlüsselung
Asymmetrische Verschlüsselung

Nun das ist die vereinfachte Form der Verschlüsselung. Beim Chatten via Instant-Messenger gibt es allerdings noch ein paar weitere Punkte zu beachten, da diese Form der Kommunikation prinzipiell so zu behandeln ist wie ein Gespräch unter vier Augen. Folgende Punkte müssen gewährleistet seit:

  1. Verschlüsselung – Niemand kann die Nachrichten mitlesen.
  2. Beglaubigung – Man kann sich sicher sein, dass der Empfänger derjenige ist, für den man ihn hält.
  3. Abstreitbarkeit – Verschlüsselte Nachrichten enthalten keine elektronische Signatur. Es ist also möglich, dass jemand Nachrichten nach einer Konversation so fälscht, dass sie von einem selbst zu stammen scheinen. Während eines Gespräches kann der Empfänger aber gewiss sein, dass die empfangenen Nachrichten authentisch und unverändert sind.
  4. Folgenlosigkeit – Wenn der (langlebige) private Schlüssel einem Dritten in die Hände fällt, hat dies keine Auswirkung auf die Kompromittierung bisher getätigter Gespräche: Die Gespräche können damit nicht nachträglich entschlüsselt werden.

Das kompliziert das oben beschrieben Verfahren natürlich um Einiges. Insgesamt werden hier mehrere, sehr kurzlebige Schlüssel aus den privat generierten und getauschten Daten generiert, so daß die eben genannten Faktoren eingehalten bleiben. Mehr dazu gibts bei der Wikipedia zu lesen, wer denn nach OTR – Off the Record Messenging sucht. Verschlüsselt wird hier nach Diffie-Hellmann

Warum denn so kompliziert?

Jedes Schlüsselpaar wird aus je zwei Zeichenkolonnen erstellt. Der öffentliche Schlüssel, der an andere User ausgegeben wird, darf keine Rückschlüsse auf den privaten und geheimen Schlüssel erlauben. Zudem ist das bisher noch die sicherste Methode um Mails und Kurznachrichten zu verschlüsseln.

Messenger und Chat-Protokolle sind per Default (also in den Grundeinstellungen) zudem nicht für Verschlüsselung eingestellt. Bei den massiven Lauschattacken gegen die kommunikative Freiheit ist es wichtig, für ein Stückchen Sicherheit zu sorgen.

Die Regeln, die im öffentlichen Leben auf der Straße gelten, sind im Internet genauso gültig. Niemand würde vertrauliche Informationen im direkten Gespräch von Nachbar zu Nachbar quer über die Straße brüllen. Man trifft sich dazu an einem ungestörten Ort, wo man sich dazu austauscht. Bei E-Mails und Chatnachrichten ist Vertraulichkeit genauso anzuwenden wie bei einem privaten Gespräch. Es muß nicht jeder alles mithören oder mitlesen können, denn unter Beobachtung sagt und schreibt man doch einiges nicht oder anders, als wenn man privat miteinander redet oder schreibt.

Wie kann ich meine Instantmesseges denn nun am Besten Verschlüsseln?

Wir benötigen ein halbwegs aktuelles Windows (ab Vista und aufwärts) oder Linux, dazu den aktuellen Multimessenger Pidgin und das Plugin OTR – Off-the-Record Messaging. Getestet habe ich das bisher nur unter Windows.

Für die meisten Distributionen von Linux dürfte Pidgin in den Hauptrepositories der jeweiligen Distribution liegen. Das Plugin OTR – Off-the-Record Messaging bekommt man ebenfalls über den Paketmanager. Für Linux heißt das Paket für das Plugin pidgin-otr. Beides installiert man oder holt sich die jeweiligen Pakete von der Entwicklerseite und kompiliert diese sich.

Folgende Schritte habe ich unter Windows erledigt, dürften aber unter Linux ähnlich sein. Ich gehe davon aus, daß der geneigte Leser bereits schon bei irgendeinem beliebigen Dienst das eine oder andere Konto hat. Wie das für die einzelnen Dienste anzulegen ist, würde den Rahmen hier sprengen. Daher gehe ich nur darauf ein, wie man seine Accounts in Pidgin anlegt.

  1. Pidgin downloaden. Unter Linux schaut man im Paketmanager nach, ob da Pidgin vorhanden ist, anonsten kompiliert man sich Pidgin.
  2. Jetzt installiert man sich Pidgin, dazu folgt man den Anweisungen auf dem Bildschirm.
  3. Beim ersten Start kommt nun folgendes Fenster.
    Willkommensassistent Pidgin
    Willkommensassistent Pidgin

  4. Mit einem Klick auf Hinzufügen kann man nun einen ersten Account in Pidgin einpflegen.
  5. Nun füllt man die geforderten Angaben natürlich mit den entsprechenden Daten aus. Hat man woanders noch andere Accounts herumfliegen, wiederholt man die genannten Punkte so oft, bis alles eingepflegt ist.
    Konteneinrichtung Pidgin
    Konteneinrichtung Pidgin

  6. Bestehende Kontakte aus jedem Messenger werden von den Servern der jeweiligen Diensteanbieter automatisch in die Buddy-List importiert und eingefügt.

Hat man alle seine Accounts in Pidgin eingepflegt, muß noch das Plugin OTR – Off-the-Recording Messaging installiert werden. Linuxanwender bekommen das Paket pidgin-otr aus ihrem Paketmanager und ihren Repositories, die für ihre Distribution zuständig sind.

  1. Das Plugin OTR – Off the Record Messaging downloaden
  2. OTR auf dem eigenen System installieren.

Jetzt geht es ans Einrichten von OTR – Off-the-Record Messaging.

Hinweis: Beide Kommunikationspartner, die verschlüsselte Nachrichten senden und empfangen wollen, benötigen ein eigenes Schlüsselpaar aus öffentlichem und privatem Schlüssel. Das setzt bei bei Sender und Empfänger die gleiche oder ähnliche Software vorraus, die das Generieren der privaten und öffentlichen Schlüssel und das spätere Chiffrieren und Dechiffrieren der Nachrichten erledigt.

Jetzt muß man Pidgin natürlich erst einmal dazu bringen, ein Schlüsselpaar aus privatem und öffentlichem Schlüssel zu generieren. Den öffentlichen Schlüssel muß man natürlich mit jedem Kommunikationspartner, mit dem man schreiben möchte, austauschen.

  1. Dazu muß der geneigte Nutzer in der Menüleiste in der Liste mit den Bekanntschaften auf Werkzeuge und Plugins klackern. Die beiden Bilder zeigen das natürlich noch einmal.
    Buddy Liste Pidgin Hier klickert man auf das Menü Werkzeuge und darin dann auf Plugins oder man nutzt unter Windows gleich das Tastenkürzel STRG+U
    Buddy Liste Pidgin Hier klickert man auf das Menü Werkzeuge und darin dann auf Plugins oder man nutzt unter Windows gleich das Tastenkürzel STRG+U

    Installierte Plugins Pidgin Hier sucht man sich das Plugin OTR aus und klickert auf Konfigurieren
    Installierte Plugins Pidgin Hier sucht man sich das Plugin OTR aus und klickert auf Konfigurieren
  2. Im folgendem Fenster generiert man am besten gleich für alle angelegten Messengerkonten ein Schlüsselpaar
    OTR Konfiguration Pidgin Hier konfiguriert man sich am besten für jedes Messengerkonto ein eigenes Schlüsselpaar.
    OTR Konfiguration Pidgin Hier konfiguriert man sich am besten für jedes Messengerkonto ein eigenes Schlüsselpaar.

  3. Nun muß man sich mit seinem Gesprächspartner, am besten durch drei Blumentöpfe hindurch, auf eine Frage und eine dazu passende Antwort verständigen. Das könnte beispielsweise der Lieblingsfilm Blade Runner sein, wo ein Wort die Frage und das andere die Antwort ist.
    Authentification OTR Pidgin Vorab muß man sich auf eine Frage und eine passende Antwort verständigen, man kann natürlich auch manuell über einen sicheren Weg die beiden Schlüssel authentifizeren.
    Authentification OTR Pidgin Vorab muß man sich auf eine Frage und eine passende Antwort verständigen, man kann natürlich auch manuell über einen sicheren Weg die beiden Schlüssel authentifizeren.

  4. Der Kommunikationspartner müßte dann die Frage beantworten oder selbst die Frage stellen. Wie das aussieht kann man imm folgenden Bild einsehen.
    Authtentificationsanfrage Pidgin - Der Kommunikationspartner muß antworten, damit die öffentlichen Schlüssel gesichtert ausgetauscht werden können.
    Authtentificationsanfrage Pidgin – Der Kommunikationspartner muß antworten, damit die öffentlichen Schlüssel gesichtert ausgetauscht werden können.

  5. Ist die Authentification erfolgreich, ist der verschlüsselte Chat aktiv, ist sie fehlgeschlagen, muß diese Prodzedur wiederholt werden.
    Authentification war erfolgreich Pidgin - Eine verschlüssselte Verbindung steht
    Authentification war erfolgreich Pidgin – Eine verschlüssselte Verbindung steht

    Authentification fehlgeschlagen Pidgin - Die Prodzedur mit Frage und Antwort sollte wiederholt werden, da sonst keine verschlüsselte Verbindung zustande kommt
    Authentification fehlgeschlagen Pidgin – Die Prodzedur mit Frage und Antwort sollte wiederholt werden, da sonst keine verschlüsselte Verbindung zustande kommt

Fazit

Ein ähnliches Prodzedere gibt es beim Verschlüsseln von E-Mails. Jeder, der verschlüsselt kommunizieren möchte, sei es beim Chatten oder beim Mails schreiben, muß einiges an Arbeit auf seiner eigenen Seite investieren. Dazu kommt noch die Überzeugungsarbeit, um Kommunikationspartner zum Verschlüsseln zu bewegen.

Momentan bieten einige Provider von Instant Messengerprotokollen und Mailpostfächern an, die Verbindung zwischen Sender und Empfänger bzw zwischen Sender und dem hauseigenen Server und zwischen Server und Empfänger via SSL/TLS zu sichern. Damit werden die Nachrichten an sich selbst nicht geschützt. Im Zweifelsfall kann man die Nachrichten dann an geeigneter Stelle, beispielsweise bei zwischengeschaltetem Server, speichern und lesen bzw auch verändern. Dagegen hilft nur die Totalverschlüsselung, wie sie hier beschrieben wurde. Kommunikationswege an sich werden nur von den Providern durch diverse Trust-Zertifikate gesichert.

Alles in Allem ist das Verschlüsseln der Nachrichten mit einigem Aufwand verbunden und viele Leute scheuen daher die Mühen aus verschiedenen Gründen. Mir ist es auch schon untergekommen, daß man nicht auf für sich bekannte und bewährte Software verzichten mag. Leider gelingt eine solche Integration in freier Open-Source Software, hier im Beispiel Pidgin, am Besten und mit dem wenigsten Aufwand. Hersteller von proprietärer Software (beispielsweise ICQ, Skype usw.) machen es dem Nutzer schwer, solche Lösungen zu implementieren.

Mit Hilfe von quelloffenen Multi-Messengern ist es ein Einfaches mit einer Verschlüsselungstechnik wie dieser, sämtliche genutzten Chatprotokolle abzudecken und mit einem Streich sämtliche Nachrichten zu den Kommunikationspartnern verschiedener Dienste abzusichern.

Wie sicher jetzt diese Verschlüsselung ist, wage ich nicht zu beurteilen. Jede Verschlüsselung hebt den Aufwand, an den begehrlichen Inhalt von Nachrichten heranzukommen, deutlich an. Je besser eine Verschlüsselung ist, desto höher ist der Rechenaufwand, um diese zu knacken. Irgendwann mag jede Verschlüsselung durch schiere Rechenkraft geknackt werden, aber bis dahin fließt noch viel Wasser die Weida hinunter, so daß jede privat geführte Chatunterhaltung vorerst privat bleibt

Links

Im Artikel benutzte Programme

  1. Downloadseite OTR – Off the Record Messaging
  2. Download Pidgin – Multimessenger

Weiterführende Lektüre

WordPress und die Blogrolle

Seit WordPress 3.3.x läuft bei mir, der Medienspürnase, die Blogrolle und der dazugehörige Linkmanager. Beides hat seitdem eine Hand voll Coreupdates und eine Reihe Minorupgrades überstanden. Linkmanager und Blogrolle wurden erst in WordPress 3.5 deaktiviert und fielen in Version 3.6 ganz weg. Jetzt sind wir bei WordPress 3.8.x angekommen und beides läuft noch stabil auf dem Produktivblog der Medienspürnase. Aber wer weiß wie lange das noch bleibt.

Für Blogger, die mit WordPress 3.5.x oder neueren Versionen eingestiegen sind, entfällt beides. Hier müssen entweder neue Text-Widgets mit den Links zu anderen Blogs und Seiten ins Theme aufgenommen werde, oder direkt dazu noch explizite Seiten für den Linktausch eingerichtet werden. Oder man installiert sich diverse Plugins, um sich einen Linkmanager und eine Blogrolle zurück zu holen.

Es gibt noch eine kleine Variante, die man versuchen kann, um die Blogrolle und den Linkmanager zu aktivieren. Öffnet dazu die functions.php eures Themes und ergänzt sie um folgende Code-Zeile

add_filter( 'pre_option_link_manager_enabled', '__return_true' );

Klappt das nicht, dann geht den Weg im Newsblog von WordPress. Erstellt euch ein Textwidget für euer Theme und schreibt dort eure Favoriten und Lieblingswebsites in HTML-Code also via

<a href></a>

und sortiert dieses mit einer Nummerierten oder unnummerrierten Liste an.

<ol></ol>
<ul></ul>

Oder ihr legt euch ganz simpel eine Extra Seite an, die im Header oder in einem Widget sichtbar zum Anklicken liegt. Dort habt ihr Platz eure Favoriten samt Banner und Beschreibung abzulegen.

Diese Funktion sollte den Linkmanager im Dashboard und die Blogrolle im Frontend wieder aktivieren.

Fazit

Auch wenn man die Blogrolle als veraltet ansieht, ist sie dennoch ein gutes und probates Mittel zum Verlinken von Partnerseiten und anderen Blogs. Durch den Wegfall der Blogrolle, will man bezwecken, daß die Lieblingsseiten des jeweiligen Bloggers in Artikeln oder separaten Seiten durch den Blogger selbst und seine Leser kommentiert werden. Dadurch geschieht es aber, daß die Links von Partnerseiten irgendwann von einem wirklich guten Platz, der Startseite, verschwinden und nur durch mehrere Klicks gefunden werden können. Durch eine Blogrolle ist es möglich, spezielle Links prominent auf der Startseite zu halten, was für die Leser und die größte Müllhalde des Internets, Google, besser zu handeln ist. Man weiß wo der Lieblingslink steht und braucht nicht großartig zu suchen oder irgendwelche Kommentare durchzulesen, bevor man klickern kann.

WordPress 3.8 – Richtig eingestellt

Seit heute ist das neue WordPress 3.8 erhältlich. Gerade unter der Haube hat sich einiges getan, was der geneigte Blogger und Neuling gerne zu schätzen weiß. Für Umsteiger von niedrigeren Versionen gibt’s natürlich auch den einen oder anderen Stolperdraht, den es zu umgehen gilt.

Augenscheinlichste Neuerung ist das neue Admin-Panel, der neue Dashboard. Dieser wurde farblich aufgemotzt. Schriften werden besser dargestellt und die Kontraste wurden erhöht. Auch die Hovereffekte für die Menüs wurden verbessert und stehen nun detaillierter zur Verfügung. Die Responsive-Eigenschaften des Dashboards wurden verbessert. An großen Bildschirmen bietet das Admin-Backend nun vier Spalten für Menüs und Widgets an.

Auch ein neues Standard-Theme kam hinzu. Mit dem grandiosen Namen Twenty Fourteen erlaubt es jetzt einen magazinartigen Look. Das neue Theme stellt dem geneigten Blogger die Wahl zwischen einem Grid- oder einem Sliderartigen Stil. Lesenswerte Artikel kann es als Featured Content hervorheben und passt sich gut den aktuellen Bildschirmgrößen an.

Wo hakt es denn bei der Umstellung?

Die deutsche Versionierung von WordPress 3.8 bringt einige neue Dateien mit, ohne die der Dashboard nur teilweise übersetzt wird. Neueinsteigern dürfte das eher wenig auffallen, da alle Dateien, die für die eingedeutschte Version zuständig sind, in WordPress 3.8 vorhanden sind.

All jenen, die von WordPress 3.7.x upgraden, dürften mehrere dieser Dateien fehlen. Das bewirkt, daß nur die linke Menüleiste im Dashboard in Deutsch zu lesen ist, der Rest, also die Überschriften der Widgets und dergleichen, alles in Englisch.

Eindeutschen der Standardversion von WordPress ohne Sprachpakete

Hinweis: Eine Auswahl an Pack- und FTP-Programmen für Windows finden sich ganz unten in den Links. Gut gepflegte Linuxdistributionen bringen schon selbst solche Tools mit, oder man findet diese dort in den aktuellen Repositories.

Nutzt man keine WordPress-Version mit Sprachpaket, muß man ein wenig mehr machen. Aber keine Sorge, es ist nicht kompliziert. Zu allererst muß das deutsche Sprachpaket heruntergeladen werden. Natürlich muß das Paket mit einem Packprogramm der eigenen Wahl entpackt werden. Mit einem FTP Programm der Wahl öffnet man auf dem Server, wo die WordPress Installation liegt, das Verzeichnis /wp-content/languaques.

Dort landen dann folgende Dateien aus dem (deutschen) Sprachpaket:

  1. admin-de_DE.mo
  2. admin-network-de_DE.mo
  3. continents-cities-de_DE.mo
  4. de_DE.mo

Die Dateien mit der Endung *.po sind nur von Nutzen, wenn man selbst die Spracheinstellungen bearbeiten mag.

Nun muß nur noch die Datei wp-config.php im Stammverzeichnis der WordPressinstallation bearbeitet werden. Aus der Zeile

define('WPLANG', '');

wird dann folgende Zeile:

define('WPLANG', 'de_DE');

Hinweis: Die wp-config.php ist mit einem Texteditor zu ändern. Word, Wordpad und co sind da schon außen vor. Unter Windows bekommt man das Notepad im Startmenü unter Zubehör mitgeliefert, ansonsten gibt es noch Notepad++ oder dutzende andere Editoren. Linuxdistributionen bringen selbst schon haufenweise Texteditoren mit sich. Ein Linuxnutzer wird wissen, welches dieser Programme er bevorzugt.

Upgrade der Deutschen Sprachdateien

Der vorhergehende Schritt erübrigt sich, hat man seit jeher die Deutsche Sprachversion von WordPress im Einsatz. Bei einem Upgrade von einer früheren WordPressversion auf die aktuelle Version 3.8.x fehlen nur ein paar Sprachdateien, die nachgerüstet werden müssen. Welche das sind, verrate ich in den folgenden Schritten. Auch hier gelten die Hinweise aus dem oberen Workaround.

Zu allererst muß das gewünschte Sprachpaket (in unserem Fall das Deutsche Paket) heruntergeladen werden, denn im Verzeichnis /wp-content/languaques müssen daraus noch zwei Dateien nachgerüstet werden

  1. admin-network-de_DE.mo
  2. admin-de_DE.mo

Für jene, die ihre WordPressversion lieber selbst eindeutschen wollen, müssten noch folgende Dateien vorhanden sein:

  1. admin-de_DE.po
  2. admin-network-de_DE.po

Wenn man seit jeher die deutsche Version von WordPress nutzt währe das alles. Die wp-config.php ist schon auf dem aktuellsten Stand. Aber ein Blick in diese kann nicht schaden. Es müsste folgende Zeile in dieser stehen:

define('WPLANG', 'de_DE');

ansonsten aktualisiert man die Zeile

define('WPLANG', '');

Links

  1. WordPress Deutschland mit deutscher Sprachdatei
  2. Deutsche Sprachdateien
  3. 7zip
  4. Winrar
  5. FileZilla
  6. Notepad++

Von PCs und Konsolen Teil 2 – Von vergangenem und aktuellem

Konsolen und PCs bringen von Haus aus schon viele Möglichkeiten zum Entertainment mit. Wer viele Aufgaben, beispielsweise Surfen, Office, aber auch Entertainment und Spiele zu erledigen hat, der greift wohl eher zum PC. Spiele und Filme sind das Vorzugsgebiet der neuen Konsolen. Allerdings verschwimmen die Grenzen zwischen Konsolen und PCs immer mehr. Konsolen bringen auch schon eine recht gute Softwareausstattung mit. Was sich momentan alles mit den aktuellen Geräten erledigen lässt, will dieser Artikel aufzeigen.

Technische Daten

ModellPlaystation 4XBox OnePlaystation 3XBox 360
CPUAMD Jaguar, 8 Kerne, 1.800 (2.000) MHz
AMD Jaguar, 8 Kerne, 1.600 - 1.800 MHz
IBM Cell (PowerPC/RISC), 7 Kerne, 3.200 MHz
IBM Xenon (PowerPC/RISC), 3 Kerne, SMT, 3.200 MHz
GPUAMD GCN, 1.152 Shader, 800 MHz
AMD GCN, 768 Shader, 853 MHz
RSX (Nvidia G70), 550 MHz
Xenos (Ati R600), 500 MHz
RAM8 GiByte GDDR5 (2.750 MHz)
8 GiByte DDR3 (1.066 MHz) + 32 MiByte ESRAM
256 MiByte XDR (700 MHz) + 256 MiByte GDDR3 (700 MHz)512 MiByte GDDR (700 MHz) + 10 MiByte EDRAM
BUS256 Bit
256 Bit
256 Bit + 128 Bit128 Bit
Bandbreite (Rohwerte)176 GB/s68,3 GB/s + 166 GB/s35 GB/s + 20,8 GB/s512 MiByte GDDR (700 MHz) + 10 MiByte EDRAM
Festplatte500 GiByte500 GiByte250/500 Gbyte22,4 GB/s + 32 GB/s
Optisches LaufwerkBlu-ray-DVD-CD-KomboBlu-ray-DVD-CD-KomboBlu-ray-DVD-CD-Kombo250/320 GiByte
NetzwerkRJ-45, WLAN a/b/g/nRJ-45, WLAN a/b/g/n, Wifi DirectRJ45, WLAN a/b/g
RJ45, WLAN a/b/g
BluetoothV2.1V2.1 EDRV2.0nicht vorhanden
VideoHDMI 1.4aHDMI 1.4a
HDMI 1.0HDMI 1.0
AudioS/PDIFS/PDIF
S/PDIF
S/PDIF
USB3.03.0
2.02.0

Von der Vergangenheit …

XBox One
XBox One
Nach mittlerweile über 8 Jahren gelten die alten Konsolen, Playstation 3 und XBox 360 als veraltet. Beide kamen anno dazumal im Jahr 2005, auch im (Spät)Herbst heraus. Über den Lebenszyklus der beiden Konsolen gab es zahlreiche Updates des verwendeten Betriebssystem, um Fehler zu beheben und neue Funktionen einzubauen. Die Playstation 3 war schon damals fortschrittlicher als ihre Konkurentin aus dem Hause Microsoft, der XBox 360. Das fing schon mit der Ausstattung an. Das Hauptkriterium war damals der integrierte BluRay Player. Konkurenzprodukte aus anderen Technikschmieden waren entweder noch rar gesäht, oder kosteten annähernd so viel wie die PS3. Da lohnte schon der eher geringe Aufpreis um sich eine PS3 anzuschaffen. Man hatte ja durch die weiteren Eigenschaften dieser Konsole noch einen Vorteil: Man konnte von der heimischen Couch aus nicht nur BluRay Filme angucken, sondern auch zwischendurch das eine oder andere Spiel zocken.

Im Gegensatz zu der PS3 brachte die XBox 360 einen stinknormalen DVD Player mit. Im Gegensatz dazu gab es schon dazu recht günstige DVD Player von der Konkurenz. Hier hat man schon eher überlegt, ob man einen normalen DVD-Player wollte, oder die XBox 360 eher zum Spielen kaufte.

Ein weiterer Ansporn sich für eines der beiden Geräte zu entscheiden, waren die Exklusivtitel der Spiele. Exklusivtitel, es gab sie nur für eine der beiden Konsolen zum Kaufen. Welche Exklusivtitel es zu den beiden Last-Generation-Konsolen gibt und gab, findet man dutzendfach im Internet.

Zu dem Zeitpunkt zum Erscheinen der beiden alten Konsolen hatten diese dem PC gegenüber einen Vorteil: Sie hatten fortschrittlichere und modernere Technik unter der Haube, schneller als sie zu dem Zeitpunkt in PCs verbaut wurde. Konsolen waren und sind, recht klein und passen unter jeden Fernseher, man kann sie von der Couch bedienen. Zudem wurden nicht lang vorher, die ersten hochauflösenden und flachen Fernseher bezahlbar, die zu erschwinglichen Preisen gute Bildqualität lieferten. Eine an den Fernseher angeschlossene Stereo- oder Dolby-Surround-Anlage sorgte zudem noch für knackigen Ton.

…über die Gegenwart

Seit 2005 hat sich in allen Bereichen mittlerweile viel getan. PCs gibt es recht günstig für Büroarbeiten. Legt man mehr Geld drauf, bekommt man schon gute Mittelklasse-Computer von der Stange, die zum Arbeiten und Spielen recht gut taugen. Will man mehr, geht man mit 1000 Euro und mehr in den oberen Bereich der Fahnenstange (ein Ende derer ist wohl nicht in Sicht). Hobbyschrauber werden sich den Lieblings-PC aus den verschiedenen Komponenten selbst zusammen basteln und haben dann genau das im Rechner, was Ihnen gefällt. Vergleicht man eine der beiden Next-Generation Konsolen (Playstation 4 und XBox One), mit dem was alles technisch am PC machbar ist, dann muten einige der Komponenten der beiden Player wie Mittelklasse-Ware an. Zugegeben, wo fängt die Mittelklasse an und wo kann man einen Schnitt für die Oberklasse setzen?

Beispiel Grafikkarten (GPU): Aktuelle Grafikkarten im High End Bereich bringen einige

AMD R7 Grafikkarte
AMD R7 Grafikkarte
Prozentpunkte mehr an Leistung mit sich. Jede PC Grafikkarte bringt einen separaten Video-Speicher mit – mindestens 1 Gigabyte. Die GPUs von XBox One und PS4 knappsen sich den von den verbauten 8 GiByte Arbeitsspeicher ab. Zurück bleiben mindestens 4 bis 5 Gigabyte für den Arbeitsspeicher in den Konsolen. (Gaming)PCs kommen mit 8 Gigabyte RAM (Arbeitsspeicher) und zusätzlichen 1 bis 3 GiByte flotteren Videospeicher für die Grafiken im Spiel daher. Da bleibt schon mehr Platz für bessere und tollere Effekte und so weiter.

PC-Spieler haben neben besserer Hardware noch einen weiteren Pluspunkt: Die Auswahl an verfügbaren Titel ist riesig. Es gibt kleine Spiele, die schon kostenlos verfügbar sind und Blockbustertitel für 40 bis 50 Euro. Darunter sind Strategiespiele, egal ob rundenbasiert oder in Echtzeit, Rollenspiele, Egoshooter und die ganze Palette an Genres, die ich vielleicht vergessen habe aufzuführen.

Es gibt aber speziell nur für bestimmte Konsolen verfügbare spezielle Exklusivtitel, die es für den PC nicht geben wird. Zu erwähnen ist auch ein recht großes Softwareangebot, welches es neben den Spielen noch gibt. Dazu gehören Browser, Medienspieler für Audio, Video und Bilder.

Der Preis macht die Musik

Preislich gesehen kommt man bei PC-Spielen um einiges günstiger weg (40 bis 50 Euro) als bei Konsolenspielen. Der Durchschnittsspieler kauft sich jeden Monat vielleicht zwei Spiele. Für Konsolenspiele zahlt er schlappe 70 Euro.

Der PC-Spieler spart da schon wieder ein. Aber beim PC kann man sagen: Je mehr Leistung der PC desto teurer war er im Einkauf und ist es noch bei der Leistung, die er aus der Steckdose zieht.

Konsolen kosten eben nur 400 Euro (PS4) oder 500 Euro (XBox One) während ein Gaming PC mal locker das Doppelte kosten mag. Sieht man nur die Spiele, kann sich ein Spieler mit PC Spielen in einem Jahr einen Karibikurlaub unter Palmen zusammensparen – die Palmen dort wirken definitiv echter als auf dem Bildschirm.

Software gibt es auch für die beiden Konsolen mehr als genug, zwar hauptsächlich Spiele, bieten Sonys und Microsofts Spielgeräte auch Software wie Internetbrowser und Medienplayer, mit denen sich Onlineinhalte abrufen lassen und Filme abgespielt werden können. Was sich die beiden Hersteller in der Zukunft noch einfallen lassen ist derzeit ungewiss.

Apropos Bildschirme

Mit aktuellen Grafikkarten, kann man sein Spiel am PC auf drei Displays aufziehen (GPUs von NVidia) oder sogar auf bis zu 6 Monitore (AMD). Das erlaubt natürlich besseres Feeling bei Rennspielen und man hat mehr Platz beim Lieblings Multiplayer Rollenspiel.

Den Softwareschraubenzieher ausgepakt

Weiterhin hat der PC-Spieler noch den Vorteil, daß er sich die Spielegrafik an sein eigenes System anpassen kann. Hat er ein Rennpferd unter den PCs, dann dreht er an einigen Stellschrauben herum und kann somit Grafikeffekte und Spiele auf Hochglanz aufpolieren. Ist der PC nicht so gut aufgestellt (ich will jetzt nicht von Lahmen Gäulen anfangen) zockelt und ruckelt das Bild ein bisschen.

Auch hier wird wieder der Softwareschraubenzieher herausgeholt und einige Einstellungen für diverse Effekte heruntergedreht. Es stehen dem Spieler natürlich fast ein glänzenbdes Dutzend von Effektaufhübschern zur Verfügung.

Bei der Kantenglättung (Antialising) gibt es schon verschiedene Techniken, die alle die Grafik mehr oder minder gut aufhübschen und dabei viel (oder nicht so viel) Tempo benötigen. Beispiele hierfür sind Supersampling (SSAA) oder der fast Standard Multisampling (MSAA).

Weitere Stellschrauben sind die Ambient Occlusion (AO) wo es auch mehrere Verfahren und Techniken gibt, auf die ich nicht nochmal speziell eingehen möchte. Ambient Occlusion ist die Ausleuchtung und der daraus resultierende Schatten von Objekten der Spieleszenerie am Bildschirm. Hier gibt es auch wieder ressourcensparendere Techniken und hardwarefresende Verfahren.

Battlefield4 - Screenshot
Battlefield4 – Screenshot

Der PC Spieler kann natürlich, vorrausgesetzt er hat die passende Hardware, selbst bestimmen wie die Spiele am Bildschirm aussehen. Mit gängigen Grafikkarten ist es auch kein Problem mehr, den PC neben einem großen Fernsehgerät zu platzieren und diesen als Monitor zu nutzen. Hier liegt der PC eindeutig vor den Konsolen.

Wie sieht es mit der Erweiterbarkeit und Stabilität aus?

Lenken wir unsere Blicke wieder auf die aktuellen Konsolen. Das sind meist geschlossene Systeme, die schlecht bis gar nicht erweiterbar sind. Hier macht es sich nicht gut, einfach mal mehr RAM einbauen zu wollen oder die Grafikarte auszutauschen. Alte und aktuelle Konsolen sind zumeist durch ihre Geschlossenheit gut abgestimmte Geräte, die stabil laufen. Auch die Software dazu läuft für die XBox One wenn XBoX One draufsteht. Das Gleiche gilt natürlich auch für Sonys Konkurenzkonsole Playstation 4.

Was die Stabilität angeht, so hängt der PC den Konsolen hinterher. Man hat auf dem Markt die freie Auswahl an Komponenten die man verbauen kann, man weiß aber nie so richtig im Vorraus wie die sich vertragen werden, oder ob ein Spiel mit diesen Komponenten auch läuft. Fur Hardware- und Grafikenthusiasten sind Konsolen wohl eher nur die zweite Wahl. Sie lassen sich schwerer auf- und umrüsten als die PCs unterm heimischen Schreibtisch.

Beide Konsolen lassen sich bereits heute Schon mit externen Tastaturen und Mäusen ausstatten um mit denen Surfvergnügen im Internet zu geniesen. Weiterhin unterstützen beide diverse ecterne Speichermedien, von denen sich Musik abhören lassen oder Bilder und Filme betrachten lassen, bequem von der Couch aus.

Was ist denn mit Multiplayer?

Eine Multiplayerfunktion bieten beide neuen Konsolen über die hauseigenen Netze an. Sony präsentiert für seine Playstation 4 das Playstation Network. Für 50 Euro im Jahr (als Abo erhältlich) bekommt man zum Playstation Networt ein Playstation Plus Premium Service. Erst mit diesem Service erschließt sich der ganze Multiplayerspaß über Sonys Konsole.

  1. Erstellen einer Spielesammlung mit über 45 Spielen pro Jahr ohne zusätzliche Kosten.
  2. Anspielen von Games in 60-minütigen Test-Vollversionen.
  3. Riesige Rabatte auf zahlreiche Inhalte im PlayStation Store.
  4. Download Dutzender Premium-Avatare und dynamischer Designs für PlayStation 3 ohne zusätzliche Kosten.
  5. Vorabzugriff auf Spieldemos und Betatestversionen.
  6. Exklusive Funktionen wie „Automatisches Update“ und „Online-Speicher“.

Microsoft hält es mit der XBox One ähnlich. Hier lassen sich Spiele direkt in der Cloud (auf Microsoft Servern) ablegen und Spielstänbde speichern. So kann man diese Spiele auch von der XBox von Freunden weiterspielen. Spielszenen lassen sich als Videos übers Internet mit Freunden teilen. Zudem bietet es die Möglichkeit Spiele mit den entsprechenden Funktionen über Internet mit oder gegen andere Leute zu spielen. Diesen Service läßt sich Microsoft natürlich auch mit 5 Euro im Monat honorieren. Auch hier gibt es zwei Varianten. XBox Live ist die kostenlose Variante und bietet nur eingeschränkte Features. Wer mehr will muß sich bei XBox Live Gold anmelden und zahlen.

Vorraussetzung für beide Dienste (Playstation Network und XBox Live mit den dazugehörigen Premiummitgliedschaften) ist ein breitbandiger DSL-Anschluss, den man schon bei einem Internet Service Provider (ISP) seiner wahl kriegt. Der ist natürlich auch monatlich zu zahlen. Die Modalitäten dazu sind vom provider und vom Anschluß abhängig. Die meisten Haushalte dürften schon einen breitbandigen Anschluss über die Telefonleitung (DSL) oder einen Kabelnetzbetreiber (Kabel) besitzen.

Die Meisten Haushalte besitzen auch schon einen (oder mehrere PCs) mit ganz unterschiedlicher Leistung. Gamer und Technikfreunde besitzen eben leistungsstarke Rechenmaschinen daheim. Für den PC gibts natürlich eine Menge Spiele, die entweder kostenlos oder gegen Zahlung (beispielsweise World of Warcraft) zu spielen sind. Sicherlich schaffen es einige dieser Spiele auch bald auf eine der Konsolen – oder alle beide. Jedenfals hat sich beim PC schon ein regelrechter Wildwuchs an Onlinespielen entwickelt, der bald auch auf die Konsolen übergreifen dürfte.

… zurück in die Zukunft (wer mich kennt weiß das hier das Fazit steht)

Technisch gesehen hat der PC natürlich gegenüber den Konsolen seine Stärken, aber auch seine Schwächen. Die Flexibiltät des PCs ist seine größte Stärke, aber auch die größte Schwäche. Softwaremäßig sind viele Geräte und PC Bauteile nicht gut aufeinander abgestimmt und manches Bauteil verweigert mit dem anderen den Dienst. Auch tut es das eine oder andere Spiel nicht so mit einer bestimmten Grafikkarte. Oder der PC ist mal wieder zickig und stürzt ab. Gegen diese Probleme sind geschlossene Systeme wie die aktuellen Konsolen zwar auch nicht gefeit aber die Bauteile sind meist schon miteinander erprobt und aufeinander abgestimmt, softwaretechnisch und hardwaretechnisch.

Für die Zukunft bringen die beiden Konsolen trotz aller Nachteile viel frischen Wind in die Softwarebranche und Spieleindustrie. Ausgestattet mit 8! Prozessorkernen und guten Mittelklassegrafikkarten hoft man, daß die Software- und Spielerentwickler endlich mal lernen, alle Prozessorkerne für ihre Kreationen ausnutzen zu können. Definitiv ist der nächste Quantensprung für Spiele und Hardware zu erwarten. Die kommenden Spiele sollen höher aufgelöst werden, nue und toilste Effekte mit bringen, was aktuelle Hardware ins Stöhnen und Schwitzen bringen soll. Vielleicht ziehen die Hardwarehersteller dann ebenfalls ein bisschen nach.

Von PCs und Konsolen Teil 1 – Wie man Konsolen und PCs am besten steuert

Pünktlich zum Weihnachtsgeschäft bringen die beiden Entertainment- und Computerriesen Sony und Microsoft ihre Next-Generation-Konsolen auf den Markt. Die Rede ist von der neuen Playstation 4 und der XBox One. Beide bieten in Etwa die gleiche Ausstattung und versprechen ein tolles Spieleerlebnis und grandioses Homeentertainment. Für potentielle, aber unentschlossene Nutzer ist es schwer die richtige Wahl zu treffen. Um die Verwirrung Komplett zu machen, mischt seit einigen Jahren im Spiele- und Entertainmentbereich der gute alte PC mit, der sich von einer tristen, grauen Kiste mit dickem Röhrenmonitor in schicke Schachteln mit flachen Flundern als Monitor gemausert hat. Die kommenden Artikel sollen mit der Verwirrung etwas aufräumen.

Was die Werbung verspricht

Die Werbung verspricht bekanntermaßen viel. Grafik vom Feinsten bei den Spielen und den Exklusivtiteln darunter, hochfeiner Bildgenuss beim Entertainment, am besten in UltraHD oder 4K Auflösung. Darunter währen 3840 mal 2160 Pixel als genaues Vierfaches der FullHD Auflösung zu verstehen. Aber momentan wollen das die beiden Hersteller mit ihren Konsolen nicht bieten. Die technischen Vorraussetzungen sind prinzipiell da. Ein schneller Prozessor (CPU) dazu eine gute Grafikeinheit (GPU) und viel Hauptspeicher. Weiterhin gib es bisher noch kein Material in dieser UltraHD Auflösung und entsprechende Fernseher und Monitore sind für den Hausgebraucht noch überdimensional überteuert. Zudem können die beiden Konsolen am Anfang noch nicht alles, was die Vorgänger bereits können. Daher beschränkt man sich bei Spielen und Filmen auf das herkömmliche HD (1280 mal 720 Bildpunkte) und FullHD (1920 mal 1080 Bildpunkte).

Die Playstation 4 erlaubt am Anfang noch nicht das Abspielen von Audio CDs und 3D

Playstation 4 silber
Playstation 4 silber
Filmen, sowie das Abspielen von MP3 und das Streamen von Audio/Video via DLNA. Ähnlich geht es bei der XBox One zu. Diese kann im Moment auch noch keine komprimierten Audiodaten (MP3) abspielen, dafür aber schon Musik und Videos übers Netzwerk via DLNA an andere Geräte und Monitore streamen. Mit großer Sicherheit sind das Features, die noch softwareseitig nachgerüstet werden, weil man sich zum Verkaufsstart ersteinmal auf die Grundfunktionen der Konsolen beschränkt hat. Zusätzlich beinhaltet Sonys Kamera noch mehrere Microphone. Eine Sprachsteuerung in Zukunft währe Denkbar.

Das Nachrüsten von Funktionen geht zumeist über die Updatefunktion der entsprechenden Konsole. Sony und Microsoft bieten in regelmäßigen Abständen Firmwareupdates an. Gleich beim Ersten Start und dem Registrieren der Playstation 4 von Sony gibt es ein 300 MB großes Paket zum Download, welches einige rudimentäre Funktionen in der Software nachrüstet und die es erst ermöglichen Filme von DVD und BluRay abzuspielen und anzusehen. Microsoft wird es mit der XBox One wahrscheinlich ähnlich halten und nach und nach über die Updatefunktion diverse Funktionen freizuschalten und nachzurüsten, bzw Fehler und Bugs in der Firmware (dem Betriebssystem der Konsole) beheben.

Die Steuerbarkeit der Konsolen und ihrer Gegner

In der Werbung ist bekanntermaßen auch viel machbar. So siehts auch bei der Steuerung der Konsolen aus. Die XBox One kommt mit Kinect daher. Das ist nichts anderes als eine 3D-Kamera mit einem Infrarotsensor und zusätzlich verbauten Microphonen. Microsoft wirbt bereits intensiv mit Sprach und Gestensteuerung der XBox One über die Kameras und Microphone in Kinect. In wie weit praktikabel das ist, wird die Zukunft und der Einsatz im Wohnzimmer zeigen. Was die XBox One allerdings im Hintergrund mitaufzeichnet und eventuell übers Internet nach Hause telefoniert ist noch unklar. Prinzipiell könnte Microsoft die verbaute Hardware nutzen, um Marktforschung zu betreiben. Gesichtserkennung ist schon an vielen Stellen gängige Praxis. So könnten Microsoft und Spieleentwickler die Reaktionen der Nutzer mit Kinect aufzeichnen und weiternutzen.

Die Playstation 4 geht es scheinbar etwas ruhiger an. Momentan sieht es nur danach aus, daß diese mit einem neuartigen Controller gesteuert wird, der neben den üblichen Hebeln und Knöpfchen auch ein Touchpad besitzt, welches Wischgesten erkennt und an die Konsole weitergibt. Eine Lightbar am vorderen Ende des Controllers dient zur räumlichen Bestimmung des Controllers mit Hilfe von PlaystationEye, einer 3D-tauglichen Kamera für die Playstation. Damit wird ein bewährtes System zur Steuerung über Gesten von Nintendo übernommen.

Konsolen lassen sich, wenn sie via HDMI an den heimischen Flachfernseher angeschlossen sind, natürlich auch mit der zum Fernseher gehörenden Fernbedienung steuern, was gerade praktisch ist, wenn man eine DVD oder BluRay anschaut. Hier bringt Sony natürlich einen Hausvorteil mit. Wer einen Fernseher von Sony sein Eigen (und seinen Schatz) nennt, bei dem läuft diese Steuerung ohne viel Gefrickel und lässtige Störungen.

Viel Aufsehen machte Microsoft letztes Jahr mit dem neuen Betriebssystem Windows 8.x,

All in One PC von Acer
All in One PC von Acer
welches auf Touchscreens und betouchte Steuerung optimiert wurde. Im PC-Markt hat sich das Getouche allerdings noch nicht so richtig durchsetzen können, ganz im Gegenteil zu dem mobilen Bereich der Tablets und Smartphones. Der PC ist hauptsächlich immer noch durch Maus und Keyboard (neudeutsch für Tastatur und neusächsisch für Tastenbrett) zu steuern. Hardware für Touchsteuerung drängt auch in Form von All-in-One PCs in diesen Bereich vor. Das sind PCs, die in das Bildschirmgehäuse (es ist dafür etwas dicker) integriert sind. Leistungsmäßig sind diese All-in-One PCs allerdings eher in der mittleren und unteren Mittelklasse anzusiedeln.

Mini-PCs, das sind solche Geräte in besonders kompakten Gehäusen, passen gut unter den Fernseher und lassen sich hauptsächlich per Maus und Tastatur steuern. Hardwarehersteller bieten für diverse solcher Gerätschaften auch normale Fernbedienungen an.

Fazit

In der Werbung kann man viel versprechen. Mit dem was dann wirklich kommt, muß der Nutzer natürlich in erster Linie zurecht kommen. Was in der Werbung oftmals so kinderleicht aussieht, ist in der Praxis häufig mit vielen Umständen möglich, oder es wird schlichtweg nicht genutzt, weil Altes sich doch besser bewährt hat. Oft tun sich doch so einige Neuerungen schwer, weil sie entweder nicht intuitiv sind oder zu umständlich sind, aber auch der Nutzer seine alten Methoden gewohnt ist.

In den Nächsten Artikeln über PCs und Konsolen gibt es einen kleinen Exkurs in die Vergangenheit, dazu einige technische Daten zu alten und neuen Geräten. Zudem gibt es hier bei der Medienspürnase weitere lesenswerte Vergleiche zwischen Konsolen und PC auf das Auge. Also Dranbleiben, es lohnt sich.

WordPress 3.7 und das automatische Update

Seit heute ist das neue WordPress mit der Versionsnummer 3.7 verfügbar. Die größte Neuerung ist das automatische Update. Mindestens seit Version 3.0 hat WordPress eine Funktion um ein automatisches Update anzustoßen, wenn denn eine neue WordPressversion verfügbar ist. Nach der offiziellen Ankündigung werden Punkt-Releases (beispielsweise von Version 3.7 auf Version 3.7.1) automatisch abgefragt und installiert. Bei Core-Releases von 3.7 auf 3.8 ist immer noch Handarbeit notwendig.

Bei sogennten Punkt-Releases oder Minor-Releases entsteht somit ein Updatezwang auf die neuere ud somit aktuellere Version, den der User nur mit Frickelarbeit am Quellcode von WordPress beheben kann. Automatische Sicherheitsupdates sind schon vorteilhaft, gehen aber manchmal – gerade bei auftretenden Fehlern (nicht jedes System ist gleich) – zu Lasten des Produktivsystems. Und die meisten Blogs werden doch gleich als Produktivsystem genutzt. Es sollte deswegen vorher beim Betreiber abgefragt werden, ob ein automatisches Update durchgeführt werden sollte um Fehler zu minimieren. Auch Plugins müssen eventuell an neuere Versionen von WordPress erst angepasst werden um auch mit neueren Versionen von WordPress optimal zu laufen.

Jedenfalls bekommt WordPress von mir eine heftige Rüge, weil man in der offiziellen Anwendung nicht erwähnt, wie man diesen Updater abschalten kann. Sicher ein automatisches Update von WordPress ist schon an einigen Stellen recht sinnvoll, da man wichtige Sicherheitsupdates nicht vergisst und einige unerfahrenere Blogger somit an die Hand genommen werden und Gefrickel beim Update zu vermeiden. Aber das ganze geht zu Lasten des Produktivsystems, da sich mit der Automatik Fehler einschleichen können.

Update 27. Oktober 2013 Die Community hat sich etwas einfallen lassen. Ein Plugin, welches das die Zwangsupdatefunktion deaktiviert gibt es mittlerweile auch schon. Das Plugin wurde unter dem grandiosen Namen Disable Automatic Updates auf der offiziellen WordPresseite für Plugins veröffentlicht. Diese neue Funktion richtet sich gerade an technisch weniger versierte Nutzer, die keine Zeit, Lust oder Erfahrung in Scriptsprachen haben und in WordPress selbst keine Änderungen vornehmen wollen. Der Link dazu folgt in der Linkliste wie üblich am Ende des Artikels. Update vom 27. Oktober 2013 Ende

Eine der folgende Codezeilen kann man in die wp-config.php einfügen, um das automatische Update zu deinstallieren. Die kurzen Erklärungen sind grau hinterlegt und auskommentiert. Wichtig sind prinzipiell nur die farbigen Zeilen.

/* Automatische Updates vollständig aktivieren. 
(Achtung! Auch für Versionssprünge - Lieber selber durchführen!) */
define( 'WP_AUTO_UPDATE_CORE', true );
// Automatische Updates deaktivieren.
define( 'WP_AUTO_UPDATE_CORE', false );
/* Automatische Updates für kleinere Sachen aktivieren. 
Security Updates etc.*/
define( 'WP_AUTO_UPDATE_CORE', 'minor' );

In einer offiziellen Stellungnahme wird folgendes Vorgeschlagen, man beachte aber, daß hiermit vermutlich der gesamte Updater abgeschalten wird und somit auch nicht nach geupdateten Plugins und Themes gesucht wird.

define( 'AUTOMATIC_UPDATER_DISABLED', true );

Um die Verwirrung noch größer zu machen, kann man mit Hilfe der beiden Filter auch den Updater einiges verbieten oder erlauben.

automatic_updater_disabled
auto_update_coreD

Für Bastler gibt es dazu noch einige Optionen in der Datei functions.php zum Ändern, fals ihnen die obigen Möglichkeiten nicht ausreichen:

//Allow auto updates of development releases ie alpha, beta and RC
add_filter( 'allow_dev_auto_core_updates', 'wp_control_dev_auto_updates' );
function wp_control_dev_auto_updates( $value ) {
// return true to enable and false to disable
return true;
}
 
//Allow auto updates of minor releases ie 3.7.1, 3.7.2
add_filter( 'allow_minor_auto_core_updates', 'wp_control_minor_auto_updates' );
function wp_control_minor_auto_updates( $value ) {
// return true to enable and false to disable
return true;
}
 
//Allow auto updates of major releases ie 3.7, 3.8, 3.9
add_filter( 'allow_major_auto_core_updates', 'wp_control_major_auto_updates' );
function wp_control_major_auto_updates( $value ) {
// return true to enable and false to disable
return true;
}
 
// Allow auto theme updates
add_filter( 'auto_update_theme', 'wp_control_theme_auto_updates' );
function function wp_control_theme_auto_updates( $value ) {
// return true to enable and false to disable
return true;
}
 
// Allow auto plugin updates
add_filter( 'auto_update_plugin', 'wp_control_plugin_auto_updates' );
function function wp_control_plugin_auto_updates( $value ) {
// return true to enable and false to disable
return true;
}
 
// Allow auto language updates
add_filter( 'auto_update_translation', 'wp_control_translation_auto_updates' );
function function wp_control_translation_auto_updates( $value ) {
// return true to enable and false to disable
return true;
}

Eine weitere wichtige Neuerung ist die Vorschlagfunktion für stärkere Passworter. Denn diese sind immer noch wichtigste Schutz und sollten auch öfters einmal getauscht werden. Es ist schon kurios, daß man das vielen Internetnutzern immer wieder unter die Nase binden muß.

Weiterhin bringt WordPress 3.7 einen Assistenten für die automatische Installation der richtigen Sprachdatei mit. Es gibt Menschen, die das System lieber in ihrer Muttersprache als im englischen Original nutzen wollen.

Links:

  1. WordPress Offizielle Ankündigung WP 3.7
  2. WordPress Automatischer Updater
  3. WordPress Plugin: Disable Automatic Updates

Problembehebung Dungeon Master Java

Dungeon Master Java
Dungeon Master Java

Ende August schrieb ich über zwei Dungeon Master Clones. Zu einem, den auf Java basierenden Clone, gab es ein paar kleine Startschwierigkeiten auf moderneren Systemen mit zwei Grafikeinheiten (GPU). In mehreren Zuschriften wurde berichtet, daß der Dungeon Master Java (DMJ) Clone nicht startet und daß die benötigte Java Version veraltet und unsicher ist. Eine kleines Workaround gibt es nun an dieser Stelle.

Für Sicherheitsbewußte

Um den Clone lauffähig zu bekommen, benötigt man eine ältere Java Runtime mit der Version 1.14. Das birgt allerdings Sicherheitsrisiken für den eigenen Computer.

Mit Virtualbox und einem Windows der eigenen Wahl kann man schon für Abhilfe sorgen. Virtualbox wird aus dem Internet geladen und installiert, dazu das Extension-Pack. Hat man Virtual-Box installiert, startet man die Virtualisierungssoftware. Man wählt sich ein Windows der Wahl (was man eben als CD/DVD vorliegen hat) und gibt dem Gastrechner noch einen passenden Namen. Im folgendem Fenster gibt man den Hauptspeicher (RAM) an. 2 bis 3 Gigabyte dürften schon ausreichen. Eine Festplatte wird im nächsten Fenster erzeugt und dazu nutzt man das VirtualBox Disk Image (VDI). Im nächsten Schritt wird eine dynamisch alloziierte Festplatte, erzeugt. Das heißt, daß die Datei, die die Festplatte belegt nur soviel Platz auf der Platte unseres Hostrechners verbraucht, wie viel Daten eben da drin gespeichert sind. Im nächsten Fenster brauchen wir nicht viel zu verändern. Wir belassen es bei 25 Gigabyte an Plattenplatz und klackern einfach auf Erzeugen. Nun muß nur noch der Grafikspeicher festgelegt werden und die 3D-Grafikbeschleunigung und 2D Video-Beschleunigung aktiviert werden. Die Häckchen dazu findet man nach einem Klick auf Anzeige.

Als nächstes wird das Installationsmedium, vorzugsweise CD oder DVD ins passende Laufwerk unseres Hostrechners gelegt und in Virtualbox die angelegte Maschine gestartet. Nun kann man getrost sein Windows aufsetzen. Ein neueres Windows (Vista, Win 7 und Win8) bringt von Haus aus die erforderlichen Treiber mit. Ist das gewünschte Windows nun virtuell installiert, startet man es und installiert dort drin Java 1.14 und den Dungeon Master Java Clone. Das Vorgehen dürfte ausreichend Sicherheit mit sich bringen.

Dieses Workaround setzt natürlich eine zweite gültige Windows-Lizenz oder eine Testversion von Windows vorraus.

Für Schnellstarter

Wer seine Windowspartition auf dem hauseigenem Rechner nur zum Zocken und Spielen verwendet und ein weiteres System (beispielsweise Linux) für kritische Arbeiten (zum Beispiel Onlinebanking und Surfen) nutzt, der kann sich überlegen, ob diese oben beschriebene Arbeit überhaupt nötig ist. Ist das genutzte Windows, installiert in einer eigenen Partition oder einem eigenen Gamingrechner kein Produktivsystem, sondern nur zum Spielen gedacht, kann nun abwägen, ob das oben genannte Vorgehen nötig ist. Bei Systemen, die man für die alltägliche Arbeit und den ganz persönlichen Medienkonsum genutzt wird, sollte natürlich die Sicherheit Vorrang haben.

Es sei aber empfohlen, die ganzen Sicherheitsupdates der beiden Systeme und die Virensoftware und Firewall auf den neuesten Stand zu bringen.

Starthilfe bei neuen Rechnern

Bei einer normalen Installation auf dem Rechner gab es Startprobleme. Die Installation verlief zumeist reibungslos, aber das Starten von Dungeon Master Java (DMJ) hakte und hing. Das Spiel wurde schlichtweg nicht geladen.

Was ist passiert? Die meisten neueren Rechner (neuer als 3 Jahre) besitzen zumeist 2 Grafikprozessoren. Einen auf dem Hauptprozessor und einen weiteren auf einer zusätzlichen Grafikkarte. Zumeist betrifft das die Prozessoren der Marken von Intel – Ivy-Bridge, Sandy-Bridge, Haswell und kommende Generationen.

Hier hilft ein einfacher Trick. Die zusätzliche Grafikkarte von AMD oder NVidia wird einfach in der Windows Systemsteuerung und dem Gerätemanager deaktiviert. Bei älteren Hauptprozessoren und solche ohne GPU erübrigt sich das Abschalten der zusätzlichen Grafikkarte.

Links zu Programmen

Weiterführende Artikel:

Ähnliche Games

  1. Alte Katakomben – Neuer Spielspaß – Legend of Grimrock (Die Medienspürnase)
  2. Legend of Grimrock wird editierbar (Die Medienspürnase)