blogging

Big Damn Stupid - ne, Blogging Desktop Server. Im Moment mein Lieblingsprojekt an dem ich mit Vibe-Coding herumspiele und mir eine Software baue, mit der ich das Blog betreiben kann. Aber diesmal mit der klaren Perspektive, dass ich nicht wieder dem Bitrot oder der Komplexitätsspirale erliege. Simple Software mit brauchbarer Oberfläche für die Pflege der Blogbeiträge, aber die Speicherung als Markdown Files mit YAML Frontmatter um einfach stabil für die Zukunft zu sein. Das ganze dann mit sqlite für Caching und Volltextsuche und andere Komfort-Features und git für die Synchronisation der Blog-Daten, und git-lfs für die Bilder. Fühlt sich gerade richtig brauchbar an.

Blogofile - bin ich drüber gestolpert, als ich überlegt hab was ich mache. Eine der vielen statischen Blogmaschinen in Python mit Git-Integration. Könnte für kleinere Sites unter Umständen mal interessant werden (oder z.B. für ein Metablog).

Learning from Dave Winer - ok, nur wenns um Blog-Kommentare geht. Und ja, ich habe auch mein Format drastisch geändert durch die viel stärkere Nutzung der Link-Komponente statt der Page-Komponente (Pages haben bei mir automatisch Kommentare, Links nicht). Wenn ich längere Texte schreibe, will ich vielleicht Kommentare haben. Wenn ich nur irgendwohin zeige, eher nicht.

MarsEdit - kann auch Markdown preview. Wäre für mich vielleicht interessant, da ich gerne auf Markdown aufsetze bei meinen Projekten.

Blogs mit Link-Redirector haben doofe Ohren

Beschlossen, das Blogs (und webpages) die ausgehende Links durch einen Redirector zwecks (potentieller) Auswertung des off-clicks der Besucher verunzieren doof sind. Und daher einige solcher Blogs abbestellt. Auch wenn der Inhalt interessant ist - wenn ich die Klicks auf weiterführende Informationen erst beim Blogbesitzer anmelden muss, kann der mich mal am RSS Feed lecken.

Ja, es gibt manchmal technische Gründe warum man das machen möchte - meine Link-Postings haben eine eigene GUID, die aber ein Redirect auf das Original sind (da bei mir eh nur ein Kurzkommentar steht, der im RSS Feed schon enthalten war). Aber das als generelle Massnahme? Ne.

Putziges aus der Blogosphäre - manchmal muss ich auf solche meta-internen Diskussionen einfach verlinken. Wegen des Humorwertes.

4 Jahre bloggen - sogar etwas mehr. Denn ich vergess immer wann mein erstes Posting war. Naja, ist ja auch nicht so wirklich wichtig ...

Owl Content

Owl Content gibts ja schon länger. Das ganze läuft einfach so nebenher, macht nicht viel Schmutz und tuts einfach nur. Und hat mitlerweile über 2300 Artikel gesammelt! Wollte ich einfach nur mal so angemerkt haben. Und wer sich jetzt fragt was das ist - hinsurfen. Lesen. Vielleicht auch mal selber dazu beitragen?

StudiVZ - Der Hitler-Screenshot und der Käufer Facebook - tscha, hallo Klo, hier Arm von Dummbeutel. Oder so ähnlich. Bis zur Schulter.

Auch beim Bildblog rechnen Milchmädchen - jo, das hat mich auch gestört. Dieses alberne Eschonda-Argument. Autos fallen halt from Himmel und werden den Leuten geschenkt oder so ...

David Byrne(ja, der von den Talking Heads) blogged. Unter anderem gegen den amerikanischen Christianistenwahnsinn.

Backfire für Transparency International

Als Antwort auf die Forderungen von Transparency International bescheinigt Udo Vetter vom Law Blog dem Anwalt des Vereins ein gestörtes Verhältnis zur Presse- und Meinungsfreiheit. Bei sowas würde man sich fast nen RSS-Feed für eine möglicherweise stattfindende Gerichtsverhandlung wünschen

transparency international mag keine kritik und schickt den anwalt

transparency international mag keine kritik und schickt den anwalt - eine Mitarbeiterin wurde entlassen, die Umstände wirken etwas rüpelhaft von Seiten der Firma. Eine Bloggerin berichtet darüber. Und der Anwalt von Transparency International zieht die grosse Keule. Nunja, ix hat eine passende Zusammenstellung von weiteren Fakten über diese NGO. Jeder lese selber und beurteile selber was davon zu halten ist.

Nur eines hätte TI bedenken sollen: wenn das Hauptziel ist, sich selber und die eigenen Mitglieder als Vorreiter gegen Korruption darzustellen (wieso eigentlich nur darstellen ? Wieso nicht sein ?), dann sollte man sich nicht gleichzeitig solche Patzer leisten. Denn sonst stellt man sich über kurz oder lang als was ganz anderes dar ...

Meinungsfreiheit ala Euroweb

Keine Ahnung mit welcher Dienstleistung die Euroweb Internet GmbH sonst noch ihr Geld macht, aber Publicity-Aktionen sollten das besser nicht sein, denn da greifen sie gerade heftig ins Klo mit ihrer Art mit unliebsamer Kritik umzugehen. Irgendwie verstehe ich solche Firmen und ihre Anwälte nicht. Einerseits wird ständig davon geredet, das Internet sei kein rechtsfreier Raum - aber durch die massive Vorgehensweise und die potentiell hohen Kosten machen solche Aktionen das Internet defakto genau zu diesem rechtsfreien Raum. Und aus Richtung der Politik kommen allenfalls Vorlagen zur Verschärfung der ganzen Situation, anstelle gegen offensichtliche Auswüchse wie Massenabmahnungen brauchbare Hilfsmittel bereitzustellen. Oder überhaupt zu überlegen, inwieweit das Mittel der Abmahnung gegen privat betriebene Websites überhaupt Sinn machen, oder ob man das Mittel der Abmahnung nicht wesentlich stärker fokussieren muss.

Dave Winer Breakdown

Irgendwo war es ja zu erwarten, trotzdem ist die Art wie Dave Winer jetzt komplett durchgeknallt ist selbst für ihn ziemlich selten dämlich. Ich mein, mit Rogers Cadenhead hatte er jemanden, der trotz all seiner Stänkereien (speziell rund um das RSS Advisory Board) versucht hat ihn noch halbwegs gut dastehen zu lassen. Nunja, das ist jetzt vorbei. Dave Winer ist halt der Prototyp des Internet-Soziopathen. Shitty Software. Shitty Manners.

NPD-BLOG - nein, kein Blog der NPD, sondern ein Blog über die NPD-Machenschaften.

P.K.K. - Purzel-Kollektiv Kübelreiter - purzeln find ich nett.

An die Content-Diebe

Da mal wieder wie an der Blogbar beschrieben Contentdiebe unterwegs sind, mal präventiv für diese eine Erklärung, was eine CC-Lizenz mit Share-Alike-Bedingung und Non-Commercial bedeutet: keine Ads auf den Seiten. Keine kommerzielle Site - also z.B. bezahlte Accounts oder ähnliches. Und ja, ich meine das mit den Non-Commercial ernst. Share-Alike hat auch eine einfache Erklärung: eine Site, die meine Inhalte wiedergibt, muss unter der gleichen Lizenz stehen, wie meine Site.

Wer die beiden Bedingungen (über die Erklärung von Attribution reden wir mal nicht) nicht erfüllen kann, muss wohl oder übel nachfragen. Und das bedeutet nicht, das eine Nicht-Reaktion eine stillschweigende Zustimmung wäre - wer keine explizite Erlaubnis von mir hat und sich nicht an die CC-Lizenz halten kann, muss eben die Griffel von meinen Inhalten lassen.

Und wer meint, das ich ihm nix kann: wer so blöd ist sich Inhalte aus RSS-Feeds automatisch zu ziehen, sollte darüber nachdenken, das die ziehende Maschine erkennbar ist (ganz besonders bei "stationären" Diensten) - und man durchaus passende Feeds für einzelne Server bereitstellen kann, wenn man seine Software so wie ich selber programmiert. Und glaubt mir, liebe Content-Diebe: die Inhalte, die ihr dann ziehen würdet, würden euch garantiert nicht gefallen.

Kids ...

Mein Bilderblog hugoesk.de (mitlerweile wieder deaktiviert) erfreut sich neuerdings scheinbar grosser Beliebtheit - diverse Bilder sind als Hintergrundgrafiken in myspace.com und xanga.com Sites aufgetaucht. Schon irgendwie strange, wenn man mehrere GB an Transfervolumen (so ca. das 10fache von dem, was mein Hauptblog an Traffic hat) nur irgendwelchen Gören zu verdanken hat ... (und ich hab nicht mal was über Tokio Hotel geschrieben )

Naja, also wieder mal erzieherische Maßnahmen aktiviert (und nein, das verwendete Bild ist weder obszön noch beleidigend - nur eine höfliche Aufforderung):

# Deeplinking von http://www.xanga.com/
RewriteCond %{REQUEST_FILENAME} ^.*\.jpg$
RewriteCond %{HTTP_REFERER} ^http://www\.xanga\.com/.*$
RewriteRule .* /wp-images/bilderklau.jpeg [L]

# Deeplinking von http://www.myspace.com/
RewriteCond %{REQUEST_FILENAME} ^.*\.jpg$
RewriteCond %{HTTP_REFERER} ^http://.*\.myspace\.com/.*$
RewriteRule .* /wp-images/bilderklau.jpeg [L]

Klar, meine Bilder stehen alle unter einer CC-Lizenz und deshalb können sie sich die gerne nehmen, wenn sie wollen. Aber das heisst nicht, das mein Traffic und meine Rechnerresourcen auch unter CC-Lizenz stehen - und gerade bei Vollformat-JPGs zieht das ganz schön heftig Volumen und Rechner-Resourcen. Man sollte da also zumindestens die Formen einhalten (z.B. vorher mal fragen, wenn man den Traffic nicht selber machen kann).

Ein einziges Bild hat im Januar mit 3500 und in diesem Monat schon mit 1500 Hits mehrere locker mal eben 7 GB an Volumen weggesteckt - und das sind nur zwei Sites, die da drauf linken. Scheinen einen echt grossen (und online-technisch aktiven) Freundeskreis zu haben die beiden Mädels.

Und Backlinks (was ja nach der von mir verwendeten CC-Lizenz das Minimum gewesen wäre) haben sie natürlich auch nicht gesetzt ...

Man fühlt sich schon etwas missbraucht ...

... wenn in der monatlichen Traffic-Statistik 1.79 GB für normale Besucher stehen, aber 1.83 GB für Bots und son Zeug. Und wenn man dann feststellt, das 1 GB alleine an den Google-Bot verschwendet wurde, 0.5GB an Inktomi und immerhin noch 125 MB an den MSNBot. Irgendwie scheint das ganze Internet hauptsächlich von Bots gelesen zu werden, nicht von Menschen: Bots hatten 235071 Seitenabrufe, Menschen nur 114158 Seitenabrufe.

Wenn es irgendwann einen Terminator gibt, wird der warscheinlich von einer Internet-Suchmaschine kontrolliert ...

Domain-Engel wird pampig

Wenn angebliche Domain-Engel gegen Bloghoster mit dem Anwalt drohen, steckt meistens eine beleidigte Leberwurst dahinter. In diesem Fall wohl ein mir bisher unbekannter Vogel, der aber scheinbar schon öfter auffällig geworden ist - und diesmal Lanu (der von DotComTod und BooCompany) wohl wegen ihrer Postings über ihn an den Kragen will - und mangels Impressum jetzt den Dirk Olbertz (den von blogger.de) meint zur Herausgabe der Daten zwingen zu können.

Wird ja sicherlich spannend, was da weiter passiert - wieder mal der Versuch zur Meinungsunterdrückung mit dem Anwalt. Ob das jetzt durch die Blogs gehende Rauschen seinen eh schon verdorbenen Ruf des Domain-Grabbers wieder aufbessert, ist wohl eher fraglich.

Wenn man dann allerdings sieht, das als Anwalt Syndikus mit im Spiel ist, wundert einen garnichts mehr.

Jean-Remy von Matt entkollert - dafür neidisch

Schon witzig, wenn ein angeblicher Kommunikationsprofi so deutlich seinen Neid raushängen lässt:

Viele von Euch schreiben, ich hätte mit meiner Mail ein Eigentor geschossen. Okay, eins vielleicht. Aber wie viele Eigentore schießt ihr gerade, indem Ihr mein Schlagwort „Klowände des Internets“ teils empört, teils genüsslich aufgreift im Sinne eines Agenda Setting verbreitet? Bei Technorati.com war der Suchbegriff zeitweise auf Platz 3!

Tja, so ist das nunmal - es gibt auch andere, die einen Begriff ausschlachten können. Und in den Blogs ist nunmal die Klowand angesagter als der du-bist-Deutschlang-Unfug.

Und zu der angeblichen "Entschuldigung" - sorry, aber das ist eine Entschuldigung, die man so auch von Politikern liest - nichtssagend, schwammig und als einzige Aussage daraus kann man bestenfalls ein trotziges "und ich hab doch recht!" rauslesen. Tja, Marketinghansel halt. Vorne ne grosse Klappe, aber nur ein empfindliches Seelchen und keine Kenne dahinter.

Feeds auf diesem Server

Mal ein paar Anmerkungen zu Feeds auf dieser Kiste - manch einer hat vielleicht noch nicht gemerkt, was meine Software alles so tolles macht

  • Jede Suche, jede Sammlung und jede Übersichtsseite - also Listen getaggter Beiträge, Suchergebnisse, Startseite, Linkdump, Fotoblog - hat einen eigenen RSS Feed.
  • der passende RSS-Feed ist immer in den link-Tags hinterlegt, aber zusätzlich auch unten am Bildrand mit dem kleinen XML-Icon erreichbar
  • Mediendateien enthalten die Mediendatei als Enclosure - also sozusagen integriertes Podcasting (wenn ich es denn täte) und Photocasting (was theoretisch iPhoto 06 User freuen sollte).
  • Tag-Seiten können übrigens mehre Tags zusammen aktivieren: einfach die Tags mit + trennen in der URL. Dann kann man sich auch nur für ein Spezialthema subscriben
  • Die Ergebnisse des Zeitgeistgeklicke - also das Zusammenstellen von Inhaltstypen und Tags - liefert einfach nur eine Suche, daher auch dafür einen eigenen Feed
  • Kommentare sind nicht nur an den Artikeln zu finden, sondern auch über das Forum. Und natürlich haben die auch einen eigenen Feed.

Übrigens hab ich vor kurzem auch den Linkdump und das Photoblog direkt oben im Menü verlinkt - wer also die aktuellen (und älteren) Bilder sehen will, einfach da hinklicken. Der Kalender ist leider noch nicht überall synchron mit dem angezeigten Inhalt - nur die Listen getaggter Beiträge und die Kommentare zeigen schon im Kalender korrekt nur die Tage an, bei denen auch ein entsprechend getaggter Beitrag oder eben ein Kommentar ist. Bei den anderen wird der Kalender immer noch genauso wie auf der Hauptseite angezeigt.

Weblog-Umzug

Tja, also jetzt ist es soweit - ich werde mein Weblog hier auf die neue Software umziehen - endlich kein PHP mehr für mein Haupt-Blog. Im Moment laufen noch beide Systeme getrennt, ich synchronisiere nur die Inhalte auf das neue Blog, in den nächsten Tagen werde ich aber hier einen Redirector installieren der alle möglichen URLs die wichtig sind auf das neue System umleitet. Kommentare gehen weitestgehend rüber, nur die Kommentare zu Blogmarks gehen flöten, die neue Software hat für Links keine eigene Seite mehr auf der Kommentare liegen könnten - macht eh keinen Sinn, wer über die Links diskutieren will, sollte die Kontaktmöglichkeiten der verlinkten Seite benutzen.

Ansonsten ist das neue System natürlich komplett mit Django erstellt - endlich alles in Python. Das war auch der Hauptgrund. Ausserdem wurde mir der immer weiter steigende Pagerank und die ganzen vielen Links und der - für meine Erwartungen riesige - Traffic langsam unheimlich, da muss man was gegen machen. Und das einfachste ist da immer noch die Domain zu wechseln

Achso, Feeds werden natürlich auch umgeleitet, aber wer will kann schon den neuen Feed unter der neuen Adresse eintragen.

Wem was an dem neuen System auffällt, entweder hier oder drüben in die Kommentare schreiben (halt da wo es dann funktioniert) schreiben. Ich hab zwar so ziemlich alles getestet, aber es schleichen sich trotzdem immer mal wieder Fehler ein ...

Trolle in Kommentaren - gescheitert am Intelligenztest

Schon putzig. Ich hab ja dieses Fragespielchen gegen Spam bei mir drin. Und die Fragen halte ich persönlich für ausgesprochen einfach. Geradezu banal, sozusagen. Nicht der Rede wert, eigentlich.

Nunja, nun stellt sich mir allerdings die Frage, wie es dann zu dem genialen Kommentar mit dem Text "Ihr seit dermaßen blöd" kommen kann - und zwar mit dem von meinem System zugesetzten Text, das der entsprechende Kommentator die falsche Antwort auf mein Fragespielchen gegeben hat

Teufelsgrinsen

Putzig, wirklich putzig.

Definition: Peinlich

Leute, die über ihr Blog-Design längere Artikel schreiben.

Traumtänzer at Work

Wer mal richtig ablachen will: RatcliffeBlog—Mitch's Open Notebook: Measuring podcasts: The right first step - über die kläglichen Versuche von Audible am Podcasten zu verdienen. Egal was man von Podcasts hält (ich halt nix davon, deren Accessibility ist einfach nur grottenschlecht), die Vorstellungen von Audible (die DRM-verseuchte Audiobooks verkaufen) sind einfach nur lachhaft.

Akismet - zentralistischer Anti-Spam-Filter

Photomatt (der von Wordpress) hat mit Akismet einen zentralen Anti-Spam-Dienst aufgebaut, den man per Plugin mit Wordpress benutzen kann. Zusätzlich gibts auch eine API, mit der man andere Dienste anbinden kann. Grundsätzlich eine gute Idee - auch wenn ich generell eine Abneigung gegen zentrale Dienste habe, ausser ich selber betreibe diese zentralen Dienste.

Was mir aber wirklich sauer aufstößt, ist dieser kleine Ausschnitt aus der FAQ:

Well without giving too much of the secret sauce away, we can safely say that it would be pretty difficult to poison Akismet.

Also zentraler Dienst - ok. Mag ich zwar nicht, aber macht durchaus für andere Sinn, die nicht selber sowas betreiben können oder wollen. Aber "secret sauce" - ich soll also meine Kommentare mit den persönlichen Daten meiner Kommentatoren an ein fremdes System schieben, bei dem ich nicht mal die Software sehen kann, die dahinter läuft? Sorry, nein Danke.

to flock - zusammenrotten

Ich weiss nicht, ob das obige so das richtige Motto für mich ist. Bookmarks in del.icio.us. Bilder in Flickr. Irgendwie hab ich das Zeug lieber bei mir als bei irgendwelchen zentralen Hostern.

Was sie aber richtig machen: automatisches Indizieren von Seiteninhalten, so das man die auch wiederfindet. Gäbs das ganze dann auch noch in einer OS X Version bei der der Browser auch wirklich eine OS X Anwendung ist (und nicht nur eine auf OS X lauffähige Anwendung), könnte das wirklich reizvoll sein.

Desktruktiv?

Mal ne Frage an diejenigen, die meinen den Blogs Destruktivität vorwerfen zu müssen: könnt ihr Spacken mir mal verraten, warum ich bei dem Stuss den Politik, Medien und Wirtschaft abziehen konstruktiv sein soll? Wenn euch jemand in den Vorgarten scheisst nehmt ihr das warscheinlich auch ganz konstruktiv als Rosendünger? Traumtänzer.

Blogcounter, Schwanzlängen und andere Lügen

Im Moment wird ja mal wieder wild über Hitzahlen und ähnlichen Unfug diskutiert. Meist interessieren die mich nicht (mein Server hat ein abstrus hohes Freivolumen, das ich eh nie ausnutzen kann, die Serverlast ist auch gering - also was scherts mich, wie viel hier ankommt?), aber bei den diversen Verkündungen von Hitzahlen, Pagesviews und Visits muss ich dann doch immer leicht grinsen.

Mal so als kleine Analyse der ganzen Geschichte. Zuerst der wichtigste Teil: wo kommen die her, diese Zahlen? Grundsätzlich gibts zwei Möglichkeiten. Eine baut darauf auf, das Seiten ein kleines Element enthalten (z.B. ein Image - manchmal unsichtbar - oder ein Stück JavaScript oder ein Iframe - alle gemeinhin unter dem Begriff Webbug (Web-Wanze) zusammengefasst) welches gezählt wird. Die andere Methode geht auf die Logfiles des Webservers und wertet diese aus. Es gibt noch eine dritte, bei der über einen Cookie der einzelne Besucher identifiziert wird - ist aber eher seltener in Benutzung, ausser für einige eher unbeliebte Werbesysteme.

Es gibt grundsätzlich eigentlich nur wenige echte Zahlen die sowas wirklich liefern kann (mit Ausnahme der Individualisierung über Cookies): zum einen Hits, zum anderen Megabytes and Transfer. Ganz entfernt nützlich gibts noch die Anzahl unterschiedlicher Hosts (IP-Adressen) die zugegriffen haben.

Diese Zahlen haben aber ein problem: sie sind rein technisch. Und damit stark von der Technik abhängig. Hits gehen rauf, wenn man viele externe Elemente hat. Bytes gehen rauf wenn man viele lange Seiten hat (oder grosse Bilder oder ...). IP-Adressen gehen runter, wenn viele Besucher hinter Proxies hängen. Und gehen rauf, wenn man viele ISDN-User hat - wegen der dynamischen Einwahladressen. Veränderungen in den Zahlen haben also sowohl mit Veränderungen bei den Besuchern als auch bei den Seiten zur Ursache.

All diese Zahlen sind also so aussagekräftig wie der Kaffeesatz in der morgendlichen Tasse. Deshalb ziehen Leute aus diesen - technisch zumindestens definierten - Zahlen dann andere Zahlen, die was aussagen sollen. Hier sind vor allem die Visits (Besuche auf der Webseite), die Page-Impressions (Zugriffe auf echte Seitenadressen) und die Visitors (unterschiedliche Besucher) zu nennen.

Nehmen wir mal die einfachste Zahl, die wenigstens noch rudimentäre Verankerung in der realen Welt hat: die Page-Impressions. Hierzu kann man auf verschiedenen Wegen kommen. Man kann die oben genannten Webbugs auf die Seiten packen die gezählt werden sollen. Damit ist die Zahl ungefähr so verlässlich wie das Zählsystem. Dummerweise sind die Zählsysteme das absolut nicht, aber dazu gleich mehr. Die Alternative - über die Webserver Logfiles zu gehen - ist etwas besser. Dazu zählt man einfach mit, wie viele Hits mit dem Mime-Type text/html (oder welche auch immer für die eigenen Seiten genutzt werden) ausgeliefert werden. Man kann auch nach .html zählen - aber viele Seiten haben sowas nicht mehr in den Adressen stehen, der Mime-Type ist da verlässlicher.

Aussagekraft? Naja, eher zweifelhaft. Viele Benutzer werden über ihre Provider über Zwangsproxies gezogen - ein Proxy hat aber die Eigenschaft, das er Hits vermeiden hilft. Hat ein Besucher die Seite abgerufen, wird sie möglicherweise (abhängig von der Konfiguration des Proxies) an andere Besucher aus dem Cache ausgeliefert, nicht vom Server geholt. Betrifft zum Beispiel ganz AOL - die Zahlen sind dort deutlich verfälscht. Je A-List-Bloggerisch der Blogger wirklich ist, desto verfälschter (da ja Cache-Hits häufiger sein können als bei wenig besuchten Blogs) sind die Zahlen oft.

Zusätzlich machen Browser auch sowas - Seiten zwischenspeichern. Oder Besucher machen was anderes - Seiten nochmal laden. Proxies wiederholen manchen Ladevorgang automatisch, weil der erste vielleicht wegen Timeout nicht ganz durch ging - das sind alles Verfälschungen der Zahlen. Trotzdem sind die Page-Impressions noch wenigstens halbwegs brauchbar. Ausser man benutzt Webbugs.

Denn Webbugs haben ein generelles Problem: es sind eben nicht Hauptseiten. Sondern eingebettete Objekte. Hier verhalten sich Browser oft noch hartnäckiger - was im Cache ist, wird aus dem Cache angezeigt. Wozu das Bildchen denn nochmal holen? Klar, man kann da vorbeugen mit geeigneten Header - trotzdem gehts oft genug schief. JavaScript-basierte Techniken gehen voll an Benutzern ohne JavaScript vorbei (und glaubt mir, es gibt von denen wesentlich mehr als gerne zugegeben wird). Letzten Endes haben Webbugs die gleichen Probleme wie die eigentlichen Seiten, nur noch ein paar zusätzliche, eigene Probleme. Warum die trotzdem genutzt werden? Weil es die einzige Möglichkeit ist, seine Statistiken auf einem anderen System als dem eigenen zählen zu lassen. Also unerlässlich für globale Schwanzlängenvergleiche.

Nunja, verlassen wir die Page-Impressions und damit den Bereich der Rationalität. Kommen wir zu Visits, und damit eng verwandt den Visitors. Besucher sind geheimnisvolle Wesen im Web - man sieht nur die Zugriffe, aber wer das ist und ob man ihn kennt, das ist nicht sichtbar. Um so wichtiger für Marketingzwecke, denn alles was Humbug ist und nicht nachprüfbar, lässt sich wunderbar für Marketing ausnutzen.

Besucher sind für einen Webbrowser nur über die IP des Zugriffes erkennbar, zuzüglich der Header die der Browser schickt. Das ist leider viel mehr als man wahrhaben will - aber (ausser bei den Cookie-Setzern mit individueller Benutzerverfolgung) nicht genug zur eindeutigen Identifikation. Denn Benutzer teilen sich IPs - jeder Proxy wird als eine IP aufschlagen. Benutzer nutzen vielleicht sowas wie tor - und damit ist die IP häufiger eine andere als beim letzten Mal. Benutzer teilen sich einen Rechner in einem Internet-Cafe - und damit sind es eigentlich nicht Benutzer, sondern Rechner die man zuordnet. Es gibt zwar Header die von Caches gesetzt werden mit denen man Zuordnungen machen kann - aber wenn hinter dem Cache die Benutzer alle nur private IP-Adressen nutzen (die 10.x.x.x oder 172.x.x.x oder 192.168.x.x Adressen die man so aus einschlägiger Literatur kennt), hilft das auch nicht.

Besucher sind aber noch ein bischen zuzuordnen, wenn der Zeitraum kurz ist - aber über Tage? Sorry, aber im Zeitalter von dynamischen IP-Adressen hilft das garnichts. Die Besucher von heute und die von morgen können gleich oder verschieden sein - keine Ahnung. Trotzdem wird stolz verkündet, wie viele Besucher man im Monat hatte. Hat natürlich gar keine Aussagekraft mehr. Selbst Tageszahlen sind schon stark verändert durch dynamische Einwahlen (nicht jeder benutzt ne Flatrate und hat für 24 Stunden die gleiche Adresse).

Aber um dem Wahnsinn noch einen draufzusetzen, es werden ja nicht nur die Besucher gezählt (angeblich), sondern auch noch deren Besuche. Ja, das ist dann richtig spannend. Denn was ist ein Besuch? Ok, einen Besucher über kurze Zeit wiederzuerkennen (mit all den Problemen die durch Proxies und ähnliches dazu kommen natürlich) geht so einigermaßen - und man weiss auch genau wann ein Besuch anfängt. Beim ersten Zugriff nämlich. Aber wann hört er auf? Denn ein Beenden eines Webbesuches (ein Logout) gibts ja nicht. Man geht einfach weg. Kommt nicht so schnell zurück (wenn überhaupt).

Ja, da wirds dann richtig kreativ. Nimmt man einfach die Zeitabstände der Hits? Oder - weil Besucher ja die Inhalte alle immer lesen - berechnet man den Zeitabstand ab wann ein Hit ein neuer Besuch ist aus der Grösse des zuletzt geholten Seitendokumentes? Wie filtert man regelmäßige Refreshs aus? Wie geht man mit den obigen Besucherzählproblemen um?

Garnicht. Man saugt einfach. An den Fingern. Raus kommt dann eine Zahl. Meistens auf der Basis eines Zeitabstandes zwischen Hits - lange Pause, neuer Besuch. Das zählt man einfach. Und haut es in eine Summe. Ungeachtet der Tatsache, das ein Besuch vielleicht durch ein Telefongespräch unterbrochen war - und daher zwei Visits ein Visit waren, nur halt mit Pause. Ungeachtet der Tatsache, das sich Benutzer Rechner oder IP-Adressen teilen - und damit ein Visit in wirklichkeit 10 verzahnte Visits waren.

Oh, ja, ich weiss das manche Software die Referrer-Header des Browsers benutzt um Pfade durch das System zuzuordnen und daraus dann klarerer Visits aufzubauen. Was natürlich nicht mehr glatt geht, wenn der Benutzer mit dem Back-Button zurückgeht oder eine Adresse nochmal eingibt, ohne das ein Referrer produziert wird. Oder eine personal Firewall benutzt, die Referrer teilweise filtert.

Was dann richtig putzig ist, all die Zahlen werden auf den Markt geworfen, ohne das es klare Aussagen gibt. Klar, manchmal wird gesagt über welchen Dienst man die Zahlen ermittelt hat - aber was sagt das aus? Kann man die Zahlen dort fälschen? Zählt der Betreiber korrekt (bei blogcounter.de kann man ja wohl auf banalste Weise die Zahlen verfälschen) und zählt er überhaupt sinnvoll? Ach watt, einfach Zahlen nehmen.

Gerne wird das Argument gebracht, das zwar die Zahlen nicht direkt als absolute Zahl über Zählergrenzen hinweg verglichen werden können, aber man kann ja Zahlen vom gleichen Zähler vergleichen - daraus gründen sich dann Firmen, die Geld damit verdienen, diese Kaffeesatztechnik an andere zu vermieten und damit die tollen übergreifenden Ranglisten zu realisieren. Bis dann jemand merkt, wie man die Zähler banal manipulieren kann ...

Richtig putzig wirds dann, wenn die Zahlen noch mit der Zeitachse in Deckung gebracht werden und daraus Sachen wie durchschnittliche Verweildauer und daraus dann wieder in Kombination mit der Seitengrösse ermittelt wird, wie viele Seiten gelesen und wie viele nur geklickt wurden (basierend auf der üblichen Lesegeschwindigkeit wird sowas tatsächlich von mancher Software "ausgewertet").

Fassen wir also mal zusammen: es gibt einen begrenzten Rahmen an Informationen auf denen man aufsetzen kann. Das sind Hits (also Abrufe vom Server), Hosts (also abrufende IP-Adressen) und übertragene Mengen (summiert die Bytes aus den Abrufen). Dazu noch Hilfsinformationen wie z.B. Referrer und unter Umständen Cookies. Alle Zahlen können manipuliert und verfälscht werden - und viele werden durch gängige Internet-Techniken auch tatsächlich verfälscht (häufigster Fall eben die cachenden Proxies).

Diese also eher unzuverlässigen Zahlen werden durch - teilweise nicht öffentliche - Algorithmen gejagt und daraus dann Mumbojumbo erzeugt, der dazu benutzt wird um zu zeigen was für ein cooler Frood man doch ist und wo das Handtuch hängt.

Und bei so einem Mumpitz soll ich mitmachen?

PS: der Autor dieses Postings hatte laut awstats-Auswertung im letzten Monat 20172 Besucher, 39213 Besuche, 112034 Seitenabrufe in 224402 Zugriffen und schob dafür 3.9 Gigabyte über die Leitung - was, wie oben festgestellt, komplett irrelevant und nichts aussagend ist, ausser das er sich vielleicht sinnvollere Hobbies suchen sollte

Wenn google schon einen neuen Feedreader baut ...

... wieso unterstützt der dann keine Feed Autodiscovery?

weblogs.com an Verisign verkauft?

Wenn ich das Gebabbel bei Dave Winer richtig verstehe, hat er weblogs.com und andere Infrastruktur an Verisign verkauft (yep, Bestätigung bei Verisign).

Womit für mich weblogs.com komplett tot und uninteressant geworden ist, denn alles was Verisign anpackt wird zu Scheisse. Zumal ich dem Laden nicht mal so weit traue wie ich spucken kann - die haben in viel zu vielen Internet-Themen ihre schmutzigen Finger drin (und sind allzu besorgt um den Ausbau ihrer jetzt schon absurden Monopolstellung in einigen Bereichen).

Nunja, pingen tut man heute eh über Ping-O-Matic - damit gehen Pings dann auch wesentlich breiter raus, auch an die sinnvolleren Dienste. Abgesehen davon war weblogs.com eh schon ziemlich unbrauchbar, weil es einfach die nötige Performance vermissen liess. Was kein Wunder ist, wenn man bei solchen Diensten auf die falsche Softwarebasis setzt (nix gegen Frontier, aber für sowas ist es einfach unbrauchbar) ...

diese komische Umfrage ...

... die seit ein paar Tagen durch die Blogs geistert, kriegt hier ihr Fett weg. Fängt in den Kommentaren harmlos mit den üblichen Überlegungen wegen persönlicher Daten und wo kommt denn die Mailadresse her an, was sollen die personalisierten Links bei der "anonymen" Umfrage - also ganz normales und gesundes Verhalten der Leute.

Dann irgendwann steigen die Provider (die Knallgrauen) ein. Und dann kommt was, das mir die Sprache verschlägt:

Und jetzt noch ein paar persönliche Worte: ich finde die Aufregung hier ein wenig verwunderlich. Wir (twoday.net) waren in der Vergangenheit immer sehr vorsichtig mit Daten und haben uns immer bemüht vorsichtig und im Sinne der User mit solchen Themen umzugehen. Tagtäglich wird allerorts wesentlich unvorsichtiger mit Persönlichkeitsrechten umgegangen und keinen interessierts. Hier kann aber mal jeder sagen wie er/sie sich Forschung so vorstellt, inkl. schönen Veröffentlichungsträumen, die leider weit von jeglicher Realität entfernt sind.

Sorry, aber bitte was? Es wird also auf die Bedenken über die Weitergabe von eMail-Adressen zu einem Zweck dem der Besitzer der Adresse nicht explizit zugestimmt hat mit der fadenscheinigen Argumentation "man ist ja sonst immer soooo gut und die anderen sooo böse, und überhaupt, ihr seid doch alles Träumer" reagiert? Schon erstaunlich wie viel Arroganz in einen kleinen Absatz passt ...

Wirft ein nicht gerade positives Bild auf das Verhältnis der Knallgrauen zum Schutz der persönlichen Daten der Nutzer. Und nein, eine Umfrage ist nichts was zum Betrieb notwendig ist - egal wie fadenscheinig die Begründung ist, mit der das an den Haaren herbeigezogen wird.

Und es war nicht einfach nur ein Ausrutscher, wie etwas weiter unten ein weiterer Kommentar aus der knallgrauen Richtung belegt:

auch in anderen diskussionen kann ich die aufregung um manche dinge persönlich einfach nicht nachvollziehen. datenschutz ist wichtig, aber nicht alle buben sind böse. ich bin also wohl eher nicht der spezies der vorsichtigen zuzurechnen, vielleicht hab ich bis jetzt einfach glück gehabt.

Jaja, Datenschutz wird immer viel zu ernst genommen. Sorry, Knallgrau, aber Datenschutz wird immer viel zu Lax genommen, daher kommen so Knalltüten wie ihr da drauf da einfach mal drüber wegzusehen. Ist ja auch viel wichtiger eine seit Monaten geplante Umfrage (von der der Besucher nix hat, sondern nur der Auswertende und der Ergebnisempfänger - nur mal so am Rande) durchzuziehen und sie wegen solcher Banalitäten nicht zu kippen, wie ihr im selben Kommentar schreibt:

das interessante an kommunikation ist, dass es immer zu wenig davon gibt. das sensible umfeld (auf grund vorheriger umfragen) war uns klar, die umfrage ist jedoch schon seit monaten geplant und auch vorbereitet (sehr gründlich vorbereitet) und wir wollten nicht aus solchen gründen das projekt nicht kippen.

Genau. Scheiss auf Datenschutzbedenken, das sind ja nur "solche Gründe" und nichts wichtiges, wie zum Beispiel eine weitere belanglose Umfrage zur Blogosphäre (bei der zur Verbesserung der Services des Providers nach dem Einkommen des Besuchers gefragt wird - ahja) ...

Googles Blogsuche strohdumm

Wann kapiert endlich Google, das eine Suche nach Links auf ein Blog ziemlich saublöd ist, wenn es Links des Blogs auf sich selbst zurückliefert im Ergebnis? Das ich auf mich linke, das weiss ich schon - dazu brauche ich kein Google. Weder die Websuche noch die Blogsuche. Und natürlich kann man nicht einfach -site oder -domain oder sowas benutzen. Selten blöd. Hat mich schon an der normalen Websuche von Google genervt, nervt auch bei der Blogsuche. Eine Suche nach link: ist eine Suche nach Fremdlinks, also bitte filtert das Ergebnis um die Site selber ...

Dusseliges Frage-Spiel aktiviert

Weil im Moment mal wieder die Spammer meinen Server bombardieren und ich keine Lust habe in der Moderationsqueue haufenweise Spam zu sehen, hab ich mal wp-questionnaire aktiviert. Im Moment gibts also eine mehr oder minder blöde Frage die man beantworten muss, damit ein Kommentar auch auf den Seiten auftaucht. Sorry, ist leider im Moment einfach notwendig - das sind so 30-40 Spam-Kommentare am Tag die kommen. Ja, die landen nur in der Moderation, aber trotzdem ist es schlicht und einfach nervig.

Wenn sich die Lage bezüglich der Spammer wieder beruhigt hat, werd ich das dann wohl wieder abschalten. Wenn jemandem was komisches auffällt bezüglich der Kommentarfunktion, einfach melden (dann aber besser über die Feedback-Seite und nicht über die Kommentare )

Weiterer Spam-Fallout - kein Trackback und Pingback mehr bei mir

Als weitere Aktion wegen der anhaltenden Spam-Welle hab ich bei mir Trackbacks und Pingbacks deaktiviert. Ich halte von Trackbacks eh nicht viel - das technische Konzept ist hirnrissig. Pingbacks sind zwar technisch besser gelöst - durch die stärkere Fokussierung auf das Rücklinken - aber sind optisch einfach grauenhaft: die technisch erzeugten Excerpte sehen einfach nur Scheisse aus.

Wer kommentieren will kann kommentieren - und ein Kommentar kann ja auch einen Link zurück enthalten. Und für alles andere gibts eh die gewohnten Neugiertools - und deren Link-Suche funktioniert recht brauchbar (wobei ich auch da schon bergeweise Link-Spam gefunden habe - irgendso ein dummes Spammer-Pseudo-Blog hatte eine ganze Zeit lang haufenweise Links auf mich und landete dadurch in meinen Technorati-Auswertungen).

Da ich konsequent bin, werde ich auch keine Trackbacks und Pingbacks mehr rausschicken, wenn ich sie denn auch selber nicht akzeptiere. Sorry, aber meine Zeit ist mir dafür einfach zu schade um ein technisch unausgegorenes Protokoll manuell von Müll zu befreien ...

Google Blog Search

Google macht jetzt auch eine Google Blog Suche - aber warum muss jemand der als letzter ins Rennen geht so blöd (arrogant?) sein, diese Blogsuche nur als HTML auszuliefern und nicht auch alternativ als eigenes RSS, so das man mit den Suchergebnissen auch was tun könnte? Ich mein, eine performante Alternative zu Technorati oder Feedster wäre ja ganz nett, die sind einfach zu oft down. Aber was bringt das, wenn ich da alle Suchen immer selber und von Hand machen muss?

Korrektur: gibt XML-Links für die Suchergebnisse.

Posting 5000

Wow. Das hier ist ernsthaft jetzt das Posting 5000 in der Datenbank.

erstauntes Gesicht

Daves neuer OPML Editor mit Blog

Ich spiele gerade mit dem OPML-Editor von Dave Winer rum, mit dem er jetzt sein Blog macht. Sieht ganz witzig aus und kann einiges. Mein OPML-Blog hat einige der Erkenntnisse die ich damit gemacht habe gesammelt. Ich werde jetzt sicherlich nicht einfach mal eben so umsteigen - das wäre Quark, das ist nicht unbedingt meine Zielsoftware. Aber es macht Spaß mal wieder mit etwas ganz anderem zu spielen.

Leider hat der OPML Editor einige der Krankheiten von Radio Userland und Frontier geerbt, speziell Umlautehandhabung ist nicht so wirklich rund (ich hätte gerne endlich mal durchgängige UTF-8 Unterstützung) und das Laufzeitverhalten ist zwar besser als bei Radio, aber es zieht immer noch sporadisch zu viel CPU.

Das Konzept von gerenderten Outlines hat aber durchaus Charme. Nur leider sind noch viele Teile des Renderings nicht wirklich für normale User zugänglich - man kann zwar das uralte Table-Layout editieren und was anderes draus machen, aber die OPMLs werden mit dem internen OPML Renderer umgesetzt und die HTML-Fragmente sind nicht so einfach zu ändern - und damit zum Beispiel die Änderung der Sprache recht mühsam, genauso wie die vollständige Ausmerzung von Layouttabellen.

Mehr wird sicherlich nach und nach auf dem OPML Blog landen, hier werd ich maximal ein paar Fazits schreiben.

Noch son Fragebogen

Aus meiner Mailbox von Lisa Sonnabend:

Im Rahmen meiner Abschlussarbeit am Institut für Kommunikationswissenschaft und Medienforschung der Ludwigs-Maximilians-Universität München führe ich eine Befragung unter Webloglesern zum Thema „Glaubwürdigkeit von Weblogs“ durch. Es handelt sich um eine der ersten wissenschaftlichen Untersuchungen zum Phänomen Weblogs in Deutschland.

Es soll geklärt werden, ob Weblogs in gewissen Punkten wie Fairness oder Unvoreingenommenheit bereits als ähnlich vertrauenswürdig und kompetent gesehen werden wie traditionelle Medien – und in welchen Punkten große Unterschiede herrschen. Darüber hinaus wird mit der Befragung untersucht, welche besonderen Qualitäten Weblogs aus Sicht der Rezipienten haben und welchen Stellenwert diese für die Nutzer spielen. Anhand der Ergebnisse soll anschließend eine Prognose über das zukünftige Gewicht von Weblogs in der Medienlandschaft gefällt werden.

Und ich soll den Link ins Blog packen, damit Leute dabei mitmachen. Nagut, mach ich das doch mal, auch wenn ich mich frage was für eine Kompetenz und Vertrauenswürdigkeit die alten Medien eigentlich haben sollen

Hier gehts zum Fragebogen

The diaries of Franz Kafka, 1910-1923

Ich bin weder der erste noch der originellste der drüber schreibt: Franz Kafka blogged. Aber egal wie spät ich aufspringe, das ist mal ein Blog das man wirklich lesen sollte. Und an dessen Intelligenz wohl auch ein Megawattwurm nix auszusetzen haben kann

Webspammer mit neuen Tricks?

Scheinbar lernen die Webspammer ein paar neue Tricks. Jedenfalls bin ich über Links auf mich gestolpert die aus einem WordPress-Blog stammen das nur aus wilden HTML-Schnipseln besteht die scheinbar aufgrund von Suchen nach "house" entstanden sind - und in der Blogrolle des Blogs stehen dann diverse typische Müllsites. Könnte also sein das Spammer jetzt Pseudosites aufbauen mit Links und Inhalten die darüber die Suchindizes von Systemen wie Technorati oder den Pingdiensten vollmüllen sollen.

Oh, und die Texas-Holdem-Spacken haben auch ein paar neue Tricks gelernt - die URLs haben jetzt stärker wechselnde Servernamen und Dateinamen so das normale Stichwortfilter nicht mehr ganz so gut funktionieren und mir öfter mal Spam zur Moderation vorgelegt wird - lange Zeit sind die Sachen direkt in die Tonne gegangen weil die Typen wirklich zu dämlich waren ...

Nerviges Pack.

verwirrtes Gesicht

Ego-Surfing

Ego-Surfing

Ego-Surfing

Wow. Von 11 Millionen Hugos bin ich auf Platz zwei ...

Heute in Blogland

Grosses Ankündigungsgetöse, angeblich geheimnisvolle Ankündigungen und grosses Gerede. Und Countdowns. Die armseligste Form der Ankündigung. Countdowns. Ich hätte gewarnt sein müssen. Hab aber doch gedacht das irgendwas interessantes rauskommt. Was kommt aber? Eine Ankündigung eines Blogverlages. Mit Marketingspeak. Und Sponsorings (die ich dank Ad-Blocker eh nicht sehe). Für mich genauso spannend wie die Payblog-Aktion von Kottke. Enttäuschend.

Reis. Sack. China. Plumps.

Enclosures im Bilderblog

Ich hab drüben bei hugoesk.de jetzt den Code für den Bilderupload so gepatched das er die nötigen Daten für Enclosures generiert. Dadurch kriegen Enclosure-fähige Newsreader jetzt nicht nur das Vorschaubild sondern auch noch das Originalbild (in der Regel 1800x1200 Pixel - also für Ausbelichtungen bis 10x15cm geeignet) mitgeliefert. Für Newsreader die mit Enclosures nichts anfangen können bleibt natürlich alles beim alten. Mal schauen was dann das iTunes damit macht - es soll ja auch Artwork können. Wobei das warscheinlich eher für Covers von MP3-Enclosures gedacht ist - möglicherweise landen die Bilder also nicht automatisch in iPhoto (wo sie hingehören würden) sondern in iTunes als Cover für nicht existente Alben ...

PodCasts und der Gouvernator

Arnie podcasted: Welcome to California. Watt fürn Scheiss.

Photon iPhoto Plugin

Photon ist ein sehr nettes iPhoto Plugin mit dem man sehr einfach Bilder von iPhoto in ein MetaWeblogAPI-taugliches Blog (z.B. WordPress) posten kann. Die Bilder die gerade hochgeladen wurden stammen daraus. Photon benutzt dazu die Bilderdaten in iPhoto, man hat also endlich mal was davon seinen Bildern Titel zu geben (bei Schneckig ... hab ich das noch falsch gemacht - deshalb ist der Link so kryptisch). Gefällt mir, das Plugin ... Was natürlich jetzt wieder nicht so richtig klappt ist die Nutzung zusammen mit meinem eigenen Bilderblog auf hugoesk.de - da benutze ich ja für die Fotos ein eigenes WordPress-Plugin das die ganzen Metadaten verwaltet. Mal gucken ob ich mir dafür was hacke das automatisch von MetaWeblogAPI-Posts per Photon dann die fehlenden Metadaten (z.B. EXIF-Daten und Fotozuordnung) ergänzt, oder ob ich da weiter ganz klassisch mit Dateiexport aus iPhoto und anschliessendem Upload arbeite. Übrigens waren die beiden hochgeladenen Fotos vorher RAW-Bilder - iPhoto kommt super mit den RAWs der 10D klar. Und das neue Bearbeitungsfenster in iPhoto ist auch ganz brauchbar. Allerdings hat iPhoto dabei einen blöden Bug: es schreibt nur reduzierte EXIF-Daten in das JPG beim Export auf Platte. Die Blende, Zeit und Brennweite sind drin - aber das originale Datum fehlt. Ziemlich blöd, wenn die Zielsoftware daraus ein Eintragsdatum erzeugt (so wie es hugoesk macht). Ausserdem importiert iPhoto nur die .CRW-Files, nicht aber die .THM-Files (in denen weitere Einstellungsdaten gespeichert sind). Zum Einen fehlen dadurch diese Daten in iPhoto und zum Anderen laufen so Speicherkarten nach und nach voll, da die .THM-Files stehen bleiben und Platz belegen. Jedenfalls wenn man in iPhoto die Originale löschen Option benutzt. Ich hab eindeutig zu viele Bilderverwaltungen im Einsatz