spam - 26.3.2003 - 7.7.2004

UN: Spam-Problem in zwei Jahren lösbar

Oh Mann, viel Ahnung haben die bei der Netzzeitung nicht, oder? Die ITU als UN zu titulieren ist mehr als albern. Die ITU ist zwar eine UN-Organisation - aber sie wird primär von Firmen, insbesondere grossen Telekommunikationsunternehmen, getragen. Vor allem ist die ITU eines: der Erzfeind der IETF.

Denn die ITU meint für alle Kommunikationssysteme verantwortlich zu sein und meint auch im Internet das Sagen zu haben. Dort ist aber die IETF der Standardgeber (bzw. eben nicht Standardgeber, sondern nur RFC Verwalter). Standards in der IETF entstehen ganz anders als in der ITU.

Die ITU definiert Standards in Kommitees. Der Zugang ist reglementiert und mit heftigen Gebühren belegt. Privatpersonen haben keine Chance in die ITU zu kommen, das geht nur über nationale Einrichtungen oder Grossunternehmen. Was Standard wird, wird in den geschlossenen Arbeitsgruppen entworfen - und zwar danach, was die Teilnehmer alles wollen. In der Regel endet ein ITU Standard als gemeinsame Sammlung aller Anforderungen. Der Standard selber ist oft sogar nur gegen Zahlung erhältlich, Referenzimplementierungen im Vorfeld der Standarderarbeitung existieren nur selten und Implementierungen generell sind meistens proprietär und kostenpflichtig.

Die IETF hingegen verwaltet nur den organisatorischen Teil - die eigentlichen RFCs entstehen in offenen Workinggroups. Jeder der will kann teilnehmen. RFCs müssen - wenn sie in den Standard-Track wollen - zwei unabhängige aber interoperatible Implementierungen vorweisen, die jedermann zugänglich sein müssen. Existierender und freier Code definiert was Standard wird.

Äusserungen der ITU zum Thema Internet sind oft einfach nur der Versuch in einem Bereich Einfluss zu gewinnen, in dem die ITU keine Rolle spielt, obwohl die Kommunikationstechnik sich immer stärker dorthin orientiert. Man braucht nur mal über Internet-Telefonie nachdenken um zu sehen zu was für einem Problem sich das für die ITU - die derzeit den Telefoniesektor fast komplett kontrolliert - auswirken kann.

Aber gerade wegen der sehr unterschiedlichen Arbeitsweise will eigentlich niemand die ITU im Internetsektor als relevante Organisation. Ein Internet, in dem die Standards durch nationale Vertreter und Grossunternehmen definiert werden, wäre nicht da wo das Internet heute durch die hemdsärmelige und pragmatische Vorgehensweise der IETF ist.

Also bitte die ITU nicht in Titel als UN unterschummeln. Nicht die UN will etwas, sondern die ITU - und das was sie will hat nur indirekt mit unseren Problemen zu tun. Was sie will ist Einfluss und Kontrolle.

Bei NETZEITUNG.DE Internet gibts den Originalartikel.

Test des Einflusses von Googlespamming auf Bloghosting-Nutzer

Tja, ich muss auch mal meinen Senf dazu abgeben. Natürlich hat Dirk Recht, wenn er da auf eine Schwäche im System Google hinweist. Natürlich hat er die freie Wahl was er mit seiner Blogplatform macht - auch sie Googlespammern zur Verfügung zu stellen. Aber wenn er das macht, muss er mit dem daraus entstehenden Gegenwind klar kommen. Und der kommt.

Was ist das mit dem Googlespamming? Nicht jedem ist vielleicht klar was dahinter steckt. Von daher hier mal eine Erklärung einiger Phänomene die damit zu tun haben. Letztendlich setzen sogenannte Suchoptimierer darauf aus, das die beworbenen Websites an vielen Stellen verlinkt sind. Durch die Verlinkung steigt das Ranking in Google. Je mehr Links, desto höher. Je höher das Ranking, desto höher in der Ergebnisliste steht die beworbene Website. Und genau das verkaufen diese Leute. Erhöhung der Position in Trefferlisten von Google.Suchoptimierer machen das teilweise selber, in dem sie Linkpartner für die zu bewerbende Site suchen. Das ist die positive Methode. Sie erfordert Arbeit, aber dafür werden die ja bezahlt. Das Ergebnis sind in der Regel kleine Linknetze zwischen Firmen mit komplementären Produkten - im Prinzip eine Real-Life-Form des Kunden die dieses Produkt mögen, mögen vielleicht auch jenes Produkt , wie man es z.B. von Amazon kennt. Es gibt aber auch weitere, die beileibe nicht so positiv sind. Diese weiteren Methoden setzen auf externen Google-Juice (so wird scherzhaft das Grundranking einer Website genannt) auf. Der Grund: wenn eine Website ein durch Linking hohes Google-Ranking hat, kann sie einen Teil davon auf von ihr verlinkte Seiten weitergeben. Ein Link von einer Site mit hohem Ranking wird besser bewertet als ein Link von einer Site mit niedrigem Ranking. Googlespamming setzt hier an.

Manche Suchoptimierer betreiben Linkfarmen - das sind einfach nur Haufenweise Domains und Webserver ohne echten sinnvollen Inhalt. In der Regel werden die Seiten einfach nur mit Wörtern nach Nutzungshäufigkeit gefüllt (damit Suchmaschinen was finden können). Diese Linkfarmen bilden einen geschlossenen Kreis von Sites der jetzt gross genug werden muss, damit Google ihn fürs Ranking verwendet. Damit hat der Optimierer ein Basisranking. Beworbene Sites werden jetzt von diesen Linkfarmen aus verlinkt und so im Ranking gepushed. Wer das zum Beispiel so betreibt ist die Scientology Church. Der Nachteil für den Optimierer: es ist etwas Arbeit und die Kosten sind halt für die vielen Sites der Linkfarm da. Kann aber gut automatisiert werden. Allerdings kann Google die auch gut erkennen und im Index sperren!

Der zweite Ansatz externes Google-Ranking zu nutzen ist schlichtes Ranking-Schmarotzen. Dieses kann auf zwei Arten erfolgen. Das bekanntere ist das Kommentarspamming. Viele leiden darunter.

Der Grund für das Kommentarspamming ist einfach nur dass die Weblogszene durch ihre Index-Seiten, Zentraldienste und Links untereinander sehr hohes Googleranking hat. Dadurch werden Links von Weblogs auf Websites bei Google hoch bewertet - die entsprechenden Links tauchen ja durch die Seitenreplikation und Inhaltssyndizierung (z.B. die Ausschnitte und Links bei blogg.de sind Syndizierung) vielfach auf.

Wir haben halt mit weblogs.com, mit diversen deutschen Indizes, mit Hauptseiten von Weblogcommunities wie Antville-Servern und den ganzen Regionalen Diensten, mit Geourl, mit offenen Syndikatoren (Phantom4dingens zum Beispiel) und weiss der Himmel was da noch alles so rumkreucht einfach extrem schnell hohes Ranking. Viele Zentralseiten verlinken einfach nur auf Weblogs - werden von Google durch die vielen Links als Linkhubs eingestuft und die verlinkten Seiten erben etwas vom Google-Juice der Zentralseite. Ausserdem werden bei einigen Zentralseiten die Titel-Links und teilweise der Content der Weblogs repliziert. Auch verlinken die Weblogs sehr stark untereinander und drücken so gegenseitig den Google-Juice hoch.

Kommentarspamming setzt darauf an, dass Google bei vielen Weblogs auch die Kommentare indiziert - das gilt ganz besonders bei Weblogsystemen, bei denen die Kommentare in das Layout integriert sind wie z.B. Moveable Type es machen kann oder für ein anderes Beispiel: das Blog vom Schockwellenreiter. Mein eigenes ist weniger Ziel von Kommentarspammern, weil meine Kommentare Website-Extern liegen - und durch eine robots.txt für Google vom indizieren ausgenommen sind (man kann auch nur das traversieren abschalten und das indizieren aktiv lassen, müsste reichen). Kommentare auf Weblogs mit viel Google-Juice werden halt für die Zielwebsites positiv.

Hier wird auf fremden Google-Juice aufgebaut ohne eigene Leistung (Content) zu erbringen und daher ist es Schmarotzen.

Das gleiche gilt für das was bei blogger.de passiert. Huch? Wieso schmarotzen die? Die haben doch eigene Blogs? Ja. Aber diese eigenen Pseudoblogs liegen auf einem Community-Server. Der blogger.de-Server wird - wenn er fleissig für Blogs genutzt wird - recht viel Google-Juice aufbauen, so wie es bei allen Antville Systemen der Fall ist. Grund ist halt die Integration in den Hauptindex. Was da nur noch fehlt ist eine entsprechend hohe Anzahl von Weblogs mit Inhalt, womöglich noch wie bei anderen Antville Servern zu sehen mit hoher intern-Verlinkung (viele Ameisen linken auf andere Ameisen), und das reflektiert durch die Hauptseite - das produziert kräftig Google-Juice. Durch die Blogger.

Ein Rankingoptimierer kann das gut benutzen in dem er auf seine eigenen Blogs ab und an Postings bringt, die auf zu bewerbende Websites zeigen. Sobald die blogger.de Hauptseite guten Google-Juice durch die Blogger selber hat, wird das für die interessant. Letzten Endes schmarotzen die auch hier nur von den Webloggern, wenn auch nicht ganz so direkt wie beim Kommentarspam - hier wird eher von der Community schmarotzt als vom einzelnen Blogger.

Jeder muss für sich wissen wie er das hält und was er von solchen Methoden hält, aber ich bin der Meinung das normale redaktionell betreute Blogs für die zu bewerbenden Firmen genauso viel bringen würden - aber eben auch in Form von Content was für die Blogger zurückgeben würden. Natürlich ist das Arbeit - aber es wäre eine ehrliche Form der Suchmaschinenoptimierung die zwar auch von externem Google-Juice profitiert, aber sich wenigstens in das System mit Content integriert.

Die derzeitigen Ranking-Blogs auf blogger.de mit ihrem Nonsens-Content sind eine reine Schmarotzerlösung die ich auf von mir betriebenen Hosts strikt ablehnen würde, sollten sie mal auftreten.

Bei Nochn Blogg. gibts den Originalartikel.

soksoksoksok

Hmm. Also wenn ich den Text und die Effekte der Geschichte mir angucke und mal ein bischen drüber nachdenke, würde ich folgendes schliessen: eine japanischer Pornosite benutzt weblogs.com und die dort angekündigten Weblogs für Pornospam, in dem sie diese Sites spiegeln (scheinbar nur einen Teil der Seiten), alle Bezüge auf die originale Site rauswerfen und durch Bezüge auf eigenen Content ersetzen. Damit wird dann von Google der Inhalt dieser Weblogs nicht nur auf dem Weblog selber gefunden, sondern eben auch auf dem verpornoten Spiegel.

Als Ergebnis nutzt diese Pornosite parasitär den Content aus um selber höher im Ranking zu steigen. Aber da sie alle Links austauschen, gehen die Verlinkungen verloren - und natürlich linkt niemand auf den Pornomirror (ok, niemand ausser Ben Hammersley ). Damit können sie den eigentlichen Rankingfaktor von Blogs - die hohe Verlinkung - nicht für eigene Zwecke ausnutzen.

Also alles in allem eigentlich eine ziemlich dämliche Aktion, speziell da die Site primär auf den asiatischen Raum zielt - und wer gibt dort zum Beispiel deutsche Suchbegriffe ein?

Es ist natürlich möglich das bei Nutzung von japanischen Suchmaschinen oder bei Einschränkung von Suchergebnissen auf den japanischen Domainraum diese Sites wegen des Inhalts nach oben wandern, da sie scheinbar die Änderungen von weblogs.com benutzen um die Spiegelseiten auch zu ändern - und damit häufig ändernde Seiten vorspiegeln, die im Scanning der Suchmaschinen höher gehen und damit evtl. auch im Ranking.

Aber obs das wirklich bringt? Ich habe jedenfalls noch keine Pornospam-Spiegel in meinen Suchergebnissen gehabt. Allerdings was das zeigt ist, das wir damit zu rechnen haben das sich Spam auch in ganz anderen Bereichen zeigen wird. Kommentarspam gibt es ja schon in der Blog-Szene, aber Website-Spam ist derzeit noch nicht so gängig. Das wird aber kommen.

Inwiefern man rechtlich gegen diesen Content-Klau vorgehen kann ist leider auch fraglich, da Copyright nicht überall gilt.

Bei Ben Hammersley.com gibts den Originalartikel.