OpenVPN - An Open Source VPN Solution by James Yonan - VPN Lösung für heterogene Netze, auch Mac OS X
sysadmin - 13.10.2003 - 7.1.2004
What is Mac OS X? - Interesssanter Bericht über Mac OS X aus Hacker Sicht
Mambo Open Source
Mambo Open Source bewirbt sich selbst mit markigen Sprüchen:
- Mambo Open Source is the finest open source Web Content Management System available today.
- The easiest to use CMS there is.
Wird es diesen selbstgestellten Ansprüchen gerecht? Ich habs mir mal installiert und damit etwas getestet. Hier meine ersten Eindrücke:
- die Installation über den Webinstaller ist sehr einfach - allerdings findet man auf der Hauptseite nirgendwo einen Hinweis, wie diese von statten geht. Dazu muss man auf den Dokumentationsserver wechseln.
- Mambo unterstützt verschiedene Sprachen. Das Basispaket enthält aber nur Englisch. Will man weitere Sprachen, sucht man nach Hinweisen oder Links auf der Homepage vergeblich. Erst Google fördert das Mamboportal zu Tage, auf dem man dann fündig wird.
- Es gibt eine Menge Dokumentation zu Mambo. Da lohnt es sich auch mal vorher reinzugucken. Dummerweise gibt es von der Homepage keinen einzigen Link zur Dokumentation - die liegt nämlich auf einem anderen Server.
- das Standardlayout ist erstaunlich gut für ein Standardtemplate. Allerdings hat es mit Mozilla einige böse Darstellungsfehler (umbrechende Texte, die Grafiken überlappen). Gerade von einem Open Source Projekt erwarte ich aber, das es wenigstens den Open Source Browser schlechthin (Mozilla) korrekt unterstützt!
- Mambo hat Wysiwyg-HTML-Editierfelder. Dummerweise in einer Variante, die nur mit dem IE funktioniert. Wieso da nicht erstmal eine Mozilla-taugliche Variante genommen wird, muss mir einer mal erklären (zumal es die auch gibt!)
- Searchengine-freundliche Links (also welche ohne Querystring) werden optional unterstützt, das ist gut. Allerdings wird nicht standardmässig damit gearbeitet, sondern Module benutzen oft normale Links. Die werden dann natürlich nicht umgestellt. Links werden explizit eingebaut, nicht programmatisch erzeugt, dadurch kann so eine Umsetzung eben nur erfolgen, wenn der Templateersteller dran denkt, die Funktionsaufrufe selber einzubauen. Dieses Feature ist allerdings noch sehr neu, wird sich also wohl noch verbreiten.
- Mambo setzt zwingend MySQL voraus. Ich finde es immer schade, wenn eine Software sich auf eine Datenbank einschiesst. Für PHP gibt es PEAR für den Zugriff, da muss man sich nicht so einschränken.
- Mambo ist inkompatibel mit dem Safemode von PHP! Hart inkompatibel: wenn der Safemode aktiv ist, kann man keine Komponenten installieren, die Fehlermeldungen weisen auf Fehler bei mkdir hin.
- Mambo braucht im Prinzip Schreibrechte auf seinen ganzen Tree. Also entweder alles unter Owner www-data stellen, oder worldwriteable. Zusammen mit dem fehlenden Safemode heisst das, sicherer Betrieb nur in chroot jail machbar!
- Zusatzmodule (ich hab mir zum Beispiel yopsFM und Mamblog angeguckt) sind von sehr unterschiedlicher Qualität, speziell was Layoutintegration und Berücksichtigung der Searchengine-Freundlichen Links angeht.
- die Administrationsoberfläche benutzt teilweise verwirrende Nomenklaturen - was ist ein Modul, was eine Komponente?
- Mambo ist ein Plug-and-first-play-possible Paket. Nach der Installation hat man ein fertiges System mit fertigem Layout, mit dem man spielen kann. Das kann ein entscheindender Vorteil sein!
- es gibt eine Menge fertiger Module, die man mit ranziehen kann, wenn man eine neue Site aufbauen will.
Generell: Mambo ist ein absolut beeindruckendes Werkzeug, da gibt es keine Frage. Von allen PHP-basierten CMS die ich mir bisher angeguckt habe, ist es definitiv das überzeugendste (Typo3 war zum Beispiel für wesentlich unübersichtlicher und schwerer zugänglich - und ich habe CMS Erfahrungen mit Zope und diversen Eigenentwicklungen). Es geht hier also nicht darum Mambo zu dissen - wer ein leistungsfähiges CMS sucht, PHP+MySQL als Basis schon benutzt und damit fit ist und bereit ist die Dokumentation zu lesen, wird mit Mambo definitiv gut bedient sein. Was allerdings genauso definitiv Bullshit ist, ist der Hype den die Mambo-Programmierer rund um ihr Produkt machen. So einfach, wie rumgetönt wird, ist es nur unter der Randbedingung das man einfach nur den Content editiert, aber nichts weitergehendes damit macht. Ansonsten ist man auch bei Mambo damit beschäftigt die Dokumentation (immerhin gibt es eine!) zu durchwühlen und notfalls in Sourcen zu gucken. Allerdings muss man fairerweise das gleiche von Plone sagen: auch da gibts eine Menge Hype, der leider auch da an der Realität vorbei geht. Put your code where your mouth is! Beim Source von Mambo kommt dann der Knackpunkt: wer PHP-Guru ist, wird sich sicherlich durch die PHP-Sourcen wühlen können. Aber Module mit mehreren tausend Zeilen Source sind nicht jedermanns Sache, da Fehler und Features zu suchen wird schon aufwändig. Da sehe ich keinen grossen Vorteil von Mambo über Zope oder Plone. Mambo ist nicht klein ! Das muss man sich immer vor Augen führen - in Mambo einzusteigen ist ähnlich wie der Einstieg in Zope zu sehen. Berge von Sourcen, aber eine gut strukturierte Erweiterbarkeit. Ein klarer Gewinn gegenüber Zope ist der Plug-and-play Ansatz von Mambo. Die erste funktionierende Page ist sehr viel schneller da. Im Prinzip müsste man aber Mambo auch nicht mit Zope vergleichen, sondern mit Plone, da Mambo - wie Plone - schon komplett fertige Contentwerkzeuge bietet.
Ein weiterer Gewinn ist die recht bescheidene Anforderung von Mambo an den Server: Linux+Apache+MySQL+PHP = LAMP. Kriegt man an jeder Strassenecke nachgeworfen. Zope-Hosting ist da schon schwerer zu finden (oder man nimmt nen Rootserver, dann gibts auch keine Probleme mit Zope oder Plone).
MamboOS Documentation : Home Page - Dokumentationsserver zu Mambo Open Source
Mamboportal.com - Mambo Open Source CMS Portal - Mambo Open Source Module und Languages
MOS - Homepage von Mambo - Open Source CMS
mt-daapd - Home Page
Sehr nett: ein MP3 Streaming Server, der Rendezvous kompatibel ist und mit iTunes kooperiert. Man kann damit also eine zentrale Jukebox aufbauen, die mehrere Rechner füttern kann. Ideal für Schulungsräume und Rechner-Pools an Unis
Webgres - Webinterface für PostgreSQL
CVS Module for Apache - Ein Apache-Modul welches Dateien aus einem CVS-Repository ausliefert und bei Bedarf einen checkout macht
mailman-discard home - Batch Bearbeitung von Mailman administrative requests
THE BASTARD OPERATOR FROM HELL OFFICIAL ARCHIVE - Das Rollenmodell der Sysadmins
LinuxWorld | Linux's other file sharing software
Eigentlich nichts besonderes ist passiert: Red Hat hat mal wieder eine Firma gekauft, diesmal Sistina. Sistina ist deshalb interessant, weil sie die kommerzielle Entwicklung von GFS - einem Clusterfilesystem für Linux - betrieben haben. Es gab schon länger OpenGFS, aber GFS hat mehr Features und kann vor allem mit mehr Basistechniken zusammenarbeiten (z.B. über Netzwerkblockdevices oder iSCSI).Jetzt schreibt ein anderer Laden, Proserve, das ihr Produkt MatrixServer viel besser wäre, das Sistina noch zwei Jahre bräuchte, um das Produkt auf ihren Level zu bringen, und das natürlich ihr Produkt für wichtige Services besser geeignet wäre. Komischerweise ist ihr Produkt natürlich eine kommerzielle Software.Wo ist der Denkfehler? Ganz einfach: OpenGFS existiert schon und wird von mehr Leuten als nur denen von Sistina betreut. Die Features von GFS, die bisher der kommerziellen Version vorbehalten waren, werden in die freie Version Einzug halten, sofern sie brauchbar sind. OpenGFS wird sich weiterentwickeln, nicht unbedingt GFS - Proserve hat sich auf den falschen Gegner eingeschossen. Proserve wird sich gut überlegen müssen, was sie tun - reines Klappern wird da alleine nicht reichen. Mag durchaus sein, das ihr Produkt besser ist - aber die Frage ist, ob es das in einem Jahr noch ist, oder in zwei Jahren. Open Source entwickelt sich auf Grund von Bedürfnissen, nicht aufgrund von Marketingfeatures - und die Entwicklung kann verdammt schnell vonstatten gehen.
Klar, es kann auch ein Debakel wie mit Mozilla oder OpenOffice geben, in den Projekten arbeiten fast nur die ursprünglichen Entwickler der Firmen mit, freie Entwicklung findet nur sehr zögerlich statt (Mozilla wird langsam besser, aber wer kennt OpenOffice Hacker?). Aber bei dem Bedürfnis nach Clusterfilesystemen ohne Single Point of Failure glaube ich das hier nicht.
Linux-Magazin - ssh
Ein älterer Artikel im Linux Magazin über den Einsatz von ssh. Enthält eine ganze Reihe Tipps und weiterführende Links. Unter anderem wird auch auf die nosh ( Source und Debian Binary) hingewiesen, eine Shell die sehr restriktiv die Definition von Kommandos erlaubt, die User ausführen können. Da in dem Artikel alte Links stehen, gibts oben die aktuellen. Die Nosh habe ich irgendwann mal aus der Osh (ich find da keine Homepage für) entwickelt, weil ich eine Shell brauchte die den Usern wirklich nur das erlaubt, was unbedingt nötig ist. In kritischen Umgebungen ist das oft viel einfacher als über Unixrechte alle unangebrachten Bereiche abzusperren (oder alternativ chroot Jails zu bauen). Hier gibts den Originalartikel.
freshmeat.net: Project details for PostgreSQL Log Analyzer - Logfileanalyse incl. Statementstatistiken für PostgreSQL
NdisWrapper - NDIS Netzwerktreiber unter Linux nutzen
Get the scoop on.. Scoop! :: Open Source Directory :: OSDir.com :: Open Source Software, Reviews & News - Scoop Installationsguide - Scoop ist das CMS hinter Kuro5hin
mDNkit installation guide - Patches zu verschiedenen Programmen um diese auf Multilinguale Domains vorzubereiten
RFC 3492 - Punicode - RFC zur Darstellung von Unicode-Strings in Domainnamen
[Inkjet-list] HP Inkjet Linux Driver 1.5 Release - Ankündigung des Treibers für HP-Tintenstrahldrucker für Linux
GROKLAW über SCOs angebliche Opferrolle eines DDOS Angriffs
SCO behauptet das ihr Webserver mal wieder von einer DDOS (distributed denial of service) Attacke lahmgelegt sei. Zwei Sicherheitsexperten äussern auf Groklaw dazu ihre Meinung und geben kurze Analysen, warum diese Behauptung von SCO eher in Zweifel gezogen werden muss.
Verwirrung um Microsoft-Patches
Verwirrung, Anarchie, Chaos!
Naja, ob Microsoft jetzt Patches macht oder nicht, ist ja eh wurscht - die Löcher kommen sowieso schneller als die zugehörigen Patches ...
Bei heise online news gibts den Originalartikel.
GROKLAW erklärt was genau SCO alles IBM vorlegen muss
Nach dem Fahrplan hat SCO eine grosse Menge an Informationen zu liefern, vor allem eben genau wo die angeblichen Patenverletzungen vorliegen (mit Datei und Zeilennummernangaben), sowie der Angabe warum SCO glaubt das eine Patentverletzung vorliegt, ob und wenn ja wer noch alles Zugang hatte und einigen anderen Informationen rund um dieses Gesumse herum. Ich bin ja wirklich gespannt was SCO da dann tatsächlich vor Gericht vorlegen kann
IBM übrigens muss nichts vorlegen, bevor nicht SCO ihren Part erledigt haben, auch das ist Bestandteil des Richterspruchs.
Security? What security?
Autsch. Ja, es funktioniert wirklich noch:
simon:/usr/local/sbin# traceroute bell.ca traceroute: Warning: bell.ca has multiple addresses; using 204.101.196.36 traceroute to bell.ca (204.101.196.36), 30 hops max, 38 byte packets 1 HOSGate.your-server.de (213.133.111.1) 2 et-2-1.RS86001.RZ3.hetzner.de (213.133.96.121) 3 gi-2-2.RS8K1.RZ2.hetzner.de (213.133.96.57) 4 nbg.de.lambdanet.net (213.133.96.234) 5 F-2-eth100-0.de.lambdanet.net (217.71.105.13) 6 PZU-1-pos100.fr.lambdanet.net (217.71.96.34) 7 LDCH-1-ge000.fr.lambdanet.net (217.71.96.86) 8 109.ge1-0.er1a.cdg2.fr.above.net (62.4.77.225) 9 pos0-3.cr1.cdg2.fr.above.net (208.184.231.206) 10 so-5-1-0.cr1.lhr3.uk.above.net (64.125.31.129) 11 so-0-0-0.cr2.lhr3.uk.above.net (208.184.231.146) 12 so-7-0-0.cr2.lga1.us.above.net (64.125.31.182) 13 pos12-0.pr1.lga1.us.above.net (64.125.30.190) 14 bellnexxia-mfn-oc12.pr1.lga1.us.mfnx.net (64.125.12.34) 15 bells-network-has-lots-of-security-holes-to-exploit.bell-nexxia. (206.108.103.197) 16 bells-network-has-lots-of-security-holes-to-exploit.bell-nexxia. (206.108.103.213) 17 64.230.243.217 (64.230.243.217) 18 bells-network-has-lots-of-security-holes-to-exploit.bell-nexxia. (206.108.97.206) 19 bells-network-has-lots-of-security-holes-to-exploit.bell-nexxia. (206.108.105.138)
Schon peinlich, wenn jemand einem auf so diese Weise mitteilt, das es ein Sicherheitsproblem gibt

Bei kasia in a nutshell gibts den Originalartikel.
Software-Aktualisierung wird aktualisiert
Wär ja auch eigentlich ganz sinnvoll. Mich ärgert es schon die ganze Zeit, das ich verschiedene Softwareaktualisierungen gucken gehen muss. Von Debian bin ich gewöhnt nur einen Update-Dienst zu brauchen. Bei OS X ist das schon ein bischen umständlich manchmal ...
Bei Industrial Technology & Witchcraft gibts den Originalartikel.
rsync übers Netz verwundbar
Och menno, keine gute Woche.
Bei heise online news gibts den Originalartikel.
Bug im Linux-Kernel ermöglichte Einbruch in Debian-Server
Zwar ein unschönes Problem, aber gut das sie es herausgefunden haben - so kann es gestopft werden. Also mal wieder eine Runde Kernel-Updates.
Bei heise online news gibts den Originalartikel.
Apache: mod_auth_remote
Nettes Modul - statt lokal auf dem Apache eine Adresse auf Berechtigung zu prüfen, wird ein zweiter Request an einen anderen Server geschickt und dessen Prüfung verwendet. Damit kann Apache die Berechtigung für statische Pfade an das Berechtigungssystem z.B. eines Zopes koppeln. Es gab sonst ja oft das Problem, das man statische Inhalte nicht auf einen Apache verlagern konnte (um dessen Performance zu nutzen), wenn diese Inhalte unter der Berechtigungsverwaltung von Zope stehen sollten. Mit mod auth remote geht das jetzt, zumindestens wenn man Apache 2 einsetzt.
Bei Channel 'python' fand ich den den Originalartikel.
Bill Kearney: MacOS doesn't cut it in the Enterprise
Achja, wieder einmal einer der meint er kapiert wovon er redet. Tja, wenn er irgendwo in seiner Tirade gegen Apple Networking gesagt hätte welchen Teil des Networkings er meint, dann könnte man seine Kommentare ja vielleicht bedenkenswert finden, aber so? Meint er AppleTalk? AppleTalk/IP? Samba? NFS? Oder eines der vielen alternativen Protokolle, das der Apple-Finder direkt mounten kann wie FTP oder WebDAV? Aber es ist ja viel einfacher pauschale Statements gegen Apple zu machen, da ist man ja in guter Gesellschaft mit sogenannten Analysten. Und wenn er sowas wirklich schon vor 10 Jahren gesagt hat, hat er damals genauso dummes Zeug geredet wie heute
Und wo sieht er die Lösung? Natürlich in den Windows-Protokollen. Der arme Tropf: mit Longhorn wird Microsoft ihm mal wieder einen Tritt in den Arsch verpassen und er darf wieder von vorne anfangen. Aber sicherlich wird er auch dann noch behaupten das sein Weg der richtige war. Egal, mir ist mein Leben für solchen Unfug zu schade.

Personal Firewall verursacht DNS-Störung
Ich finds immer wieder erschreckend wie dämlich Programmierer sind, die in angeblichen Sicherheitssystemen tätig sind. Sowas wie das hier ist doch ein absoluter Anfängerfehler! Und solche Software soll dann Benutzer vor Angriffen aus dem Internet schützen ...
Bei heise online news gibts den Originalartikel.
Sicherheitsloch in Moveable Type
Autsch. Grosses Loch in Moveable Type: die eMail-Adressen die für die Versendung von Eintragsnachrichten eingegeben werden kann, wird nicht auf Validität geprüft. Damit haben Angreifer die Möglichkeit darüber Schindluder zu treiben - zum Beispiel haben Spammer laut diesem Beitrag das Loch benutzt um Spam abzusetzen. Es ist dort auch ein Patch angegeben, mit dem man die Validierung einbauen kann, so das Spammer nicht mehr so leicht MT missbrauchen können.
Also, Leute, patcht euer Moveable Type! Oder noch besser: raus mit dem Script!
Internet Explorer wieder verwundbar
Es wäre einfacher nur dann zu berichten, wenn er gerade mal angeblich nicht verwundbar ist ...
Bei heise online news gibts den Originalartikel.
Kritik an Webserver-Statistik
Achja, wessen Brot ich fress, dessen Lied ich sing ...
Bei heise online news gibts den Originalartikel.
McBride intimates code cleanup in Linux nigh impossible
Und weiter spinnt er herum. Wenn denn tatsächlich Linux 2.2 - und das ist jetzt eine Aussage von SCO selber - keine Probleme hatte, dann kann Linux immer noch ohne Probleme auf dem Stand aufsetzen und weiter machen. Der Linux 2.2 Kernel war ohne weiteres lauffähig und brauchbar. Also hätte er Recht (was absurd und albern wäre - denn bis jetzt hat er nichts anderes als Heisse Luft abgelassen), wäre es garantiert nicht die Katastrophe, von der er redet.
Abgesehen davon das er immer noch nicht kapiert hat, das Linux der Kernel und nicht das System ist - den Kernel zu wechseln ist nun wirklich das geringste aller Probleme.
Und nett ist auch die Behauptung das es jetzt plötzlich Millionen von Zeilen Code seien, die von SCO bemängelt werden - wenn es so viele sind, wieso kann er dann bis jetzt kein einziges Beispiel bringen, das länger als 10 Minuten Analyse standhält?
Der Kerl ist wirklich putzig. Hat gewisse Ähnlichkeiten mit dem ehemaligen irakischen Informationsminister, das ganze Getue von McBride
Bei XMLMania.com - Google News Search: SCO fand ich den den Originalartikel.
Heise News-Ticker: PostgreSQL in Version 7.4 veröffentlicht
Hui. Alle wichtigen Punkte die ich brauche sind verbessert worden. Replikation ist im Standardsource drin, Performance ist besser und die Volltextindizierung brauchbar. Jetzt muss nur noch jemand Debian-Pakete machen, die ich rückportieren kann (unsere Server sind noch alles Woody) und ich kann endlich ein paar Probleme in den Griff kriegen, die uns schon länger nerven.
InfoWorld: Microsoft prepares security assault on Linux: November 11, 2003: By Kieren McCarthy, ...
Der Brüllaffe aus Redmond sollte vielleicht weniger von dem Kraut rauchen, das ihn so rumtoben lässt, dann sieht er die Realität auch wieder etwas klarer

Security Focus hat RSS Feeds
Gerade bei ScriptingNews gefunden: für Administratoren ganz praktisch, die neuen Feeds von Security Focus:
Test des Einflusses von Googlespamming auf Bloghosting-Nutzer
Tja, ich muss auch mal meinen Senf dazu abgeben. Natürlich hat Dirk Recht, wenn er da auf eine Schwäche im System Google hinweist. Natürlich hat er die freie Wahl was er mit seiner Blogplatform macht - auch sie Googlespammern zur Verfügung zu stellen. Aber wenn er das macht, muss er mit dem daraus entstehenden Gegenwind klar kommen. Und der kommt.
Was ist das mit dem Googlespamming? Nicht jedem ist vielleicht klar was dahinter steckt. Von daher hier mal eine Erklärung einiger Phänomene die damit zu tun haben. Letztendlich setzen sogenannte Suchoptimierer darauf aus, das die beworbenen Websites an vielen Stellen verlinkt sind. Durch die Verlinkung steigt das Ranking in Google. Je mehr Links, desto höher. Je höher das Ranking, desto höher in der Ergebnisliste steht die beworbene Website. Und genau das verkaufen diese Leute. Erhöhung der Position in Trefferlisten von Google.Suchoptimierer machen das teilweise selber, in dem sie Linkpartner für die zu bewerbende Site suchen. Das ist die positive Methode. Sie erfordert Arbeit, aber dafür werden die ja bezahlt. Das Ergebnis sind in der Regel kleine Linknetze zwischen Firmen mit komplementären Produkten - im Prinzip eine Real-Life-Form des Kunden die dieses Produkt mögen, mögen vielleicht auch jenes Produkt , wie man es z.B. von Amazon kennt. Es gibt aber auch weitere, die beileibe nicht so positiv sind. Diese weiteren Methoden setzen auf externen Google-Juice (so wird scherzhaft das Grundranking einer Website genannt) auf. Der Grund: wenn eine Website ein durch Linking hohes Google-Ranking hat, kann sie einen Teil davon auf von ihr verlinkte Seiten weitergeben. Ein Link von einer Site mit hohem Ranking wird besser bewertet als ein Link von einer Site mit niedrigem Ranking. Googlespamming setzt hier an.
Manche Suchoptimierer betreiben Linkfarmen - das sind einfach nur Haufenweise Domains und Webserver ohne echten sinnvollen Inhalt. In der Regel werden die Seiten einfach nur mit Wörtern nach Nutzungshäufigkeit gefüllt (damit Suchmaschinen was finden können). Diese Linkfarmen bilden einen geschlossenen Kreis von Sites der jetzt gross genug werden muss, damit Google ihn fürs Ranking verwendet. Damit hat der Optimierer ein Basisranking. Beworbene Sites werden jetzt von diesen Linkfarmen aus verlinkt und so im Ranking gepushed. Wer das zum Beispiel so betreibt ist die Scientology Church. Der Nachteil für den Optimierer: es ist etwas Arbeit und die Kosten sind halt für die vielen Sites der Linkfarm da. Kann aber gut automatisiert werden. Allerdings kann Google die auch gut erkennen und im Index sperren!
Der zweite Ansatz externes Google-Ranking zu nutzen ist schlichtes Ranking-Schmarotzen. Dieses kann auf zwei Arten erfolgen. Das bekanntere ist das Kommentarspamming. Viele leiden darunter.
Der Grund für das Kommentarspamming ist einfach nur dass die Weblogszene durch ihre Index-Seiten, Zentraldienste und Links untereinander sehr hohes Googleranking hat. Dadurch werden Links von Weblogs auf Websites bei Google hoch bewertet - die entsprechenden Links tauchen ja durch die Seitenreplikation und Inhaltssyndizierung (z.B. die Ausschnitte und Links bei blogg.de sind Syndizierung) vielfach auf.
Wir haben halt mit weblogs.com, mit diversen deutschen Indizes, mit Hauptseiten von Weblogcommunities wie Antville-Servern und den ganzen Regionalen Diensten, mit Geourl, mit offenen Syndikatoren (Phantom4dingens zum Beispiel) und weiss der Himmel was da noch alles so rumkreucht einfach extrem schnell hohes Ranking. Viele Zentralseiten verlinken einfach nur auf Weblogs - werden von Google durch die vielen Links als Linkhubs eingestuft und die verlinkten Seiten erben etwas vom Google-Juice der Zentralseite. Ausserdem werden bei einigen Zentralseiten die Titel-Links und teilweise der Content der Weblogs repliziert. Auch verlinken die Weblogs sehr stark untereinander und drücken so gegenseitig den Google-Juice hoch.
Kommentarspamming setzt darauf an, dass Google bei vielen Weblogs auch die Kommentare indiziert - das gilt ganz besonders bei Weblogsystemen, bei denen die Kommentare in das Layout integriert sind wie z.B. Moveable Type es machen kann oder für ein anderes Beispiel: das Blog vom Schockwellenreiter. Mein eigenes ist weniger Ziel von Kommentarspammern, weil meine Kommentare Website-Extern liegen - und durch eine robots.txt für Google vom indizieren ausgenommen sind (man kann auch nur das traversieren abschalten und das indizieren aktiv lassen, müsste reichen). Kommentare auf Weblogs mit viel Google-Juice werden halt für die Zielwebsites positiv.
Hier wird auf fremden Google-Juice aufgebaut ohne eigene Leistung (Content) zu erbringen und daher ist es Schmarotzen.
Das gleiche gilt für das was bei blogger.de passiert. Huch? Wieso schmarotzen die? Die haben doch eigene Blogs? Ja. Aber diese eigenen Pseudoblogs liegen auf einem Community-Server. Der blogger.de-Server wird - wenn er fleissig für Blogs genutzt wird - recht viel Google-Juice aufbauen, so wie es bei allen Antville Systemen der Fall ist. Grund ist halt die Integration in den Hauptindex. Was da nur noch fehlt ist eine entsprechend hohe Anzahl von Weblogs mit Inhalt, womöglich noch wie bei anderen Antville Servern zu sehen mit hoher intern-Verlinkung (viele Ameisen linken auf andere Ameisen), und das reflektiert durch die Hauptseite - das produziert kräftig Google-Juice. Durch die Blogger.
Ein Rankingoptimierer kann das gut benutzen in dem er auf seine eigenen Blogs ab und an Postings bringt, die auf zu bewerbende Websites zeigen. Sobald die blogger.de Hauptseite guten Google-Juice durch die Blogger selber hat, wird das für die interessant. Letzten Endes schmarotzen die auch hier nur von den Webloggern, wenn auch nicht ganz so direkt wie beim Kommentarspam - hier wird eher von der Community schmarotzt als vom einzelnen Blogger.
Jeder muss für sich wissen wie er das hält und was er von solchen Methoden hält, aber ich bin der Meinung das normale redaktionell betreute Blogs für die zu bewerbenden Firmen genauso viel bringen würden - aber eben auch in Form von Content was für die Blogger zurückgeben würden. Natürlich ist das Arbeit - aber es wäre eine ehrliche Form der Suchmaschinenoptimierung die zwar auch von externem Google-Juice profitiert, aber sich wenigstens in das System mit Content integriert.
Die derzeitigen Ranking-Blogs auf blogger.de mit ihrem Nonsens-Content sind eine reine Schmarotzerlösung die ich auf von mir betriebenen Hosts strikt ablehnen würde, sollten sie mal auftreten.
Bei Nochn Blogg. gibts den Originalartikel.
Heise News-Ticker: DNS-Verwirrung durch neuen Ländercode
Die Wiedernutzung historischer Kürzel sollte vermieden werden, schreibt das IAB, oder erst nach 200 Jahren in Betracht gezogen werden. - ahja. 200 Jahre. Klar.
Bald ist das Verzeichnis voll
Achja, wieder so ein gut recherchierter Artikel bei Spiegel Online. Noch gross im Aufreisser des Artikels verkündet: Im Jahr 2005 ist das numerische Adressbuch voll - aber nirgendwo im Artikel ein Beleg für diese abstruse Behauptung. Nirgendwo der Hinweis darauf das sogar durch die Rückgabe einiger grosser (Class-A) Netze wieder mehr Adressen frei sind als früher mal für diese Zeit erwartet wurde, nirgendwo der Hinweis darauf das noch weitere Class-A Netze als Reserven da sind, die auch gezogen werden könnten, nirgendwo der Hinweis darauf das durch CIDR (Classless Inter-Domain Routing), NAT (Network Address Translation) und dynamische Adressvergabe bei Einwahlen das Problem des begrenzten Adressraums deutlich entschärft wurde, nirgendwo der Hinweis darauf, wessen numerischer Adressbereich eigentlich voll sein soll und wer das aufgrund welcher Daten behauptet hat.Für diejenigen, die lieber Fakten und Zahlenmodelle als Basis von solchen Behauptungen haben wollen, empfehle ich den sehr guten Artikel bei ISP Column - hier werden verschiedene Modelle vorgestellt, nach denen der Adressraum betrachtet wird. Je nach Modell liegt der Auslastungszeitpunkt dort zwischen 2019 und 2029 - also noch einiges an Zeit, Zeit die dazu genutzt wird um IPv6 zu etablieren. Nunja, liebe Spiegel-Online-Journalisten. Das Internet ist voll. Geht doch einfach woanders hin.

Bei Spiegel Online: Netzwelt gibts den Originalartikel.
Internet Explorer gefährdet Windows
Wow. Das ist heftig. Alle Patches drin und immer noch Löcher ohne Ende. Leute, nehmt endlich einen richtigen Browser(oder gleich ein richtiges Betriebssystem) Bei heise online news gibts den Originalartikel.
Unsignierte Java-Applets brechen aus Sandbox aus[Update]
Wow, das ist heftig. Durchgriffe durch die Sandbox hat man ja schon ab und an gezeigt bekommen, aber das ein unsigniertes Java-Applet auf die Floppy zugreifen kann, ist definitiv ein Zeichen von Unsicherheit die auch kritische Ausmaße annehmen kann. Das ist schon ein recht heftiger Schlag für die Sicherheit von Java. Aber es ist letzten Endes nicht verwunderlich: auch wenn die virtuelle Maschine in der Spezifikation davon ausgeht das die Sandbox sicher ist, dahinter stecken eben immer Implementationen, die durchaus Fehler auf Java-Ebene oder sogar auf realer Maschinenebene (in der Implementierung der virtuellen Maschine selber) haben können.
Und das der Rechner nach dem Applet dann rebootet werden musste, und das ein Zugriff auf physikalische Medien möglich ist, deutet darauf hin, das hier ein so tiefgehendes Implementationsproblem vorliegt.
Techniken werden eben nicht einfach nur durch Spezifikation und Behauptung sicher ...
Bei heise online news gibts den Originalartikel.
Online-Backup für kleine und mittlere Unternehmen
Guckt man sich mal die Kennzahlen des Angebots an, guckt man doch recht verdutzt: im Preis von 11.90 EUR im Monat sind nur 500 MB enthalten. Ein (teurer) CD-Rohling kostet 1 EUR und hat 700 MB .
Abgesehen davon sind die Kosten ziemlich heftig, wenn man mal von üblichen Plattenbelegungen ausgeht (halt das übliche Sammler-und-Jäger Szenario eines typischen Anwenders). Ich nehm einfach mal meine Platte meines eigenen Notebooks: 30 GB belegt. Wenn ich da Betriebssystem und installierte Anwendungen abziehe, bleiben immer noch locker 20 GB übrig. Davon sind nochmal 8 GB Musik (alles Originale, also Ruhe hier!), die kann ich auch noch abziehen - bleiben immer noch 12 GB. Davon nochmal so 2 GB gesammelte Downloads, die auch nicht unbedingt gesichert werden müssen. 10 GB bleiben, die ich nicht näher qualifizieren kann, so das ein durchsortieren mehr Arbeit wäre als mir lieb ist. Viel.
Aber 10 GB kann ich nach T-Com Preisen monatlich nicht bezahlen: das sind 11.90 EUR für die ersten 500 MB und dann 5.80 EUR für jedes weitere halbe GB, also zusammen 122.10 EUR im Monat für den Speicher. Zusätzlich zahle ich noch 200 EUR für den ersten Upload der ganzen Daten - und wenn ich keine Flatrate habe, auch noch die Internetkosten.
Sichere ich diese 10 GB auf mehrere DVDs, brauche ich 2-3 Medien (wenn man selber aufteilt wirds meist nicht optimal, also halt ein Medium mehr) - macht zusammen bei teurem Einkauf 10 EUR für die Medien.
Und die Dauer der Sicherung wird auch nicht langsamer sein als die über die recht dünnen Upstream-Kanäle üblicher DSL-Anbindungen. 128 KBit/sec sind ca. 7.5 MB pro Minute sind ca. 450 MB pro Stunde - also 22 Stunden für den Backup über die Leitung, wenn sie frei und unbelegt ist und keine Störungen auftreten.
Und das Argument mit den nicht vorhandenen qualifizierten Mitarbeitern für den Backup: wenn man die Daten mit der Lösung von T-Com über DSL sichern will, und die Kosten einen nicht auffressen sollen und das ganze noch in der Nacht durchlaufen können soll, muss ein Mitarbeiter die Daten auswählen und für den Backup vorbereiten - zusammentragen in Verzeichnissen, oder die Verzeichnisse entsprechend strukturieren etc. Das ist aber schon der grösste Teil der Arbeit bei jedem Backup - sich klar werden, welche Daten wie gesichert werden sollen. Der Rest ist bei heutigen Backuplösungen für Endanwender eh nur noch ein Klick und das nötige häufige Wechseln der DVD oder CD Rohlinge (oder MO oder Band wenn der Anwender eingermassen verlässliche Backups vorzieht ).
Irgendwie habe ich das Gefühl das die T-Com hier ein bischen seltsam kalkuliert. Klingt ähnlich wie die Kalkulation von Apple mit dem .Mac Backup. Nur das Apple von vornherein garnicht Massendaten übers Internet sichern will, sondern nur Einstellungen und selektierte Dateibereiche, Massendaten wie Bilder und Musik sichert das Backupprogramm von Apple von Hause aus schon auf lokale Laufwerke.
Eine brauchbare Backuplösung im Internet wäre schon was feines. Nur bisher habe ich noch keine gesehen, die für DSL-Anwender sinnvoll nutzbar gewesen wäre ...
Bei heise online news gibts den Originalartikel.
Bericht: Online-Banking geknackt
Ein generelles Problem in Netzen: Tools die Session-Hijacking erlauben können es ermöglichen sich zwischen Verbindungen zu klemmen. Wichtig dabei ist eben das die Verbindungen transparent über dieses Programm gezogen werden: der Anwender merkt es nicht. Das funktioniert auch über Switches hinweig - die entsprechenden Programme stehlen die Verbindung per ARP-Spoofing und hängen sich dann dazwischen. Helfen kann hier nur eine konsequente Umstellung auf Protokolle die mit beidseitigen Zertifikaten und Verschlüsselungen arbeiten - wo also sowohl Server als auch Client sicherstellen, das sie mit dem richtigen Partner sprechen. Aber auch hier sind immer noch Angriffspunkte möglich. Absolute Sicherheit in Netzen in denen man keine Kontrolle über die Infrastruktur hat gibt es nicht.
Die Technik, die hinter dem Angriff steht, ist übrigens ziemlich interessant: es wird zum Einen per ARP-Spoofing erstmal die Verbindung geklaut. Dann werden alle Verbindungen über den Zwischenrechner geleitet. Dabei gibt sich der Rechner dem Server gegenüber als der Client aus, und umgekehrt. Verschlüsselung nutzt also nur dann, wenn im Protokoll regelmäßig Checks über ein gemeinsames Secret ermittelt werden und wenn die beiden Partner sich mittels asymmetrischer Verfahren als sie selbst zu erkennen geben. Trotzdem kann der Mittelsmann sich oft noch als der andere ausgeben, in dem er Daten einer transparent durchgereichten Verbindung benutzt um sie später neu abzuspielen (dadurch können einige Verschlüsselungsaufbauten geknackt werden).
Letztendlich kann das Problem nur auf unterster Ebene gelöst werden - sicherung der Verbindungen auf unterstem Protokoll-Level. Erst wenn schon auf IP-Ebene entsprechende Sicherheitsmechanismen ziehen, erst dann kann man überhaupt darauf hoffen das man dieses Problem in den Griff kriegen kann.
In der Zwischenzeit können Admins ein bischen absichern in dem sie mittels ARP-Wächtern und Überwachungsprogrammen erkennen, wenn entsprechende Angriffe stattfinden. Aber auch das ist nur ein sehr wackeliges und unzuverlässiges Hilfsmittel, da der Admin theoretisch alle Protokolle regelmäßig durchsehen muss - und die Anzeichen sind oft nur sehr minimal (wie z.B. das kurzzeitige Auftreten einer unbekannten MAC-Adresse im Netz).
Bei RP-Online: Multimedia fand ich den den Originalartikel.
Rollup-Pack für Windows XP läutet neue Update-Politik von Microsoft ein
Cool. Security-Updates nur noch einmal im Monat. So geht man die Sicherheitsprobleme in Windows an.

Bei heise online news gibts den Originalartikel.
Schwachstellen in Exchange Server
Ineressant das Microsoft davon ausgeht das niemand so wahnsinnig ist, einen Exchange-Server ohne Firewall ans Internet zu hängen - Zum Schutz vor Angriffen aus dem Internet sollte Port 25 auf der Firewall blockiert sein

Bei heise online news gibts den Originalartikel.
Stopping Spam
Paul Graham betrachtet und beurteilt alle ihm bekannten Möglichkeiten auf Spam zu reagieren. Als Überblick über mögliche (und auch möglche zukünftige) Lösungen und eine erste Bewertung durchaus brauchbar.
The Resurrection of SimplyGNUstep - OSNews.com
SimplyGNUStep basiert jetzt auf Debian Sarge (der kommenden Debian-Version). Es ist also einfach nur noch eine Sammlung von Debian-Paketen mit aktuellen GNUStep Applikationen. Das vorige Projekt gleichen Namens zielte darauf ab eine volle Distribution zu sein, mit eigener Verzeichnisstruktur, eben so wie Nextstep auch aufgebaut war. Die jetzige Inkarnation finde ich aber deutlich vernünftiger - noch ein Paketsystem und noch eine Distribution zu haben ist irgendwie nicht so sinnvoll, vor allem wenn Debian schon alles in sehr brauchbarer Form bietet ...
Loadbalancer in Python
Besonderheit dieses Load-Balancers (neben der Tatsache das er komplett in Python geschrieben ist): er benutzt keine mehrfachen Prozesse oder Threads, statt dessen benutzt er asynchrones I/O. Dadurch werden viele Verbindungen gleichzeitig in nur einem Thread abgewickelt, wodurch das System in der Last viel niedriger ist als klassische Balancer, die pro Verbindung einen Prozess oder Thread starten. Benutzt wird entweder Twisted oder das in Python mitgelieferte asyncore-Modul.Und rasend schnell ist das ganze auch - z.B. wird die gleiche Geschichte im Medusa benutzt, einem Webserver in Python, der bei Auslieferungen von statischen HTML-Seiten durchaus an die Leistungen eines Apache herankommt. Hier gibts den Originalartikel.