Hero Forge Custom Miniatures hat einen Online-Designer mit diversen Konfigurationsmöglichkeiten für Spielfiguren. Nicht ganz billig, aber wenn man unbedingt eine Figur für ein Spiel braucht, vielleicht trotzdem lohnend.
Artikel - 18.7.2007 - 21.9.2015
After considerable reflection and discussion, we've decided the time has come for us to step aside and seek new owners for Koken. As much as we'd like to stay, all of us have decided to pursue new professional opportunities that will prevent us from…
Quelle: Koken is for sale and looking for a new home - Koken blog
We decided to do something totally new for us this year for our vacation: a tour through France by camping car. And it was a blast! Originally we only planned for northern France, but due to the weath…
Quelle: Tour de France
Magic for Fun
Ich selbst spiele recht gerne Magic the Gathering - hauptsächlich EDH, weil es in der Regel als nettes Spiel in netter Runde gestalten lässt, und nicht so sehr auf Turnier und Gewinn ausgerichtet ist. Jedenfalls in der passenden Runde. Da kommt dann aber schon das Problem - spielen kann ich eigentlich nur auf MTGO (also Online), da ich in den seltensten Fällen rechtzeitig zum lokalen Spieletreff komme. Man kann natürlich einfach mit ein paar Kumpels spielen, aber dann brauchts Decks. Dann gibt es aber das Problem, dass da mehrere mit fremden, unbekannten Decks spielen - und EDH Decks haben ja nunmal eine thematische oder mechanische Ausrichtung die man kennen muss um es sinnvoll und gut einzusetzen. Was dann denjenigen bevorteilt, der die Decks gebaut hat und kennt.
Daher habe ich mich in letzter Zeit mal mit ein paar Mehrspieler-Varianten von Magic beschäftigt, die man gut so als spontane Spielrunde aufbauen kann, die aber meiner zweiten Leidenschaft - dem Deckbau - Befriedigung verschaffen.
Da ist natürlich das bekannteste und wohl verbreitetste - der Cube. Dabei baut jemand einen großen Stapel an Karten zu einem Cube zusammen, aus dem dann Drafts gezogen werden. Da sind dann allerdings mehrere Probleme dabei. Das erste Problem: der Cube muss sehr gut balanciert werden, da man eben einen Draft macht - also Karten zufällig zu Booster Packs zusammenstellt aus denen dann die Spieler ihre Decks bauen. Im Prinzip steckt man in den Cube das an Design rein, was man auch in einen Magic-Set stecken müsste. Das kann viel Spaß machen, erfordert aber schon einiges an Aufwand. Man kann da natürlich Netz-Listen von Cubes holen und die Karten besorgen - aber in der Regel will man ja seinen eigenen Cube haben. Das zweite, für mich schwerwiegendere Problem: man macht eben eines der Limited Formate, Draft oder Sealed. Also den ganzen Cube mischen (Problem 3 - wie mischt man 500 Karten?), dabei auf Seltenheit (nicht zwingend identisch mit der originalen Seltenheit. sondern eher eine Gewichtung in A/B/C Karten), dann daraus "Booster" zusammenstellen und vorbereiten, dann kann man loslegen mit dem Spiel. Sorry, nein, erst kommt der Draft. Und dann der Deckbau. Ooops - da hat man dann die Einsteiger schnell verloren, denn Gelegenheitsspieler können vielleicht schnell lernen wie man spielt, aber wie man draftet oder ein Deck baut, das ist schon etwas aufwändiger. Cube selber fällt für mich also aus.
Dann bin ich über das Stack-Format gestolpert und war sofort begeistert. Ich will ja gar nicht wirklich einen eigenen Set designen - ich will einfach nur mit coolen Karten spielen und das ganze so, dass man auch Gelegenheitsspieler nach spätestens einer offenen Runde (also eine Runde bei der alle Decks offen sind, damit man Sachen erklären kann und sich gegenseitig helfen kan) mit reinnehmen kann. Der Design-Aspekt ist also da - ich kann mir Gedanken über die Karten machen die rein sollen, so viel oder so wenig ich will - und der Setup wenn man mal spielen will ist auch niedrig. Und durch das automatische Mana-Fixing in dem Format haben auch Einsteiger ihren Spaß, weil sie in der Regel irgendwas gespielt bekommen das auch Impact bringt. Bleibt eigentlich nur zwei Probleme: zum Einen muss man wieder 500 Karten mischen und dann daraus Extrakte ziehen von denen man dann halt nicht weiss wie sich das Spiel mit dem Gemeinschaftsdeck darstellt und zum Anderen gibts trotz Manafixing Probleme ein konsistentes Spiel zu gestalten - es ist eben sehr viel zufälliger. Die Deckgestaltung existiert nahezu gar nicht, es gibt nicht mal eine Vorauswahl an Farben.
Ein weiteres Casual-Format aus der Stack-Familie ist Big Box Magic (oder Commie Box Magic wie es jetzt heisst). Da gibt es auch eine gemeinsame Bibliothek, aber eben nach Farben geteilt. Und der Spieler baut sich vorher eine Farbidentität durch die Auswahl seiner 12 Länder zusammen. Was mir daran gut gefällt: ich kann damit zumindestens eine grobe Ausrichtung geben, weil sich ja die Farben doch recht unterschiedlich spielen. Und durch die Landauswahl stelle ich schon mal eine grobe Idee auf, wie ich spielen will - leider kann das sehr schnell mit der Realität der gezogenen Karten in Konflikt kommen. Ich hab auf blau-weiß mit grün-sprenkel gesetzt, aber kriege bei Grün immer nur 3-grün fette Jungs, da wirds schnell traurig.
Ausserdem haben beide Formate auch noch ein Problem: es ist eben nicht mal ansatzweise sowas wie Commander. Ja, es sind Singleton-Formate (jedenfalls wenn der Stack/Cube-Designer das will), aber es sind eben keine Commander da. Und das hat mich dann dazu bewogen meine eigene Variante zu entwerfern, eine Mischung aus Commander und den beiden Stack-Formaten. Mein Versuch aus den Ideen eine gemeinsame Basis zu bauen mit der man Magic eher als Gesellschaftsspiel spontan spielen kann, ohne großen Setup, mit Gestaltungsmöglichkeit für die Spieler und mit Deckbau-Möglichkeit für mich. Und ohne 500 Karten mischen zu müssen (jedenfalls auf einmal).
Grundidee ist eine gemeinsame Bibliothek wie in Commie Box Magic (also die 5 Farben als eigene Stapel - und in meinem Fall auch wirklich nur reinfarbige Karten) und ein gemeinsamer Friedhof. Der Friedhof wird genauso wie die Bibliothek auf Farben geteilt und es gibt einen 6. Stapel mit Artefakten und nicht-Standard-Ländern und einem dazu gehörigen Friedhof. Alle Bibliotheken und Friedhöfe sind gemeinsames Eigentum - aber immer gefiltert nach der Farbidentität des betroffenen Spielers. Ich habe mich dafür entschieden pro Farbe 70 Karten auszuwählen und für jede Farbe 30 Standardländer auszulegen. Bei vielen Spielern sollte man den Länderstapel wohl größer auslegen, sonst ist der zu schnell leer.
Farbidentität ergibt sich aus der Auswahl des Commanders durch die Spieler. Ich habe einen Satz von Drachen - die Shard- und Feindesfarben-Drachen, davon sind immer die zwei mit gleicher Primärfarbe gebündelt. Das reicht für bis zu 5 Spielern - jeder kann eine Primärfarbe wählen und dann darin seinen Kommandodrachen. Will man mehr als 5 Spieler, habe ich einen Satz von Gildenkommandanten, zwei pro Gilde. Das geht also bis 10 Spieler, sollte für meine Zwecke völlig reichen. Die Gildenkommandanten bieten sich auch an, wenn mehrere Spieler gleiche Primärfarben wollen und es keine Einigung auf die Verteilung der Drachen gibt. Oder wenn man halt nicht mit drei sondern nur mit zwei Farben spielen will - das schränkt zwar etwas ein, hat aber den Vorteil, dass Spieler schneller ein Gefühl für die zwei Farben im Fokus entwickeln können, einfach weil die Menge an Karten geringer sind. Die Drachenvariante ist auch ideal für 2HG Spielvarianten - die beiden Spieler eines Teams nehmen die Drachen mit gleicher Primärfarbe, das Team deckt damit alle 5 Farben ab, hat aber trotzdem Synergien. Damit lassen sich bis zu 5 2er Teams aufstellen.
Das Spiel gestaltet sich also erstmal aus der Auswahl und Verteilung der Kommandanten. Danach zieht jeder Spieler seine Hand aus der Bibliothek - natürlich nur aus den farblich passenden Stapeln. Dazu kann jeder Spieler 3 oder 4 Karten aus den eigentlichen Kartenstapeln ziehen und dann seine Hand auf 7 aus den Ländern auffüllen. Gezogen wird reihum, da ja Bibliothekenstapel gemeinsam genutz wird - also Spieler eins zieht die erste Karten, Spieler zwei die erste, bis alle die erste haben - dann die Runde für die zweite Karte und so weiter. Dadurch kann jeder Spieler nachsteuern welche Farbe (oder ob er Artefakte brauch) er ziehen will und auch ab wann und wie viel Länder und welche Länder er will. Das sollte jedem eine spielbare Starthand geben, ohne große Mulligan-Regeln.
Das Spiel selber gestaltet sich genauso wie normales EDH - man startet mit 40 Leben, es gibt Kommandantenschaden von 21, Giftzähler von 10 und so weiter. Alles wie gehabt. Besonderheiten gibt es nur beim Ziehen von Karten, bei allen Karten die die Bibliothek referenzieren und bei allen Karten die den Friedhof referenzieren. Eine Besonderheit gibt es noch mit dem Kommandanten - es gibt keinen Tuck. Der Kommandant geht immer in die Kommandozone, nie in die Bibliothek - sonst könnte jemand anderes meinen Kommandanten ziehen und mangels passendem Mana nicht spielen können.
Karten ziehen gibt es in zwei Varianten: das Standardziehen von Karten und das durch Karten oder Fähigkeiten ausgelöste Ziehen von Karten. Bei normalen Ziehen in der Kartenzieh-Phase kann der Spieler wählen, aus welchem Teil der Bibliothek er ziehen will. Hier stehen alle Farben seiner Farbidentität und der Artefaktestapel zur Verfügung. Ein Spieler kann also entweder eine Karte in seiner Farbidentität ziehen, ein Land in seiner Identität oder eine farblose Karte. Zusätzliches Ziehen von Karten geschieht genauso, nur dass der Artefaktestapel nicht verfügbar ist. Der Grund ist einfach: alle Spieler teilen sich den Artefaktestapel und der wäre schlicht zu schnell leer wenn man davon immer ziehen könnte, Artefakte sind nunmal oft die "Joker" in Magic. Wenn ein Stapel leer ist, kann man davon eben nicht mehr ziehen - da jeder Spieler durch seine Farben mindestens 300 Karten zum Ziehen hat (zwei Farbstapel, zwei Standardlandstapel und der Artefaktestapel bei der Gildenvariante, 400 Karten bei der Drachenvariante), sollte man immer irgendwas ziehen können. Wer als erster nichts mehr ziehen kann hat wie im normalen EDH auch verloren.
Was ist mit Karten, die sich auf die Bibliothek beziehen? Also zum Beispiel mit Tutoren (ich selber vermeide die in meinem Stapel) oder die auf die obersten Karten der Bibliothek gehen? Diese verhalten sich genauso wie zusätzliches Ziehen von Karten, aber ohne Länder - also gehen direkt auf die farbigen Stapel der eigenen Farbidentität. Zusätzlich muss der Spieler eine Farbe der Farbidentität wählen bevor er die Aktion auslöst - Scry 3 guckt also nur in den Stapel einer Farbe (dadurch, dass nur Nicht-Länder in dem fraglichen Stapel sind, wäre ein Verteilen über mehrere Stapel dann doch zu mächtig). Der Stapeldesigner sollte tunlichst Karten vermeiden, die zum Beispiel sich auf Länder oder Nichtländer beziehen - in einem gewählten Stapel sind ja immer nur Nicht-Länder. Einige Karten sind also schlicht nicht kompatibel mit diesem Format. Was ist mit der Bibliothek des Gegners? Genauso - nur wird halt eine Farbe der Farbidentität des Gegners gewählt. Und ja, die eigene Bibliothek und die Bibliothek eines Gegners können sich überlappen. Top-Manipulation hat also oft eher den Charakter von "einem Gegner was wegnehmen" als den Charakter "etwas für den nächsten Zug bereitlegen" - Hellsicht ist also eher ein offensives Werkzeug. Denn schließlich kommt jeder Gegner mit überlappender Farbidentität in den potentiellen "Genuss" meiner bereitgelegten Karte. Das öffnet gleich ganz neue politische Strategien!
Und der Friedhof? Da ist ja auch alles zusammen drin. Simple Lösung: der Friedhof ist genauso nach Farben sortiert wie die Bibliothek. Karten die auf den Friedhof gehen werden auf den Stapel ihrer Farbe gelegt. Mein Friedhof sind dann alle Friedhofsstapel aus meiner Farbidentität - und zusätzlich der Artefaktefriedhof. Der Friedhof eines Gegners sind alle Stapel in seiner Farbidentität - und zusätzlich der Artefaktefriedhof. Reanimation kann also ohne weiteres Karten zurückbringen die eigentlich ursprünglich mal jemand anderem gehörten! Auch wenn nach der Anzahl von Kreaturen in den Friedhöfen deiner Gegner gefragt wird - einfach die gemeinsame Farbidentität der Gegner nehmen und dann die Kreaturen in den dazu passenden Friedhofstapeln und im Artefaktestapel zählen. Ja, der Starrer vom 6. Revier kann dadurch ziemlich monströs ausfallen!
Der Designer des Stapels sollte natürlich entsprechend des Formates designen - zum Beispiel machen Mühlsprüche wie die Archivfalle absolut keinen Sinn, da durch die geteilten Bibliotheken gar nicht klar ist, wessen Karten man wegmühlt. Kleine Mühleffekte sind ok, aber Sinn machen sie eigentlich auch nicht - da ist das eher nur so, dass man sie akzeptiert weil man die Karte aus anderen Gründen drin haben will. In der Regel sollte man sie vermeiden. Genauso Karten die in Friedhöfen oder Bibliotheken oder Exilen (das auch geteilt wird, aber da man darauf nicht oft zugreift ist der Part eher Wurscht) von Eigentümer reden - "bringe alle Kreaturen in Friedhöfen unter der Kontrolle ihrere Besitzer ins Spiel" ist hier ziemlich blöd, weil wer ist der Besitzer von gemeinsam genutzten Friedhofsstapeln? Also beim Design immer drauf achten, dass die Karten hier auch wirklich ohne Konflikte oder großes Kopfkratzen gespielt werden können.
Generell habe ich mir als Basis für jeden Farbstapel das Kredo "Good-Stuff-Deck mit Theros-Gott als Idee" gesetzt. Dadurch bekommen die Farbstapel ein bischen Charakter und die Spieler können durch die Farbwahl entscheiden in welche Richtung ihr Spiel gehen soll. Für die Artefakte habe ich den Fokus auf die farblosen Hilfsländer gelegt und ansonsten natürlich viel auf Ausrüstungen und Hilfsartefakten mit niedrigen Kosten. Auch deshalb die obige Regelung mit Zugriff auf die Artefaktebibliothek nur zum Zeipunkt des primären Kartenziehens - sonst greift sich ein Nin-Spieler schnell die ganzen Waffen ...
Ein Manko des Fomates ist die schlechte Unterstützung für Goldkarten - bisher nur als Kommandanten, ansonsten nur rein-farbige Karten. Eine Idee wäre den Kommandanten - zumindestens in der Gildenversion - eine private Bibliothek von Goldkarten mitzugeben, die dann nur dieser eine Spieler kontrolliert. Das macht es zwar etwas komplizierter, bietet aber auch die Möglichkeit sich darüber eine echte Gildenidentität zu entwerfen und damit der Kommandantenwahl noch mehr Bedeutung zu geben. Allerdings kommt man da recht schnell in die Situation von oben, dass Gelegenheitsspieler mit der Bewertung der Privatbibliotheken überfordert sind und geübtere Spieler deutlich bevorteilt werden. Da muss ich wohl erstmal ein bischen Spieltesten, bevor ich darüber entscheide - am besten auch erstmal ohne diese Gildenbibliothek. Spart auch Zeit und Karten, wenn ich das erstmal ohne mache.
Das schöne an dem Format: der Setup ist ähnlich einfach/komplex wie bei einem der komplizierteren Gesellschaftsspiele wie zum Beispiel den Siedlern - 5 Kisten mit 70 Karten und 30 Ländern, je Farbe eine Kiste. Länder abtrennen und hinlegen, 70 Karten mischen und hinlegen. Dann die 100er-Kiste mit den Artefakten und farblosen Ländern mischen und hinlegen. Kommandanten auf den Tisch zur Auswahl, und dann kann es losgehen.
Magic spielt hier voll seinen Vorteil aus, dass Karten oft recht gut verstanden werden können wenn man einfach nur den Text liest - ich hab aus dem Grund auch darauf geachtet nur deutsche Karten zu benutzen. Eventuell werde ich auch noch mal die Auswahl durchgehen und allzu komplizierte Karten (oder Karten mit Schlüsselworteigenschaften ohne Erklärungstext) rauszusortieren und durch einfachere Karten zu ersetzen. Auch wenn ich dann einige liebgewonnene Karten opfern werde. Ich habe auch so schon nur einen Planeswalker pro Farbe drin zum Beispiel.
Ob das Format funktioniert werden natürlich nur Spieletests ergeben. Ich werde berichtet, ob Top oder Flop.
Aussen Hui, innen Pfui
Das scheint das Motto von Koken zu sein, das ich vor einiger Zeit hier mal ziemlich gelobt habe. Es ist immer noch eines der am besten aussehenden Galleriesysteme mit einer wirklich schicken Admin-Oberfläche. Aber all das schicke kann nach einigen Problemen die nahezu gar nicht debugbar waren nicht darüber hinwegtäuschen, das der Code unten drunter wohl nicht so schick ist wie das Layout. Bis heute hat das Login-Formular Probleme mit Chrome und Safari - und gelöst bekommen die das Problem nicht. Aus den Reaktionen geht nicht mal hervor, ob sie sich überhaupt darum kümmern. Wie blöd ist es bitte, wenn ein Login-Formular nicht funktioniert weil es irgendwelche Probleme mit Javascript-Hacks unter Chrome gibt? Das ist ein simples Formular mit Benutzer und Passwort, was brauchts da groß an Javascript für?
Die Krone war aber heute mal wieder das Lightroom-Plugin. Ich hab ja Koken benutzt, weil mein alter Blog-Workflow - dank der dämlichen Entscheidung der WP-Programmierer mal eben das ganze Atom-Publishing zu schrotten und vergammeln zu lassen und dann nicht zu reparieren sondern zu löschen - den Bach runter gegangen ist. Ich will ja nix kompliziertes - nur einen simplen Weg einen Stapel von Bildern auf Knopfdruck online zu stellen direkt aus Lightroom heraus. Klappt auch wenn das Ziel Flickr oder Picasa oder einer der anderen unterstützten Onlinedienste ist. Nur will ich bitte meine Bilder selber kontrollieren - und selber hosten. Tja, wenn dann aber ein Plugin einfach nur ein leeres Album anlegt aber kein einziges Bild hochlädt (obwohl es stundelang rumrödelt und Aktivität vortäuscht), dann ist das ganze einfach für die Wurst. Wenn es dann nirgendwo auch nur ansatzweise Logs oder Debugmöglichkeiten oder Meldungen gibt, die bei der Analyse helfen, dann ist das ganze einfach nur für die Tonne.
Also werden wohl bis auf weiteres Bilder wieder hier landen, im Moment mit Dossier de Presse, einem Plugin für Lightroom das über XMLRPC auf Wordpress veröffentlicht. Was nicht gerade optimal ist, aber halt das einzige was derzeit verfügbar ist, das mit aktuellem Wordpress, aktuellem Lighroom und überhaupt funktioniert. Da bei XMLRPC bei Wordpress keine Metadaten rüber gehen wie zum Beispiel Bildertitel, werde ich das wohl aus meinem Layout für Galerien irgendwie rauswerfen müssen, da sonst da nur so komische technische Bildernamen auftauchen. Bilder betiteln finde ich eh doof.
Computer könnten so viel mehr Spaß machen, wenn Software nicht zu 90% von Amateuren und Klotzköpfen programmiert würde ...
Gumbo
Heute mal was exotisches - Gumbo. Und dazu dann das ganze auch noch ein bisschen abgewandelt, weil ich Lust darauf hatte. Im Prinzip ist das ganze ziemlich einfach: Speckwürfel (250g), Zwiebeln (wir hatten zwei Zwiebeln), Knoblauchzehen (nicht zu geizig mit denen sein!) und eine in Scheibchen geschnittene Möhre. Speck im Topf braten, Fleisch (300g Rindergulasch war es bei uns) dazu, scharf anbraten, Zwiebeln, Knoblauch, Möhre dazu, schmoren lassen. Dann mit einem Schluck Rotwein ablöschen (muss nicht, aber ich find etwas Rotwein gehört immer ans Gulasch, auch wenn es kein Gulasch wird), 1l Brühe drüber, Lohrbeerblatt, Ingwer und Kumin als Gewürz daran, das ganze so eine Stunde kochen lassen. Dann Reis zubereiten und wärend der Reis fertig wird, eine Paprika kleinwürfeln und in die Suppe geben und ein Glas Okra Schoten (vorher abtropfen und abspühlen) ebenfalls hinein, das ganze dann so 10 Minuten (bis halt der Reis fertig ist) kochen lassen. Wir hatten auch noch ein paar Kapern (gut und lange vor Verwendung wässern, die sind sonst viel zu salzig) mit reingeworfen. Reis auf den Teller, Eintopf drüber, bei uns gab es Weinschorle dazu. Also die Zutaten nochmal zusammengefasst:
- 250g gewürfelter Speck
- 300g Rindergulasch
- 1l Rinderbrühe
- 1 Möhre
- 2 Zwiebeln
- 4-5 Knoblauchzehen
- 1 Pakrikaschote
- 1 Glas Okraschoten (ca. 400g, vor Verwendung abtropfen und abspühlen)
- Ingwerpuler, Kumin, Salz, Pfeffer
- ein paar Kapern (gut wässern vor der Verwendung)
Hyper-V, virtuelle Maschinen, Laufwerksbuchstaben, Wahnsinn, Microsoft
Jupp, die obige Kombination ist echt nicht toll. Szenario: Hyper-V Maschine, mehrere virtuelle Maschinen, einige davon mit Snapshots, diverse sehr lange laufende Installationen und viel Arbeit in diesen Maschinen. Neue Maschinen anlegen passiert auf Basis vorhandener Images, die mit sysprep jeweils generalisiert und für Erstnutzung vorbereitet und dann konfiguriert wurden.
Enter the system administrator: eine neue virtuelle Maschine angelegt, sysprep laufen lassen, leider nicht in der virtuellen Maschine, sondern auf dem Hyper-V Server. Der war dann mal weg. Erste Panik-Attacke.
Kollege hat den (von mir natürlich remote stehenden) Hyper-V Server wiederbelebt und in die Domäne gehängt, ich komme drauf. Alle Konfigurationen noch da, alle virtuellen Maschinen noch da. Keine einzige davon funktioniert. Zweite Panik-Attacke.
Virtuelle Maschinen versucht zu editieren, no go - die Konfigurationen sind nicht erreichbar, der Hyper-V denkt, die lägen alle auf Laufwerk C:. Nachgeguckt, oh, die Laufwerke I: und J: (auf denen die Maschinen vorher lagen) sind nicht mehr da, haben andere Buchstaben. Ok, Buchstaben zurückgedreht und Hyper-V neu gestartet. Keine der Maschinen läuft, die glauben immer noch auf C: zu sein. Dritte Panikattacke, als ich merke, dass man keinerlei Konfigurationsänderungen machen kann.
Tja, auch in den Konfigurationen und der Registry findet sich nichts über dieses ominöse C: - wo kommt das her? Nach längerem Suchen gefunden, für jede virtuelle Maschine und für jeden Snapshot legt Hyper-V symbolische Links unter NTFS ab. Diese liegen unter %systemdrive%:\ProgramData\Microsoft\Windows\Hyper-V in den Unterverzeichnissen "Virtual Machines" und "Snapshots" und zeigen auf die echten Zieldateien. Und auf magische Weise zeigten diese alle auf C: - scheinbar "korrigiert" NTFS beim Start defekte symbolische Links, die auf nicht existierende Laufwerke zeigen. Toll.
Also die Links neu angelegt (erstmal nur einen unwichtigen Server, damit ich sehe ob es klappt). Klappt natürlich nicht, weil der Hyper-V ignoriert den schönen neuen symbolischen Link. Rechte sind falsch. Icacls kann das reparieren - "NT VIRTUAL MACHINE\
Laut fluchend gefunden, dass ein Franzose damit auch Probleme hatte - Microsoft in seiner großen Weisheit hat die Namen lokalisiert. Unter der deutschen Version also "NT VIRTUELLER COMPUTER\
Schweinefilet in Senfsoße
Diesmal ganz einfach und simpel, daher hier einfach nur grob der Ablauf wie man das ganze produziert. Ich habe zwei Wochen später das ganze auch nochmal etwas modifiziert, da waren dann noch zusätzliche Gewürze (Ingwer, rosenscharfer Paprika und Koriander) in der Soße, das hat dann Juliana auch noch besser gefallen - eine schöne würzige Soße. Also hier die Zubereitung:
- Schweinefilet (vorher Häute und Sehnen entfernen) in 2-3 cm dicke Scheiben schneiden
- eine Zwiebel und eine große Knoblauchzehe klein würfeln
- die Filetstücke kurz und scharf anbraten
- Filetstücke rausnehmen und in eine Auflaufform legen (oder wie ich, in eine ofen-geeignete Pfanne)
- die Zwiebeln und den Knoblauch anschmoren
- mit Weißwein ablöschen
- halber Topf Kochsahne drüber gießen
- 2-3 große Teelöffel Senf hinein rühren
- mit Pfeffer und Salz abschmecken, Ingwer, Koriander und rosenscharfer Paprika nach Geschmack dazu
- die Soße über die Filetstücke in der Auflaufform gießen
- im auf 200 Grad vorgeheizten Ofen ca. 35 Minuten backen
Bei uns gabs dazu Brot und Salat. Ausgesprochen lecker und nicht viel Aufwand.
Spaghetti Carbonara mit Gemüse und Frikadellen
Juliana hatte das Rezept gefunden und es klang gut, also haben wir uns da heute mal dran gewagt. Hat auch alles einigermaßen funktioniert und gut geschmeckt hat es auch. Und dieses Mal hat auch die Menge (außer bei den Frikadellen) für zwei Personen gepasst. Rein kommt:
- Spaghetti
- Hackfleisch 300g
- Schinken (so 4-5 Scheiben)
- Zucchini (1-2)
- Pilze (ca. 2 Hand voll)
- Petersilie
- Knoblauch, Majoran, Edelsüßer Paprika, Rosmarin, Pfeffer, Salz (alles für das Hack hauptsächlich)
- etwas Semmelmehl
- 5 Eier (1 ins Hack und 4 in die Soße)
- Parmesan (so 40-50g hatten wir)
- Kochsahne (die mit 15% Fett, ca. ein halber Becher)
Zubereitung war etwas komplizierter, weil man ja mehrere Sachen gleichzeitig machen musste - und wir natürlich prompt die Nudeln zu spät aufgesetzt haben und daher zwischendurch alles warm halten mussten. Aber ansonsten wars eigentlich recht unkompliziert:
- Knoblauch kleinhacken
- Hackfleisch mit Knoblauch, Semmelmehl, einem Ei und den Gewürzen mischen
- kleine Fleischbällchen formen und in der Pfanne braten
- während die braten das Gemüse kleinschnippeln
- die fertigen Fleischbällchen irgendwo zwischenlagern
- Gemüse in der Pfanne braten und zum Ende den Schinken dazugeben und mit braten (nicht zu früh, der Schinken wird sonst zu trocken)
- parallel dazu 4 Eigelb, den Parmesan kleingerieben, die Kochsahne und die Petersilie zusammenrühren und warm machen - nicht kochen, nur erhitzen
- die Soße wird etwas dicker wenn sie fertig ist.
- Evtl. etwas Salz an die Soße.
- nicht vergessen zwischendurch auch die Nudeln aufzusetzen
Wenn dann alles fertig ist, einfach die Nudeln auf den Teller, Soße darüber verteilen, dann das Gemüse mit dem Schinken darüber und servieren. Eventuell noch etwas Parmesan drüber reiben (hatten wir nicht mehr) und die Frikadellen dazu legen (oder einfach so dazu essen - die Soße ist sowieso ziemlich schwer, die Frikadellen waren uns fast schon zu viel des guten).
Gulasch ungarische Art
Juliana hatte Schweinegulasch gekauft, aber noch keine Idee was damit machen - und ich hab dann ungarisches Gulasch vorgeschlagen. Danach musste ich dann in die Küche und kochen. Gulasch ist ja recht simpel, hier nur mal als Gedankenstütze für mich geblogged:
- 300g Schweinegulasch
- 1 Zwiebel
- 2-3 Knoblauchzehen
- 1 Paprika
- 1-2 Tomate
- 100ml Rotwein
- 400ml Wasser (Kollege schlug vor da statt dessen Brühe zu nehmen, gibt dann mehr Geschmack)
- Paprikapulver (edelsüß und rosenscharf)
- 3 Gewürznelken, 3 Lorbeerblätter, 4 Pimentkörner
- Pfefferkörner, 1 TL Salz
- Coriander, Rosmarin, Thymian, Majoran, Basilikum (oder was einem sonst noch so an Gewürzen einfällt, aber die hier sind relativ klassisch dafür)
- etwas Tomatenmark (hauptsächlich für den Ausgleich der zur Zeit eher geschmacklich dünnen Tomaten)
- 1/3 Becher Sahne
Die Zubereitung ist dann wie folgt:
- die Paprika, die Tomaten, die Zwiebel und die Knoblauchzehen kleinwürfeln (auf getrennte Teller packen)
- die Zwiebel und die Knoblauchzehen glasig braten in einem Topf
- Fleisch rein in den Topf und scharf anbraten
- Paprikapulver drauf (kräftig würzen!) auf das Fleisch und die Zwiebeln, fix umrühren
- mit dem Rotwein ablöschen
- mit dem Wasser auffüllen
- die Paprika (klein gewürfelt) rein in den Topf
- die ganzen Gewürze (vor allem Nelken, Lorbeerblätter, Pimentkörner und Pfefferkörner müssen mit dem ganzen Fleisch und Sud schmoren, sonst bringen sie nichts) rein
- alles zusammen 45 Minuten schmoren lassen
- die Tomaten rein, das ganze 20 Minuten schmoren lassen
- etwas Tomatenmark reinführen, nochmal 10 Minuten schmoren lassen
- kurz vor Schluß die Sahne vorsichtig reinrühren
Passt gut zu Nudeln oder vielleicht auch Reis (Nudeln ziehe ich aber vor). Oder auch einfach nur mit Brot und etwas Gemüse.
Piroschki wie von Schwiegermuttern
Das erste Mal habe ich sie zusammen mit meiner Schwiegermutter zubereitet - ich habe den Teig gemacht, sie das Hackfleisch gewürzt und die Piroschki geformt. Diesmal musste ich alles selber machen. Aufbau ist aber eigentlich recht simpel.
Man beginnt mit einem klassischen Hefeteig. Ich packe dafür folgendes zusammen in eine Knetschüssel und knete das ordentlich durch:
- 500g Mehl
- 200ml Milch (Zimmerwarm)
- 2 Tüten Trockenhefe
- 125g Margarine (warm)
- 80g Zucker
- 1 Ei
- 1/2 Teelöffel Salz
Das ganze dann ordentlich kneten und an warmer Stelle 30 Minuten gehen lassen - sollte sich deutlich im Volumen vergrößern. Ich nehme dafür üblicherweise den auf 50 Grad leicht angewärmten Backofen, mit einem feuchten Handtuch über der Teigschüssel, das liefert genau das richtige feuchtwarme Klima. Tipp: die Trockenhefe erstmal in das Mehl reinführen, dann erst die anderen Sachen dazu geben, dadurch vermeidet man Klumpen von Hefe und bekommt gleichmäßigeren Teig. Statt zwei Tüten Trockenhefe kann man auch einen Würfel Frischhefe nehmen.
Die Füllung ist auch nicht kompliziert, einfach 500g Hack mit zwei Ziegeln (kleinhacken) und Pfeffer, Salz und weiteren Gewürzen nach Geschmack zusammen vermischen. Das wars schon bei der Füllung.
Danach dann den gegangenen Teig nochmal mit der Hand gut durchkneten und kleine Kugeln formen - so von der Größe her etwas kleiner als Tischtennisbälle. Die mit einem Nudelholz ausrollen auf etwas mehr als Bierdeckelgröße. Dann das Hackfleisch auf die Teigfladen geben und Halbmonde formen (also zusammenklappen). Die Ränder gut verschließen. Das war dann auch der komplizierte Teil, die richtige Größe für die Teigbällchen, die richtige Dicke beim Ausrollen und die richtige Menge Hack als Füllung zu finden. Das ist alles dieses Mal noch etwas hakelig gewesen, da müssen wir einfach noch üben. Da wir am Ende des Hack noch Teig hatten, haben wir den Rest einfach mit Marmelade gefüllt. Als Tipp daraus: am besten eine Marmelade mit kräftigem Geschmack wählen. Oh, und wirklich die Ränder gut zusammendrücken - gerade bei den süßen Piroschki sind uns ein paar aufgegangen beim Backen.
Alle Piroschki auf ein Backblech mit Backpapier legen, mit einem geschlagenen Ei bepinseln und im Ofen bei 180 Grad backen. Bei der Menge oben werden das zwei Blechen: die beiden Bleche 20 Minuten backen, dann die Positionen der beiden Bleche tauschen und nochmal 15 Minuten backen. Bei nur einem Backblech geht's wahrscheinlich schon mit 30 Minuten - einfach reingucken, wenn der Teig schön braun ist, ist es fertig. Das ganze gibt eine große Schüssel voll.
Wir haben geheiratet
Anstelle die Bilder schon hier hinzupacken gibt es nur einen Verweis auf ein Album von Bildern die meine Schwiegermutter gemacht hat - die offiziellen Fotos warten noch etwas (und ich selber hab ja keine gemacht).
FLASH PLAYER NOT SUPPORTED
Wildgulaschtopf
Auf dem Markt bin ich über Wildgulasch gestolpert und habe zugeschlagen. Und dann noch Fenchel und Lauchzwiebeln gekauft. Nunja, ein bisschen rumgegoogelt und eine Idee für ein Rezept bekommen. Wie üblich natürlich etwas angepasst. Was rein kommt:
- 300g Wildgulasch
- 3 mittlere Kartoffeln
- 1 große Möhre
- 1/2 Fenchelknolle
- etwas Lauchzwiebeln (ich hab zwei Stangen genommen)
- 250 ml Wildfond
- 125 ml Rotwein
- Rosmarin, Tymian, Pfefferkörner, 2 Nelken, 1 Lorbeerblatt
Zubereitung ist erstaunlich simpel, allerdings etwas zeitaufwändig, also nicht gerade kochen wenn man schon Hunger hat:
- Wildgulasch mit Olivenöl in der Pfanne (hoher Rand, da kommt einiges dazu!) scharf anbraten, so dass es rundum Farbe bekommt
- mit Rotwein ablöschen und mit Wildfond auffüllen
- Gewürze rein
- 60 Minuten köcheln lassen
- wärenddessen Kartoffeln, Möhre, Fenchel, Lauchzwiebeln kleinhacken
- Gemüse mit rein in die Pfanne nachdem das Fleisch schön weichgekocht ist - falls der Flüssigkeitsstand zu niedrig ist, einfach etwas Wildfond (oder neutrale Gemüsebrühe wenn einem der Geschmack sonst zu intensiv wird) nachfüllen.
- alles nochmal 25 Minuten kochen lassen
- mit Pfeffer und Salz abschmecken, evtl. etwas Muskatnuss und Kümmel (wir lieben Kümmel!) mit hinein
- mit gehackter Petersilie bestreuen und servieren
Ich hab erstmal das ganze vorbereitet, so dass wir es uns später einfach nur aufwärmen brauchen. Dazu dann - ich hab ja eine Russin hier zu Hause - Brot.
Telefontarife können einem echt den Spaß verderben
Wenn man sich so umschaut bei den Telefontarifen, dann kann man schon kleinere bis größere Tobsuchtsanfälle bekommen. Bei den Telefonie-Komponenten ist es ja mittlerweile einigermaßen ok geworden, die SMS Tarife sind immer noch lächerlich bis hanebüchen - teurere Wege seine Daten in 140 Zeichen Paketen zu verschicken gibt's nicht. Aber ok, das ist ja alles nichts neues. Aber wenn man sich dann die Datentarife anschaut, dann kriegt man wirklich das Schreien.
Anlass warum ich mir den Wahnsinn angetan habe: SMS von T-Mobile, dass ich mein full-speed Volumen ausgeschöpft hätte und den Rest des Monats jetzt mit 64kbit down- und 16kbit upstream leben darf. Nachgeguckt in meinem iPhone unter Benutzung der Daten: 1.1G downstream und 430 MB upstream. Dummerweise aber in einem Zeitraum von fast einem Jahr. Wie ich da plötzlich nur die ersten 8 Tage dieses Monats schon 200 MB gebraucht haben soll, war mir ein Rätsel, bis mir eingefallen ist, dass die Provider ja praktischerweise angefangenen 100kbit Häppchen abrechnen. Damit das full-speed Volumen auch möglichst schnell leer ist. Danke, Push-Notifikationen.
Guckt man bei den drei Großen (T-Mobile, Vodafone und O2), dann sieht man da erstmal hübsche Übersichten mit Preisen. Und natürlich flat. Heute ist ja alles flat. Aber flach war da wohl nur das Hirn des Marketingfuzzis, der sich den Mist einfallen hat lassen. Zwar ist dort tatsächlich das Volumen unbegrenzt, aber natürlich steht nur im Kleingedruckten, ab welchem Volumen man auf lächerliche 64kbit reduziert wird - und das ist nur der Download, der Upload wird dann gleich mit der Reduktion auf 16kbit fast schon unbrauchbar gemacht.
Zur Ehrenrettung von O2: wenn man auf die richtigen Wege klickt, kriegt man da die Drosselungsstufe relativ übersichtlich gezeigt. Also nicht etwa unter den Handytarifen den mit Smartphone Angabe, sondern über Internet und dann da Surfen mit Handy. Warum das eine Übersichtlich ist und das andere nicht wissen wohl nur die Webdesigner. Oder die Preisverstecker. Möglicherweise hat man auch bei den anderen Anbietern eine Verlegenheitsseite wo man eine vernünftige Übersicht bekommt, aber mir war dann irgendwann die Laune nicht mehr nach weiter suchen.
Das Kleingedruckte ist übrigens nur bei der Telekom mit Nümmerchen am Tarif referenziert - und unten schon ausgeklappt angezeigt. Bei O2 und Vodafone muss man sich aber erstmal denken, dass unter "weitere rechtliche Hinweise" oder "weitere Hinweise" sowas verstecken könnte, ohne dass man da drauf hingewiesen würde. Wozu auch, ist ja unwesentlich, ist ja alles flat. Oh, und natürlich blass-graue Schrift und nur 10 Punkte hoch, soll ja nicht zu einfach zu lesen sein. Für mich grenzt das schon an Beschiss.
Abgesehen vom versteckten anbringen: die normal bezahlbaren Tarife (sorry, aber Tarife über 50 Euro im Monat sind einfach nur eine Frechheit aber kein Angebot) haben lächerliche 300 MB Volumen bis zur Runterschaltung. Oh, Sorry, Vodafone hat nur 200 MB ...
Dazu kommen dann die lustigen Vorstellungen über Vertragsbindungen. Ja, ich kann die Bindung von 2 Jahren durchaus nachvollziehen, wenn man einen Vertrag mit Gerät nimmt - schließlich muss das Gerät darüber ja mitfinanziert werden und ich erwarte keine Geschenke. Aber die sich dann locker mal eben anschließende Verlängerung um ein Jahr, wenn man nicht mindestens 3 Monate vor Ablauf der Zwangsdauer kündigt, das ist schon echt dreist.
Besonders wenn man sich dann die Billigmarken der großen Anbieter anschaut: Base, Fonic, Congstar. Komischerweise kann man bei denen direkt auf der Tarifübersicht sehen, welche Varianten an Runterschaltung es gibt. Ausserdem gibt es mehrere Varianten. Und es gibt deutlich übersichtlichere Preise. Nur komisch - die laufen über die Netze der Mütter. Muss ja auch nicht erwähnen, dass komischerweise die Billigmarken moderatere Vertragsbindungen haben, oder? Gut sind die Billigmarken natürlich auch nicht - dort wird nichtmal mehr behauptet, man würde Service bekommen (den die großen aber auch nicht wirklich liefern - das sind eher Verzweifelungstaten als Service).
Ist doch seltsam, dass die gleiche Leistung zu drastisch unterschiedlichen Preisen angeboten werden kann, und die Billigmarke trotzdem Gewinn macht. Könnte das damit zu tun haben, dass die Mutter-Marke einfach Sachen zu Mondscheinpreisen verkauft? Oh, und es ist natürlich völliger Zufall, dass alle fast die gleichen Preise haben in ihrem jeweiligen Segment. Ich mein, das ist doch ein toll regulierter Markt, da gibt's doch bestimmt keine Absprachen oder sowas. Wie kann man nur überhaupt den Gedanken aufwerfen ...
Der Feind des mobilen Internet, der Klotz am Bein der Entwicklung dieses Sektors? Die absurden Vorstellungen der Mobilfunkanbieter. Es wird dringend Zeit für alternative Funktechniken, die von Anbietern ausserhalb dieses inzestuösen Haufens von Beutelschneidern geliefert werden können. Aber darauf zu hoffen ist wohl auch absurd, da wird die Telekommunikationslobby schon für sorgen, dass da nicht versehentlich tatsächlich mal der Markt geöffnet wird.
PS: ja, ich weiss, dass Base nicht die Billigmarke von Vodafone sondern von E+ ist. Bzw. das E+ Netz nutzt. Hat Vodafone überhaupt sowas wie eine Billigmarke?
Social Networks und meine Nutzung von denselben
Irgendwann fällt einem mal auf, dass man einfach viel zu viele Stellen im Netz hat, wo was passiert und wo man irgendwie vertreten ist. Aus diesem Grund hier mal eine Aufstellung von den aktuellen Netzwerken in denen ich auftauche und wie ich diese dann tatsächlich nutze (bzw. plane zu nutzen - nicht immer klappt das mit dem was ich will und dem was ich mache).
- meine digitale Heimat ist hier im Blog. Hier landet alles mögliche, Links, Bilder, Artikel, sonstwas. Wenn es mir wichtig genug ist, dass ich da was zu sagen will, dann pack ich es hier hin - denn nur hier habe ich tatsächlich volle Kontrolle über meine Inhalte. Ein paar meiner Inhalte werden nach Metaowl - unserem kleinen Datenschutz Aggregator - gepostet.
- Ich habe nebenbei noch ein kleines Tumblelog bei Tumblr. Das benutze ich eigentlich nur um da Fotos oder ab und an mal Kommentare oder so zu posten, wenn ich unterwegs bin. Wird also primär von meinem iPhone befüttert.
- Auf Twitter ist das, was Dave Winer als "Firehose" bezeichnet. Wer also wissen will was überhaupt wie auch immer wo auch immer von mir so veranstaltet wird, der kann meinem Stream dort folgen. Vorsicht, das ist wirklich viel - denn jeder neue Dienst, der mir wie auch immer Zugriff auf meine Aktivitäten dort liefert, wird eingehängt.
- Auf Flickr habe ich eine ganze Reihe von Fotos, und da werde ich sicherlich auch immer mal wieder Bilder hinstellen. Einfach weil ich manchmal für die Bilder auch die Vernetzung will - in der Regel landen die gleichen Bilder aber dann auch hier im Blog.
- Als Social Network benutze ich primär Google+ im Moment. Klar, das hat noch einige Probleme, aber die Architektur gefällt mir deutlich besser als in den anderen Netzen. Und die Integration mit Picasa führt dann natürlich auch dazu, dass ich dort Bilder reinstelle.
- An Social Code Networks benutze ich derzeit Bitbucket und Github. Dort landen meine Open Source Projekte (allerdings hab ich da natürlich auch Kopien lokal bei mir, falls diese Hoster mal irgendwann verschwinden). Github benutze ich derzeit allerdings hauptsächlich um Projekten dort zu folgen, meine eigenen Projekte benutzen Mercurial und landen daher bei Bitbucket.
- Facebook benutze ich eigentlich garnicht. Ich schicke ein paar Inhalte (Blogposts und zum Beispiel Google+ Updates) dort hin, aber ansonsten bin ich da eigentlich nur so als Aufhänger und für die Leute, die nicht meinen RSS Feed benutzen wollen, sondern einfach dort meinen Inhalten folgen wollen, weil sie halt schon dort sind.
So, damit sollte jeder wissen wo ich mich rumtreibe und wo was von mir auftaucht. Und jetzt bitte kein Meckern "dein Twitter Stream ist zu voll" - das ist absichtlich so. Und auch kein "guck doch mal in dein Facebook" - das passiert nur sporadisch.
EVIL is King
Nein, das ist jetzt nicht die Anbetung des Bösen, sondern einfach nur meine Überlegungen über die Kameratechnik, die in der letzten Zeit die größten Veränderungen durchmacht hat und bei der die meisten neuen Systeme herauskamen - EVIL Kameras, also Kameras mit Electronic Viewfinder und Interchangeable Lenzes. Sei es das Micro-4/3 System von Panasonic oder Olympus, oder das NEX System von Sony, oder eines der anderen neuen Systeme in der Kategorie. Ich bin immer wieder erstaunt, wie viel das für mich in der Fotografie geändert hat - einfach durch die Verfügbarkeit von wirklich kompakten Kameras, die ich tatsächlich dabei habe.
Bis vor wenigen Jahren hatte ich ja noch eine Canon EOS 10D - ein wirklich klasse Gerät mit guter Bildqualität und der Leistungsfähigkeit der üblichen digitalen SLR. Ok, zum Ende hin nicht mehr auf der Höhe der Zeit, da gabs schon mehrere neue Generationen (als ich sie verkauft habe, war gerade die 50D erschienen), aber das war für mich egal - die Bildqualität liess nichts zu wünschen übrig.
Aber die Größe! Die Kamera selber war schon nicht gerade klein (wenn auch nicht so ein Monster wie die üblichen Profi-Geräte), aber die Objektive waren dann wirklich heftig. Ich hatte nur wenige Objektive - hauptsächlich das 35/1.4L und das 100/2.8 Macro (meine Autokorrektur wollte das gerade auf Macho korrigieren - Anbetracht des Gewichts vielleicht nicht ganz falsch). Die Kamera mit beiden Objektiven mitnehmen? Äh, nein danke, lieber nicht. Und wenn ich sie dabei hatte, war es eben nur ein Fotoapparat mit recht klassischen Funktionen. Video, nur weil man was witziges sieht das man als Filmchen festhalten will? Nö.
Ok, heute haben auch viele DSLRs Liveview und Filmen, aber kleiner sind die nicht geworden - das sind immer noch prinzipbedingt ziemlich heftige Geräte. Die kleinen EVIL Systemen hingegen sparen alleine durch den fehlenden Spiegelkasten eine Menge Platz. Und das gilt nicht nur für das Gehäuse - Optiken können bei gleichen Bildkreis oft kompakter gebaut werden, wenn der Abstand zur Chipebene geringer ist. Und erst die Möglichkeit der Adaption! Ich kann an meiner NEX-3 so ziemlich alles adaptieren was ich zu Hause an alten Optiken noch rumliegen habe. Sehr angenehm, denn selbst die Optiken meiner alten Contax RTS III waren deutlich kompakter als aktuelle DSLR Objektive, und wenn ich richtig kompakt will, kann ich die Leica Linsen dranmachen.
Was sich dadurch für mich geändert hat: ich habe viel häufiger als früher den Reflex "schmeiß die Kamera in den Rucksack" - die NEX-3 war nicht teuer, da macht man sich auch über den Transport nicht sonderlich viel Gedanken, rein in den Rucksack und gut. Viel Gewicht produziert die mit dem Standardzoom nicht und man hat so ziemlich alles dabei was man braucht. Die Bildqualität selber überrascht mich immer wieder - und zwar positiv. Ich glaube kaum, dass meine 10D wirklich besser war (im Gegenteil, die ausreichende Qualität rauf bis 3200 ISO bei der NEX macht Aufnahmen möglich, über die ich früher nicht mal nachgedacht hätte). Und der Fokus-Peek bei der NEX ist bei manuellen Objektiven besser als die Fokushilfen alter manueller SLRs (jedenfalls bei meinen Augenwerten).
Alles in allem war die Investition in ein EVIL System (ok, eigentlich in meinem Fall sogar in zwei Systeme, da ich ja noch die Panasonic Ausrüstung habe) ein echter Gewinn. Auch wenn sicherlich die meisten meiner Foto-Freunde die Nase über die Familienfotos und reinen Knipsbilder rümpfen würden, die ich mache - hey, ich heirate demnächst, ich muss mich schon mal auf Familienbilder einstellen, die Zeit der wilden Kunstversuche (die ja nun auch nicht wirklich besser waren) ist vorbei.
Letzten Endes ist für mich eh nur eines wichtig: dass mir die Fotografie Spaß macht. Und das ist mit den neuen kompakten Kameras wieder der Fall. Und was will man mehr.
MonoMac und XCode 4
Autsch, das hat mich jetzt voll erwischt - ich wollte mal mit den GUI Tools spielen, aber MonoMac unterstützt XCode 4 noch nicht vollständig und hat nur lapidar das zu sagen:
Developers that use Interface Builder are recommended to install Xcode 3.2.6 for the time being. MonoTouch News.
Schlecht daran: das ist aus März. Das ist deutlich zu lange keine Unterstützung, so ist MonoMac einfach nur ein halbes Werkzeug (wenn überhaupt). XCode 3 und XCode 4 parallel laufen lassen ist auch keine Option (beides will im selben Ordner rumliegen). Defakto ist man entweder auf XCode 3 zurückgeworfen, oder MonoMac ist raus. Oder man baut seine GUI mit GTK# - dann ist XCode egal (der Compiler-Teil von XCode 4 ist unterstützt), aber dann kann man zum Beispiel AppStore vergessen (und GTK# sieht nicht wirklich toll aus). Mist.
Datenschutz und Social Network Buttons
Gerade gelesen: Datenschutz & Facebook Like-Button für Webseiten-Betreiber. Hatte gerade mal mit den diversen Social Buttons gespielt (deshalb könnten die noch eine Weile auf gecachten Seiten auftauchen), aber dann mir überlegt, die werden warscheinlich doch etwas mehr an Verbindungen zwischen Accounts und Seitenbesuchen nach Hause melden - und erstmal wieder abgeschaltet.
Der verlinkte Artikel guckt ein bischen in den Facebook Like Button rein, der Google +1 Button dürfte sehr ähnlich gelagert sein. Vermutlich ist der Twitter Button auch nicht unproblematisch, zumindestens wenn da der Server abgefragt wird auf die Zahl der Tweets - aber eine unproblematische Variante des Twitterbuttons sollte man hinkriegen können, denn das ist ja noch der simpelste Fall.
Naja, erstmal hab ich das Spielzeug wieder ausgeschaltet, muss da noch etwas drüber nachdenken. Denn einerseits ist es natürlich interessant den Besuchern mit aktiven social Networks einfaches Sharing in ihren Netzen zu ermöglichen - aber was ist der Preis?
Überlegungen zu Datenschutz, Kontrollverlust und anderen Dingen
Von der Spackeria, von Aluhüten und vom Kontrollverlust - Die wunderbare Welt von Isotopp. Lesenswerte Betrachtung von Datenschutz, Datenspuren, der zwangsläufigen Ansammlung von Datenmengen und der Unvermeidbarkeit der Zugänglichkeit und Auswertung dieser Daten.
Ich selbst sitze immer zwischen den Stühlen der Aluhüte und Spackeria - einerseits will ich eine Datenvermeidung und habe meine Probleme mit der Datensammelwut an manchen Stellen, andererseits bin ich techniknah und -begeistert und bin dadurch automatisch in vielen Datentöpfen angesammelt. Und bin mir absolut bewusst, wie viel über mich online ermittelt werden kann, wenn jemand das alles zusammenführt.
Ich sehe genauso wie Isotopp es in dem Artikel darstellt ein massives (warscheinlich zwangläufiges) Versagen des gesetzlichen Datenschutzes - sehe selber aber eine gewisse Differenzierung zwischen Daten die in freiwilligem Kontext der Nutzung von technischen Diensten anfallen (auch wenn diese Daten vielleicht vom Benutzer nicht direkt bemerkt werden) und Daten die im staatlichen Umfeld gesammelt werden.
Der Staat legt Datensilos nur unter dem negativen Aspekt an - eine staatlich angelegte Datenbank ist immer wieder unter dem Aspekt der Generalverdächtigung aufgebaut. Der Staat sammelt nicht die Daten der an Visaverfahren beteiligten Personen um denen zielgerichtete Informationen und Dienstleistungen rund um Visaverfahren zukommen zu lassen - der Zweck ist alleine die Strafverfolgung. Nur werden damit alle an Visaverfahren beteiligten Personen automatisch des Terrorismus und anderer Verbrechen verdächtigt - denn sonst bräuchte man deren Daten ja nicht zu erfassen. Die Exekutive des Staates hasst die unordentlichen Bürger und misstraut ihnen zutiefst, deshalb müssen diese kontrolliert werden.
Ein privatwirtschaftlicher Haufen an Daten hat ein wesentlich banaleres Ziel - marktwirtschaftliche Ausnutzung. Das ist, so verrückt es vielleicht für manche klingen mag, mir deutlich lieber. Google wird die Daten nicht nutzen um meine politische Gesinnung negativ auszulegen und mich auf eine No-Fly-Liste zu legen, weil ich den Staat kritisiere - die wollen mir nur besser platzierte Werbung unterschieben. In gewisser Weise kann man sich auf das reduzierte Blickfeld von Kapitalisten verlassen, es ist wesentlich positiver beeinflusst als das der Politiker. Datensätze sind potentielle Geschäfte - nicht potentielle Attentäter.
Aus diesem Grund finde ich die derzeitige Aktivität diverser Landesdatenschützer im privatwirtschaftlichen oder sogar direkt privaten Bereich (Abmahnung von Blogs für die Nutzung von Google Analytics) lächerlich bis peinlich, wenn sich die gleichen Datenschützer nicht gegen Projekte wie sie im Innenministerium oder anderen staatlichen Stellen hochkommen stemmen.
Wie kann ein Datenschutzbeauftragter erwarten ernst genommen zu werden, wenn er sich laut über die im iPhone abfallenden Lokationsdaten aufregt und gegen Apple poltert, aber gleichzeitig keine Anstalten macht diese durchgedrehte EU-Kommissarin zu stoppen, die Pläne für eine EU-weite, verdachtslose Vorratsdatenspeicherung hegt, die gegen unser Grundgesetz verstoßen würden (genauso wie die in Berlin ausbaldowerte Vorratsdatenspeicherung ja schon in Karlsruhe gescheitert ist)?
Nochmal iPhone Location Daten
Nur nochmal zu der Antwort von Apple zu den Bewegungsprofil-Vorwürfen und warum Apple Recht hat, aber trotzdem ein Problem besteht (aber eines, das deutlich kleiner ist als das dramatisierte Problem in der Presse).
Apple produziert mit - anonym gesammelten, bisher gibt es da auch keine Anzeichen, dass es nicht anonym wäre - Positionsdaten der iPhones mit aktiviertem GPS eine Datenbank, in der Positionen von Netzen gespeichert werden. Netze sind hierbei Funktürme für GSM, 3G und WLANs die das iPhone zu dem Zeitpunkt sieht. Das ist allerdings nicht das, was in dieser Datenbank gespeichert wird, von der alle Reden. Das ist nur die Grundlage, auf der etwas aufgebaut wird, was dann in der Datenbank landet.
Die an Apple gesendeten Daten werden intern gemittelt und daraus für die von diversen iPhones gemeldeten Netze ein "Zentrum" ermittelt (denn die genaue Position von WLAN Routern oder Funktürmen kriegt man ja nicht einfach so geliefert - die muss erst irgendwie ermittelt werden). Diese Daten werden in einer großen Datenbank bei Apple gespeichert. Die Positionsdaten beziehen sich also auf das Zentrum von Funkidentifikationen. Die Originalen Positionsdaten sind nur Basismaterial für die ermittelten Positionsdaten.
Das iPhone kann jetzt über die sichtbaren Funkidentifikationen und deren Positionsinformationen und eine über die Sendestärke gewichtete Mittelung der Daten eine ungefähre Position ermitteln - dazu ist aber Internet Zugriff notwendig. Und Zugriff über Internet auf die Datenbank bei Apple. Daher lädt das iPhone die Informationen zu Funkidentifikationen herunter und cached diese lokal. Aber natürlich nicht die ganze Datenbank - das wäre zu viel. Sondern eben ein nach Algorithmen ermittelter relevanter Ausschnitt. Das jetzt ist die Datenbank auf dem iPhone.
Dazu wird von Apple scheinbar nicht nur das an Netzen runtergeladen was das iPhone gerade sieht, sondern wohl auch Nachbarnetze - macht nur Sinn, da der Benutzer sich ja öfter mal bewegt und man damit die Daten von Nachbarnetzen brauchen wird (potentiell - das iPhon weiss ja nicht voraus wohin ich gehe). Vermutlich wird also das iPhone sagen "ich sehe Netze A, B, C" und die Datenbank liefert dann "hier sind die Netze A-M aus dem Großraum in dem du dich befindest". Das iPhone nimmt dann X% von A, Y% von B und Z% von C als Basis und errechnet daraus eine grobe Position und sagt "hier bin ich". Wenn es sich dann in die Sichtbarkeit von Netz D bewegt, ist dessen Position schon bekannt und das iPhone kann die Positionsberechnung ohne Download direkt vornehmen.
Zusätzlich scheint das iPhone eine zeitliche Historie dieser Downloads zu speichern - vermutlich hat der Entwickler angenommen, wenn der Benutzer da schon mal war, ist die Chance hoch, dass er da wieder hin will. Dabei hält das iPhone wohl ein Jahr an diesen Daten parat. Die Behauptung von Apple, die Dauer der Speicherung sei ein Bug, ist sicherlich eher eine Beschönigung - vermutlich hat da einfach ein Entwickler sich eine Dauer ausgedacht und benutzt, ohne sich darüber Gedanken zu machen wieviel wirklich sinnvoll wäre - schließlich waren das ja keine besonderen Daten nach seinem Verständnis. Nur technische Caches für Downloads die er sowieso macht, wenn der Benutzer nach seiner Position fragt.
Was bedeutet das jetzt für den Benutzer? Die Daten geben in den Koordinaten nicht wieder, wo er war - sie geben nur wieder, wo die Funkidentifikationen sind, in deren Nähe er ungefähr mal war. Und da es auch Nachbarnetze enthält, ist das wirklich sehr ungefähr. Natürlich lässt sich dadurch ein grobes räumliches Profil des Benutzers ableiten - z.B. habe ich in meinen Daten durchaus sehen können, dass ich in Amsterdam, in Frankfurt und in Berlin war.
Aber z.B. bedeutet es auch im Umkehrschluss, dass nur die ungefähren Regionen drin sind, wenn man dort auch Netzempfang hatte, mit Downloadmöglichkeiten. Ich war in Kopenhagen - dort habe ich auch über das Hotel Netzzugang gehabt, also sind davon Spuren. In Malmö und zum Jahreswechsel in Russland hatte ich keinen Netzzugang - also zwar GSM, aber eben keinen Internetzugang - und daher konnte das iPhone auf diese Lokationsdaten nicht zugreifen und keine Funkidentifikationen mit Positionen runterladen. Daher fehlen diese Daten auch komplett in meinem iPhone und es gibt keine Spuren von Malmö, Ekaterinburg oder Nischni Tagil (ähnliches dürfte gelten wenn man den Flugzeugmodus aktiviert hat oder einfach WLAN und mobile Daten ausschaltet).
Desweiteren dürften die Räume größer werden wenn man in mehr ländliche Regionen kommt - wenige WLANs, also hauptsächlich GSM Zellen und diese mit größerer Sendereichweite und weiter gestreut. Wenn man da eine Zelle mit den Nachbarn speichert, ist das schon ein ziemlich großer Raum, der abgedeckt ist. In Großstädten hingegen dürften die abgedeckte Fläche deutlich kleiner sein, einfach weil WLANs deutlich kleinere Reichweiten haben und von denen dort mehr da sind. Und Funkzellen dort auch in der Regel kleiner sind (allein schon weil eine Zelle nur endlich viele User abdecken kann, aber die Dichte der User in Städten größer ist).
Interessant ist das ganze besonders für Programmierer: denkt ihr bei eurer Programmierung darüber nach, was sich z.B. aus gecachten Daten ableiten lässt? Nehmt mal als Überlegungsgrundlage mal an, jemand hat Zugriff auf euren DNS Cache - den ja jedes System intern hat, einfach um DNS-Abfragen zu reduzieren. Was könnte diese eigentlich technisch doch völlig harmlose Information über euch als Bild produzieren? Es sind diese kleinen Fallen über die man als Programmierer gerne stolpert. Eigentlich ist es ja harmlos - Hilfsdaten, die man aus dem Netz holt sind der Anfang. Wegwerfen nach der Nutzung - naja, wenn sie wieder gebraucht werden, dann macht es Sinn die häufigsten parat zu haben, oder? Und genau dann rennt man in solche Probleme wie sie Apple derzeit hat.
Die Diskussion, warum euer Browsercache Pornobildchen enthält (weil ihr z.B. mit Outlook eure Mails lest und eine Spammail geöffnet habt und bei euch Bilderanzeige aktiviert war - keine abwegige Situation!), wenn eure Frau die dort findet, könnte schon recht interessant werden. Den Daten sieht man eben nicht mehr an, warum sie dort gelandet sind, wo sie gelandet sind.
Wie im Titel gesagt: ich beziehe mich hier auf die Antwort von Apple und habe das nur mit meinen eigenen Daten gegengeprüft. Meine eigenen Daten passen zu den Informationen aus der Stellungnahme von Apple und diese Stellungnahme selber ist auch schlüssig - sowohl die Inhalte als auch die Angabe der Nutzung passen durchaus. Ich sehe also keinen Grund, warum ich der Stellungnahme misstrauen sollte.
Die Antwort von Apple, dass das iPhone kein Bewegungsprofil des Benutzers festhält, ist also korrekt - es speichert eben nur Informationen für eine Positionsbestimmung als Alternative zum GPS. Gleichzeitig ist das aber zumindestens ein Profil des Aufenthaltes in Großräumen. Kritik ist also durchaus angebracht. Sollte aber meiner Meinung nach intelligenter als "Apple speichert die Positionen des Benutzers im letzten Jahr" sein, denn das ist schlicht falsch.
Aber wie Apple in der Einleitung der Antwort ja sagt: das sind technische Zusammenhänge, die eben komplizierter sind als einfach nur "speichert Apple ein Bewegungsprofil Ja/Nein". Und unsere Presse hat mit Fragen, auf die eine Antwort mehr als zwei Sätze enthält, massive Probleme. "Apple speichert Daten aus denen sich die Anwesenheit in Großräumen ableiten lässt" klingt auch nicht so toll und griffig als Überschrift.
Leider kann aber gerade diese sehr unpräzise Berichterstattung dazu führen, dass die Probleme erst entstehen - wenn ich weiß, dass die Daten nur Regionen abdecken in denen ich mal war, aber nicht präzise Punkte meines Aufenthalts, ist die Erklärung, warum meine Daten aus Frankfurt auch das Rotlichtviertel umfassen (ist halt Nähe Bahnhof) deutlich leichter als wenn ich davon ausgehen muss, das sind alles Orte wo ich war.
Apple muss (und wird ja auch nach eigener Erklärung) da nachbessern - denn ein Jahr an Daten zu cachen ist Quatsch. Auch die Daten zu sichern ist Unsinn, die können einfach neu runtergeladen werden wenn sie fehlen. Genauso braucht man die Daten nicht speichern, wenn alle Lokationsdienste global abgeschaltet sind. Vielleicht wäre es auch generell interessant da einen Schalter "Pseudo-GPS Ja/Nein" oder so anzulegen, mit dem diese Art der Positionsermittlung abgeschaltet werden kann - dann muss der Benutzer eben warten, bis die GPS Satelliten eingebucht sind. Genauso wie man meiner Meinung nach die anonymisierte Datensammlung zu WLAN und Funktürmen abschaltbar machen sollte.
Meines Erachtens sollte kein Cache ohne eine Kontrollfunktion für diesen Cache (so wie man den Browsercache ja auch leeren kann) existieren. Denn eines muss klar sein: durch die generelle Notwendigkeit der Verknüpfung von Zugriffszeitpunkt und geladenen Daten (denn nur so kann ein Cache mit zeitlich begrenzter Zwischenspeicherung funktionieren) liefert jede Art von Cache eine Art von Benutzerprofil. Und das sollte vom Benutzer zumindest rudimentär (im Sinne von Löschen) kontrollierbar sein. Caches grundsätzlich mit einer Leeren-Funktion und einem UI dafür anzulegen sollte genauso eine best-practice werden wie die verschlüsselte Speicherung von Passwörtern auf Servern (hallo Sony!).
Piroggen (vegetarisch, und so garnicht russisch)
Oy, das war eine richtig komplizierte Nummer. Nicht wegen der Sachen die reinkommen, das war eher banal. Auch nicht die Füllung zu bereiten, auch simpel. Aber dann diese Piroggen formen und falten und dabei möglichst auch einiges an Gemüse reinzukriegen in die kleinen Biester, da war dann doch schon höhere manuelle Fertigkeit gefordert. Naja, ab und zu muss man auch mal in der Küche basteln. Übrigens sind das keine Hefeteig-Piroggen - das ist eher so eine Art Mürbeteig. Der Grund war, dass ich fand das passt besser zu der Füllung. Die war nämlich eher an einem Gemüsekuchen orientiert.
Was rein kommt:
- 225g Mehl
- 145g Margarine
- 1/2 TL Salz
- 2 Eier
- 3 kleine Paprika
- eine Handvoll schwarze Oliven
- 1 Gemüsezwiebel
- ein kleines Bund Lauchzwiebeln
- ein paar Knoblauchzehen (nach Geschmack)
- Basilikum und Oregano, Pfeffer, Salz
- noch ein Ei für die Entmontage
Die Zubereitung dann selber (also die Einzelteile):
- Mehl, Eier, Salz und Margarine zu einem Teig kneten
- Teig für eine Stunde im Kühlschrank verschwinden lassen
- Zwiebeln und Knoblauch kleinhacken
- Paprik kleinschnipseln
- Oliven kleinschnipseln
- Ofen auf 200C vorheizen
- Zwiebeln und Knoblauch in der Pfanne anbraten
- Paprika mit in die Pfanne, 5 Minuten schmoren
- Oliven mit in die Pfanne, würzen, zusammen nochmal ein paar Minuten schmoren
- Pfanne zudeckeln und nach hinten schieben (gart dann noch etwas nach)
- das dritte Ei trennen nach Eiweiß und Eigelb
- den Teig aus dem Kühlschrank nehmen und ausrollen
- mit einer großen Tasse Runde Stücke stechen (meine hatten so 10cm Durchmesser)
- die Ränder mit Eiweiß bepinseln (als Kleber)
- Gemüse in die Mitte des Teigkreises geben und halb zusammenfalten, Ränder zusammendrücken
- das ganze treiben bis Teig und/oder Gemüse alle ist
- die gefalteten Piroggen dann mit Eigelb bestreichen von oben
- und das ganze für 20 Minuten bei 200C backen
Das Gefalte war schon ziemlich kompliziert. Der Teig muss recht dünn sein, sonst hat man hinterher mehr Teig als Inhalt, das ist dann ja auch eher doof, also ist der Teig halt empfindlich und das Falten und klappen komplizierter. Und der Teig soll zu bleiben - meine sind aufgegangen, ich hab die Seiten nicht gut genug verklebt (evtl. mit einer Gabel nachdrücken habe ich als Tip gelesen - leider erst als meine schon im Ofen waren).
Nach Möglichkeit sollte man das Gemüse früh zubereiten und dann auf den Teig im Kühlschrank warten, dann ist das Gemüse auch nicht mehr so warm - macht das Einwickeln einfacher. Und die Füllung kann man natürlich ganz frei Laune ändern - z.B. eine mit Hackfleisch ist klasse, Kohl ist klassisch, aber auch andere Gemüse gehen - muss alles nur klein genug geschnippelt werden, damit man falten kann.
Quiche Ratatuille
Tja, ich hatte von gestern noch eine ordentliche Portion Ratatuille über - und ich wollte nicht wieder Nudeln essen (und Reis ist keiner da). Also habe ich mal geguckt was man so für eine Quiche braucht und festgestellt, das ist mehr oder weniger alles da. Also einfach die wenigen fehlenden Sachen vom Bahnhof mitgebracht und losgelegt. Das ging rein in die Quiche:
- 250g Mehl
- 110g Margarine
- 1 TL Salz
- 50ml Wasser
- 1+3 Eier (eines für den Teig und 3 für den Deckel)
- 125ml Milch
- 200g Schmand
- Gewürze
- Ratatuille (hatte ich ja noch von gestern, aber ehrlich - geht eigentlich mit jeder Gemüsepfanne)
Die Zubereitung ist auch recht simpel:
- 1 Ei, das Mehl, Wasser, Salz, Margarine zusammen mischen und zu einem Teig kneten (so ein Dreimix ist echt praktisch)
- Teig als Klumpen in Folie wickeln und in Kühlschrank für 30 Minuten
- Ofen auf 200 Grad vorheizen
- 3 Eier, Milch, Schmand mixen und würzen (probieren was und wieviel an Gewürzen rein soll)
- wenn Teig aus Kühlschrank kommt, diesen in eine Springform geben und so verteilen (mit der Hand drücken), dass er den Boden und den Rand bedeckt - ca. halb hoch am Rand
- Teig unten im Boden anstechen mit der Gabel und dann ca. 15 Minuten vorbacken
- Kuchen raus und Ratatuille reingeben und verteilen
- Eiermasse drübergießen, so dass das Gemüse gut bedeckt ist und bis zum Rand der Kuchen gefüllt ist. Nicht drübergießen, gibt sonst unter Umständen Schweinkram im Ofen (nicht jede Springform ist dicht).
- 30 - 40 Minuten backen (35 warens bei mir)
Das Ergebnis war erstaunlich gut. Ein Fehler den ich gemacht habe: der Teig war in den Ecken doch etwas dick und das schmeckt dann nicht so ganz toll, einfach weil der Teig selber ja recht banal ist. Aber das kriegt man mit etwas Übung und Fingerspitzengefühl auch hin. Und die Eiermasse kann ich ruhig stärker würzen, das war auch etwas wenig (ok, ich bin ja eher ein Wenigwürzer, für mich wars also ok, aber Juliana würde sicherlich schimpfen). Auf jeden Fall eine geniale Gemüsepfannenzweitverwertung.
Allerdings ein Problem hab ich noch: von gestern hatte ich nur eine Portion Ratatuille über. Jetzt hab ich 3/4 Quiche über ... (ich glaub ich weiß, was ich diese Woche zwischendurch esse)
Krümeltorte
Heute wieder nix gekocht, weil war ja gestern in Hamburg, aber dafür einen Kuchen gebacken. Ich mag Krümeltorte, unter anderem weil sie so trivial herzustellen ist. Das kommt rein (für eine 26cm Springform):
- 300g Mehl
- 200g Zucker
- 150g Butter
- 1 Ei
- 1 Pack Vanillezucker
- 1/2 Pack Backpulver
- etwas Zimt
- 250g Aprikosen (also kleine Dose)
- etwas Preiselbeermarmelade (optional)
Die Zubereitung ist dann ziemlich einfach:
- Mehl, Zucker, Vanillezucker, Backpulver, Zimt - alles vermengen.
- Obst abtropfen lassen (den Saft mit Tonic Water und Eiswürfel gibt einen leckeren alkoholfreien Cocktail)
- Ofen auf 180C vorheizen
- die Butter heiss machen
- das Ei aufschlagen
- Butter und Ei in das Mehl+Zucker-Gemisch
- mit Dreimix und Knethaken durchkneten bis Krümeliger Teig entsteht (geht auch mit einer Gabel und von Hand, aber mit Dreimix ist es bequemer)
- 2/3 des Teiges in der eingefetteten Springform verteilen und am Boden andrücken, evtl. auch einen kleinen Rand machen
- mit Gabel ein paarmal in den Boden stechen
- Preiselbeermarmelade auf Boden des Teiges verstreichen
- Aprikosen drüber verteilen
- restlichen Krümelteig gleichmäßig oben drüber verteilen
- das ganze in den Ofen bei 180C für 45 Minuten
- rausnehmen und abkühlen lassen (nicht so gierig sein, auch wenns gut riecht)
Kann man gut Sahne drauf tun, oder auch einfach so essen oder Puderzucker drüber streuen (wobei es so schon einen ziemlich süßen Kuchen ergibt, also nicht übertreiben). Tipp: den Randbereich nicht zu dick lassen, sonst wird das hinterher ein recht harter Teil der sich schlecht schneiden lässt. Und natürlich kann man das Obst nahezu frei varieren, auch Apfelmuss statt Obst rein geht klasse, genauso wie natürlich Kirschen oder Pflaumenmuss (wird aber recht fest wahrscheinlich). Das schöne dran, fast alles kann man auf Vorrat im Haus haben und die Eier kann man ja vielleicht vom Nachbarn kriegen (ich hab halt nicht damit gerechnet, backen zu wollen, als ich Samstag noch schnell einkaufen war).
Gefüllte Paprika im Tomatenbett
Klingt gut, oder? Schmeckt auch gut. War diesmal auch nicht so fürchterlich aufwändig, das Essen, allerdings muss man schon mit mehreren Töpfen und Pfannen (ok, ein Topf, eine Pfanne) rumwerkeln. In Meinem Fall war der Topf eine Kasserole, weil die Paprika wirklich riesig waren. Was ich reingetan habe:
- 2 große Paprika
- 250g gemischtes Hack
- 100g Schafskäse
- eine Handvoll Oliven (schwarz, natur, ohne Kern)
- 6 Tomaten
- Tomatenmark
- ein halbes Bund Basilikum
- 1 Zwiebel
- 1 1/2 Knoblauchzehen
Die Zubereitung ist recht simpel, man sollte einen großen Topf oder eine Kasserole bereithalten, in der man die Paprika bequem aufstellen kann. Ansonsten ging es so:
- Zwiebeln kleinhacken, Knoblauch kleinhacken, beides auf einen Teller
- Oliven kleinhacken, auf einen Teller
- Tomaten kleinschnippeln, auf einen Teller
- Basilikum kleinhacken, auf einen Teller
- Ofen schon mal auf 200° einstellen, damit er vorheizen kann
- Pfanne mit Olivenöl heiß machen>
- Zwiebeln und Knoblauch in der Pfanne glasig braten
- Gehacktes hinzupacken, krümelig braten (so wie für Bolognese - einfach mit dem Pfannenwender immer wieder die Klumpen teilen)
- wenn Gehacktes schön gebraten und mit dem Zwiebeln und Knoblauch gemischt ist die Oliven rein
- Temperatur runter und etwas von den Tomaten rein (Menge so 1-2 Tomaten), etwas Tomatenmark rein, mischen, Deckel drauf, 5 Minuten kochen lassen, abschmecken mit Gewürzen (bei mir Oregano, Thymian, Pfeffer, Salz)
- Deckel runter, Temperatur etwas hoch, Schafskäse rein und gut untermischen, schmelzen lassen
- Wenn Schafskäse gut unter das Hack gemischt, die Platte ausstellen
- zwei Paprika die Köpfe abschneiden, Kerngehäuse raus, die "Rippen" raus
- die Paprika mit der Hackmasse füllen, die Köpfe (vorher dort auch Kerngehäuse und Stiel entfernen, bleibt im Prinzip nur ein Ring über) zudecken
- in den großen Topf die restlichen Tomaten und das Basilikum verteilen, die Paprika da reinsetzen
- Tipp: wenn die nicht stehen bleiben wollen, mit Rouladennadeln unten rein ein Dreibeinstativ für die Paprika machen, dann hält das
- das ganze in den vorgeheizten Ofen und 20 Minuten schmoren
- nach den 20 Minuten rausnehmen und auf Teller, die Tomaten und Basilikum mit einem Dreimix pürieren
Bei mir wie üblich mit Brot, aber da gehen ganz wunderbar Nudeln oder Reis dazu. Das ergibt übrigens nicht so einen puddingweichen Paprika, der sollte ruhig noch Biss haben. Und die Füllung ist nicht der übliche Betonklotz, sondern eher vergleichbar mit einer dicken Bolognese. Bei mir gabs dann noch ein Bier dazu, einfach weil das Wetter draußen ganz laut "Bier" gesagt hat mit der ganzen Sonne heute.
Threads sind ein Hammer, aber nicht jedes Problem ist ein Nagel
Wer mal herzhaft lachen will: Node JS and Server side Java Script. Da meckert jemand aus dem Java-Lager darüber, das Node.JS ja nun wirklich nicht ernstzunehmen sei und produziert doch selber gleich das beste Beispiel, warum sowas wie Node.JS (und viele andere Alternativen für Serverprogrammierung) existieren - denn der Java Code wird mit jedem Schritt länger und länger. Und selbst nach mehreren Iterationen für ein in Node.JS (oder z.B. mit gevent in Python) ziemlich simpel zu realisierendes Beispiel werden in den ersten Kommentaren gleich ein paar Fehler und Lücken im Java Code angesprochen.
Versteht mich nicht falsch - Java hat eine Menge von guten Lösungen für Programmierung mit multiplen Threads in der Standard-Library. Warscheinlich von allen derzeit verfügbaren Sprachen die größte Auswahl an Möglichkeiten mit multiplen Threads zu programmieren. Aber wie so oft im Leben: Threads sind nicht die Antwort auf alle Fragen der Parallelisierung. Besonders wenn es in die Richtung von hoher Request-Last geht, ist die Einschätzung in den Kommentaren das 20K Threads schon sehr hoch sind lächerlich - erzählt das mal den Programmierern von Eve Online, in der jedes Schiff in derem virtuellen Universum als Microthread modelliert wird.
Java ist als Plattform sehr interessant, eben weil es viele Low-Level-Libraries mitliefert mit denen man sehr interessante Sachen machen kann - und die hilfreich sind um vernünftige Highlevel-Konstrukte darauf aufzubauen. Zum Beispiel im Zusammenspiel mit Sprachen wie Clojure oder Scala wird dem Threadmonster einiges an Schrecken genommen. Aber manchmal ist die Antwort eben nicht der Thread, sondern asynchroner IO (sowohl bei Festplattenzugriffen und Netzwerkzugriffen) und die intensive Nutzung von Coroutinen oder Continuations.
Auch das Unverständnis der Java-Programmierer auf den Ansatz das Multi-Core Problem einfach mit mehreren parallelen Prozessen und Message-Passing zwischen diesen zu lösen ist in 2011 ziemlich seltsam - denn schließlich waren 2009 und 2010 die Revival-Jahre für Erlang (nicht vergessen, die Sprache existiert schon sehr viel länger) und gerade die zentrale Idee von Erlang ist ja das Netz- und CPU-übergreifende Message-Passing als Standard zu setzen um eine sehr einfache Parallelisierbarkeit und Skalierbarkeit zu bekommen.
Java-Programmierer erinnern mich immer wieder an die Cobol-Programmierer meiner Anfangszeit, die in jeder Sprache und jeder Programmierweise ganz gezielt die Sachen rauspickten und kritisierten, die in Cobol eben anders (und manchmal sogar vielleicht etwas einfacher) gelöst waren - aber dann gnadenlos auf die Schnauze fielen wenn sie damit reale Probleme ausserhalb der Cobol-Komfortzone lösen mussten.
Das Beste von Java ist die JVM und damit eine Plattform die gerade die Multiparadigmen und -sprachen Ansätze möglich machen mit denen man dann für Probleme die Werkzeuge einsetzen kann, die ihnen angemessen sind. Und selbst dann ist manchmal die Antwort trotzdem Node.JS oder ein anderer kleiner, schlanker, asynchroner Server. Denn selbst mit einer großen Sammlung verschiedenster Hämmer wird man sich für die Schraube trotzdem einen Schraubendreher holen.
Minestrone für die ganze Familie
Tja, ich hab mich einfach geweigert weniger als jeweils ein ganzes Gemüse zu nehmen, und schwupp da war es dann doch eine ganze Menge. Also besser einen großen Topf bereithalten! Schmeckt aber verdammt gut, die Minestrone. Was ich reingepackt habe:
- 1 Paprika
- 1 Zucchini
- 3 Tomaten
- 3 Stangen Sellerie
- 1 große Möhre
- 3 kleine Kartoffeln
- 100g durchwachsener Speck
- Parmesan mit Rinde
- 150g grüne Bohnen
- 2 violette Zwiebeln
- 2 Knoblauchzehen
- 1/2 Bund Basilikum (frisch)
- 1 Esslöffel Tomatenmark
- eine Handvoll Oliven (schwarz, entkernt, natur)
- 1l Gemüsebrühe
- 50g Butter
- Olivenöl
- ca. 50g Spaghetti (kleingebrochen)
Die Zubereitung ist echt Arbeit und in der ersten Phase gibts nicht viel Ruhe. Und am besten die Gruppierung der Gemüse wie unten angegeben, denn so kommen die nacheinander in den Topf - es wird nämlich erstmal alles vorgebraten. Aber ansonsten ist es eigentlich ganz einfach:
- Speck würfeln und auf einen Teller
- Zwiebeln und Knoblauch würfeln und in ein Schälchen
- Kartoffeln, Sellerie, Möhren würfeln und in eine Schüssel
- Bohnen kleinschnippeln und in eine Schüssel
- Paprika und Zucchini würfeln und in eine Schüssel
- Topf aufheizen mit Olivenöl und der Butter
- Speck 2 Minuten darin anbraten (fleißig rühren!)
- Zwiebeln mit Knoblauch rein in den Topf und 2 Minuten braten (fleißig rühren!)
- Kartoffeln, Sellerie und Möhren in den Topf und 2 Minuten braten (fleißig rühren!)
- Bohnen in den Topf und 2 Minuten braten (fleißig rühren!)
- Zucchini und Paprika in den Topf und 2 Minuten braten (fleißig rühren! wenn der Arm sich anfühlt als ob er abfällt: das ist normal, weiterrühren!)
- Deckel drauf, Temperatur runter und 15 Minuten das Gemüse garen lassen, zwischendurch immer mal wieder umrühren
- Arm kann leider nicht ausruhen, denn jetzt werden die Tomaten gewürfelt und wenn gewünscht die Oliven kleingeschnitten (ich lass sie immer ganz bei Suppen).
- Bevor die 15 Minuten um sind die Oliven reinwerfen (so nach halber Zeit)
- Basilikum kleinschneiden
- wenn die 15 Minuten um sind die Gemüsebrühe in den Topf, umrühren
- Tomatenmark, kleingehackte Tomaten und Basilikum rein, abschmecken mit Pfeffer und Salz
- Parmesanrinde reinwerfen (ich bind die mit Küchengarn an, damit sie leicht wieder rauszufischen ist)
- aufkochen lassen, Temperatur runter und eine Stunde leise köcheln lassen (bei meinem Monstertopf reicht da ein halber Punkt am E-Herd)
- Parmesanrinde rausfischen und wegwerfen
- Spaghetti rein und 10 Minuten kochen lassen
Gegessen wird das ganze dann bei mir einfach mit Brot dazu. Man kann auch Sauerrahm in die Suppe tun, oder ganz italienisch Parmesan drüberreiben. Dazu ein Glas Wein.
Kernschmelze in Japan immer wahrscheinlicher
BBC News - Japan earthquake: Explosion at Fukushima nuclear plant. Das wars dann mit den Hoffnungen, dass es vielleicht doch noch glimpflich abgehen könnte. Und immer noch rennen Leute rum die behaupten, sowas könne natürlich nie bei uns passieren, weil hier ist ja alles viel sicherer. Komischerweise erinnere ich mich durchaus an Störfälle in Kühlsystemen, die erst lange nach Auftreten zugegeben wurden - und der Ausfall des Kühlsystems ist in Japan das Problem, der Tsunami und das Erdbeben waren dafür nur der Auslöser.
Was ich mich allerdings frage, wie wird die Katastrophe in Japan unsere Wahrnehmung der Atomenergie verändern? Bei Tchernobyl und vorher Harrisburg war Geheimhaltung vergleichsweise einfach - aber Japan ist ein Land in dem alle Bewohner hochtechnologisiert sind. Der witz über mindestens 5 Kameras pro Japaner ist vielleicht übertrieben, aber die Anzahl dürfte hoch genug sein um eine Geheimhaltung mehr oder weniger ad absurdum zu führen. Und die hohe Integration in das Internet führt zu Veröffentlichungskanälen die bei Harrisburg noch undenkbar und auch bei Tchernobyl nur für Utopisten vorstellbar waren.
Sicherlich werden jetzt wieder Energiekonzerne und Regierung Schulterschluß zeigen und davon reden, dass ja Erdbeben und Tsunamis in Europa kein Problem darstellen. Und damit komplett am eigentlichen Problem vorbeiargumentieren, denn wie oben gesagt, Kühlsysteme können nicht nur wegen Erdbeben und Tsunamis ausfallen. Von daher ist ein solches Problem durchaus auch bei uns denkbar, wenn das Kühlsystem auf andere Weise ausfällt. Und warum sollten wir unseren regelmäßig beim Lügen erwischten Energiekonzernen (und der Regierung) mehr glauben als dem - genauso fürs Lügen bekannten - japanischen Energiekonzern?
Es wird schwer werden für Politiker bei sowas noch glaubwürdig zu lügen. Und vielleicht, ganz vielleicht, wachen in Europa die Menschen auf von ihren Wunschvorstellungen, die Atomenergie sei so sicher.
Seltsame Phänomene in iPhoto
Ich benutze das ja nur als Bilderspeicher zur Erstellung von Büchern und zum Sync auf mein iPhone und iPad, daher ist mein iPhoto eher unwichtig für die Fotoverwaltung - aber im Moment habe ich ein Phänomen, das mich ziemlich zur Verzweiflung treibt: ich habe eine CD von ganz normalen Jpegs importiert. Dann habe ich ein Album angelegt und die Bilder reingepackt. Und jetzt behauptet iTunes beim Sync immer, dieses Album wäre leer. Der Import ist auch als eigenständiges Ereignis im iPhoto. Auch für dieses Ereignis behauptet iTunes im Sync Panel es wäre leer (0 Bilder). Dementsprechend werden bei "Alle Bilder synchronisieren" auch brav alle Bilder übertragen - dabei dann auch diese Bilder. Nur die Alben und Ereignisse, die nur aus diesen Bildern bestehen, sind nicht da. Weil iTunes glaubt die wären leer.
Was soll der Mist? Irgendwer da draußen eine Idee? Googlen hat nichts sinnvolles gebracht und diverse Sachen (löschen und neu anlegen von Alben, verschiedene Arten die Alben anzulegen etc.) hab ich auch schon probiert. Ziemlich seltsam das ganze. iLife ist ja ganz nett solange es funktioniert, aber wenn Probleme auftreten ist das ganze Zeug nahezu komplett nicht diagnostizierbar. Was mir ziemlich wurscht wäre, wenn ich es nicht dummerweise für den Sync mit meinem iPhone und iPad bräuchte ...
Ein Grund warum ich doch lieber bei Lightroom bleibe, da weiss ich wo die Bilder liegen und die Datenbanken sind normales sqlite, da kann ich notfalls auch Hand anlegen. Und wenn sie im Eimer sind, kann ich alles aus Bildern und Sidecar-Files rekonstruieren. Aperture streiche ich auch gleich mal lieber von der Liste, dessen Bilderverwaltung klingt mir allzusehr nach der von iPhoto ...
Schon peinlich, wenn ein Tool von Adobe verlässlicher und vertrauenserweckender ist, als das was Apple abliefert. Ganz besonders da iLife ja angeblich Narrensicher ist - bei Problemen und der notwendigen Fehlerbehebung ist das dann eher ein Fall von "no user-serviceable parts inside".
Apple kann einfach keine Verschlüsselung
Ich bin mal wieder drauf reingefallen und dachte, schalte doch die Verschlüsselung der iPad Backups an. Schön blöd. Ich hätte nach den Debakeln mit dem verschlüsselten Homeverzeichnis gewarnt sein müssen. Aber natürlich hab ichs doch mal wieder gemacht. Hat alles geklappt, bis jetzt heute der Backup Mist gemacht hat - er hing im ersten Step und ging einfach nicht weiter. Möglicherweise korrupte Backupfiles auf dem Mac. Ok, der Standard dabei ist einfach das Backup in den Einstellungen unter Geräte wegzuwerfen und ein neues zu machen. Nur geht das nicht, wenn man die Verschlüsselung an hat - er meckert, natürlich erst nachdem alle Steps durchlaufen sind, dass er keine Backups machen kann, weil keine Session mit dem iPad gestartet werden kann. Häh?
Und ich kann natürlich das Kennwort nicht zurücksetzen - er behauptet immer es wäre falsch (auch schon bevor ich das Backup gelöscht habe). Mein Verdacht: das Kennwort wird gegen das Backup getestet und wenn da keines ist, oder dieses defekt ist, kann man natürlich keine erfolgreiche Prüfung machen. Zurücksetzen des Kennwortes geht nicht, neue Backups anlegen geht nicht und dem iTunes einfach das iPad vergessen lassen geht auch nicht. Bevor jemand meint mir erzählen zu müssen ich wüsste das Passwort nicht: iTunes speichert auf Wunsch das Passwort im Schlüsselbund und ja, das Passwort ist das welches ich eingebe. Und ja, das ist garantiert das richtige - die Geräte-Kennung wird als Accountname an dem Passwort gespeichert. Und nein, genau dieses Passwort wird natürlich nicht akzeptiert ...
Lösung laut Apple? Komplett das iPad zurücksetzen und neu einrichten. Ganz tolle, ganz großartige Idee. Klar, viele Daten die ich habe liegen auf meinem Mac, aber im Laufe der Zeit sind eben auch Daten so dazugekommen, die eben nicht auf dem Mac liegen. Und die würde man schon gerne irgendwie übernehmen.
Wohlgemerkt, normale Sicherungen und Restores tuns - und bei unverschlüsseltem Backup kann man auch bei kaputten Backups einfach ein neues machen lassen. Nur eben nicht wenn man die Verschlüsselung an hat.
Ehrlich gesagt lässt mich diese erneute Erfahrung mit der Unfähigkeit Apples vernünftig stabil laufende Verschlüsselungslösungen zu bauen doch eher skeptisch auf deren full-disk Encryption im kommenden 10.7 schauen ...
Update: nach ein paar Experimenten (testweise an anderem Rechner angehängt, Backup des iPad aus der TimeMachine Sicherung rekonstruiert und damit versucht) vermute ich, das Kennwort wird auch auf dem Gerät vermerkt - und dieser Vermerk scheint korrumpierbar zu sein. Denn auch an einem anderen Gerät wird das definitiv korrekte Kennwort als falsch abgewiesen und auch ein anderes Gerät will zwingend verschlüsseltes Backup machen (macht ja auch Sinn, sonst käme man ja trivial an die Daten über ein Backup auf ein anderes Gerät dran). Das Problem ist auch nicht, dass es sich absichert gegen Manipulation - das Problem ist, dass dieser Mist kaputt gehen kann und zwar ohne äußere Anzeichen - die Backups haben bisher immer problemlos funktioneirt, sie sind nur jetzt plötzlich nichts mehr wert (genauso wie die Daten auf dem Gerät).
Pferderouladen mit Ratatouille
Tja, das war das heutige Kochexperiment. Teilerfolg, denn ich habe mich in Mengen völlig verkalkuliert (kein Problem, gibt ja einen Gefrierschrank und leckere Rationen für einen anderen Tag sind ja auch was feines) und das Ratatouille ist mir irgendwie doch arg verkocht heute. Aber das kommt davon wenn man gleich mit mehreren Pötten hantieren will, das klappt beim ersten Mal noch nicht so richtig. Aber die Rouladen waren klasse - allerdings gigantisch. Nur zu empfehlen wenn man großen Hunger hat! Ich hab gleich etwas auf Vorrat gekocht (einen Bräter für nur eine Roulade zu benutzen wäre Quatsch), gibt ca. 3 Gerichte:
- 3 Rouladen vom Pferd (vorsicht, die Dinger sind eher XXL Format, eine reicht da locker pro Person!)
- 300g gemischtes Hack
- entkernte schwarze Oliven "natur" (so 10-15 Stück, kommt halt auf die Größe an - und den Geschmack)
- 1 Zwiebel
- 3 Knoblauchzehen
- Senf (ich hatte einen schönen scharfen Feigensenf, aber einfacher mittelscharfer tuts wohl auch), 3 Esslöffel ungefähr
- eine Möhre
- halbe Sellerieknolle
- ein Loorbeerblatt
- 2 Nelken
- etwas Pfefferkörner
- 100ml Rotwein
- 200ml Brühe (wahrscheinlich hätte es mehr sein dürfen, Soße war etwas dürftig)
- 3 Paprika
- eine Aubergine
- eine Zuchini
- 1-2 Tomaten
- Basilikum, Oregano, Thymian, oder was sonst noch so an Gewürzen gefällt
- Pfeffer und Salz wie üblich
- Olivenöl
Bei der Zubereitung fängt man am besten mit den Rouladen und deren Füllung an - denn das dauert eh am längsten und die Rouladen schmoren dann im Ofen, da kann man dann in Ruhe das Ratatouille vorbereiten.
Übrigens empfiehlt sich für das Gericht der Besitz eines Bräters - das sind diese gigantischen und sauschweren Töpfe in ovaler Form, die man von Muttern vom Braten her kennt. Teuer, schwer, lästig, aber bei der Größe der Pferderouladen denkt gar nicht erst über einen normalen Topf nach, nehmt gleich einen Bräter.
- Zwiebel und Knoblauch kleinschnippeln
- Oliven kleinschnippeln
- weil wir dabei sind Auberginen auch schon mal kleinschnippeln und in Salzwasser einlegen (manchmal sind die Bitter, die brauchen also ein Bad vor der Nutzung)
- Hack, Zwiebeln, Knoblauch und Oliven ordentlich vermengen. Da kann man auch ruhig schon Gewürz (Thymian, Oregano) rein packen. Im Prinzip die Verteilung: Fleisch würzig, Gemüse eher milder, also hier die etwas kräftigeren Sachen.
- Rouladen glatt ausbreiten (und wundern worauf man das hinkriegt - die Teile sind gigantisch!)
- jede Roulade mit einen Esslöffel Senf bestreichen
- dann Füllung drauf verteilen
- Rouladen aufrollen und mit Rouladenringen oder Rouladennadeln fixieren (Ringe gingen bei mir einfacher - zwei pro Roulade, wegen der Größe)
- Sellerie, Möhre (und bei Wunsch ne weitere Zwiebel!) kleinschnippeln
- Backofen schon mal auf 170° einstellen und vorheizen lassen
- Öl im Bräter heiß werden lassen, Rouladen von allen Seiten ein paar Minuten scharf anbraten
- Rouladen raus, auf Teller zwischenlagern, Sellerie und Möhren Schnipsel rein in den Sud vom Rouladen anbraten
- Nelken, Loorbeerblatt und Pfefferkörner rein
- alles schön braten, sollte ruhig am Gemüse Spuren hinterlassen
- mit dem Rotwein ablöschen (also drüberkippen)
- alles wieder aufkochen lassen
- die Brühe hineinkippen
- nochmal alles aufkochen lassen
- Rouladen wieder in den Bräter reinpacken
- die Flüssigkeit sollte nicht zu wenig unten sein, denn einiges kocht noch weg und dann werden die Rouladen trocken, also notfalls mit etwas Wasser (oder wenn man noch hat Brühe) nachfüllen
- kurz aufkochen lassen
- den Bräter mit den Rouladen ab in den Backofen und da lassen wir ihn einfach mal 1.5 - 2 Stunden. Zwischendurch sollte man mal die Rouladen umdrehen (1-2 mal).
Da jetzt die Rouladen schmoren - und das dauert! - ist jetzt eine gute Zeit etwas aufzuräumen in der Küche und all die Teller und Schüsseln sauber zu machen, die man zwischendurch verbraucht hat weil man panikartig merkte das Ablagefläche für die Greifzange fehlte, oder das Gemüse ja auch irgendwo drin auf seine Bestimmung warten musste oder ähnliches. Kurz Luft holen und entspannen, Ratatouille ist eigentlich ganz einfach. So ca. 30 Minuten vor Ende der Rouladen dann mal mit dem Rest anfangen:
- Paprika und Zucchini alles in kleine Stücke schnippeln, Auberginen extra halten, die brauchen länger (optimal würde man alle drei Gemüse extra halten)
- bei Wunsch auch eine Zwiebel und etwas Knoblauch rein - kann man einfach bei den Rouladen oben mitmachen und etwas davon abzweigen für das Ratatuille)
- Tomaten auch schon mal kleinschnippeln (wer will kann die vorher in heißen Wasser etwas vorkochen und dann pellen - ich hab mit Tomatenpelle keine Probleme und spar mir das)
- Öl in der Pfanne heißmachen
- Auberginen rein und vorbraten (hier kämen auch die Zwiebeln und der Knoblach mit rein)
- wenn die Auberginen anfangen glasig zu werden die Zucchini rein
- wenn die Zucchini anfangen glasig zu werden die Paprika und Tomaten rein
- alles ordentlich anbraten und auch schon mal etwas würzen. Die Tomaten sollen ruhig zerfallen, aber das andere Gemüse sollte in seiner Form noch erkennbar sein.
- Deckel auf die Pfanne (eure Pfanne hat doch einen Deckel, oder? Wenn nicht wirds schwierig!) und 5 Minuten garen lassen (das war mein Fehler, zu lange, wurde zu weich - die 5 Minuten sind so eine Schätzung von mir, ich hatte mehr)
Wenn das Ratatouille fertig ist, sollten auch die Rouladen fertig sein. Also die Rouladen raus aus dem Ofen und auf die Teller. Wer Soße will: einfach das Gemüse-Bratensaft-Gemisch aus dem Bräter durch ein Sieb filtern und dann etwas Wasser zum verdünnen und mit Soßenbinder Soße machen. Ist derzeit noch theoretisch bei mir, da nicht genug unten drin war um sich die Mühe zu machen, also hab ich nur etwas vom Bratenrückstand auf die Roulade getan.
Gegessen hab ich das ganze wieder wie üblich mit Brot. Dazu - da ich ihn ja eh schon offen hatte - ein Glas Wein. War sehr lecker (ok, im Restaurant hätte ich das doch arg weiche Ratatuille kommentiert, aber bei eigenen Experimenten bin ich dann doch recht tolerant mir gegenüber), nur schlichtweg eine viel zu große Portion. Und die Zeit investiert um das ganze zu produzieren stand in keinem Verhältnis zur Zeit in der ich die Portion verputzt habe. Aber hey, das Wetter war heute eh nicht so toll, da kann man auch mal solche Kochexkursionen machen.
Paprika-Bohnen-Suppe mit Hack
Und mal wieder eine lustige Folge aus "Kochen mit RFC1437". Heute eine richtige Männersuppe. Ok, für Männer die nicht so wild auf scharf sind. Männchensuppe dann eben.
- zwei Paprika
- eine Zwiebel (nicht zu klein)
- 4 Knoblauchzehen
- 2 milde Peperoni
- 300g Hack
- 400g Kidneybohnen (aus der Dose)
- 500ml Gemüsebrühe (bei mir wars nur 450, die restlichen 50 waren im vorigen Kochanfall)
- Tomatenmark
- Basilikum
- Koriander
- Pfeffer und Salz
- Zwiebeln kleinhacken oder würfeln (ich würfel, naja, so ähnlich wie Würfel - klein eben)
- Knoblauch klein würfeln
- Paprika klein würfeln
- Peperoni klein würfeln und sich fragen wann man sich eine Küchenmaschine kauft
- Pfanne heiß, Olivenöl rein
- Hack krümelig braten (einfach rein mit dem Hack und mit dem Pfannenwender immer wieder die Klumpen teilen bis es schöne kleine Krümel angebratenes Hack sind) - nicht ganz zuende Braten, das wird ja noch in der Suppe gekocht
- wenn Hack fertig, dann raus in den Topf damit
- Zwiebeln und Knoblauch rein in die Pfanne und glasig werden lassen
- Paprika und Peperoni rein in die Pfanne und ein paar Minuten braten zusammen mit den Zwiebeln
- das ganze Zeug raus aus der Pfanne und rein in den Topf
- halber Liter Gemüsebrühe in den Topf
- die Bohnen in den Topf
- Basilikum und Koriander in die Suppe - bei Basilikum bin ich recht großzügig
- aufkochen lassen, danach 30 Minuten köcheln lassen (also einfach nicht so großes Blubbern im Topf - bei meinem Herd reicht ein halber Punkt bei vollem Topf dafür aus), zwischendurch mal umrühren
- abschmecken und mit Pfeffer und Salz ergänzen
Das ganze schmeckt dann so ein bisschen wie ein mildes, leicht süßes Chili con Carne. Ich vermute mal mit Chiligewürz und scharfen Peperoni ist das ganze auch eine brauchbare scharfe Variante. Und lässt sich sicherlich bei den Gemüsen fröhlich variieren. Das ganze ergibt dann so ungefähr 4 normale Suppenteller.
Kochen mit rfc1437 - Schweinegeschnetzeltes Mediterran
RFC1437 on the Road. Wer sich über die ständigen Fotos mit Essen in der Sidebar in der letzten Zeit wundert - das sind häufig Sachen die ich selber gekocht habe. Da ich eigentlich nicht kochen kann, ist das schon durchaus eine kleine Sensation für mich, wenn das dann auch schmeckt!
Heute: Schweinegeschnetzeltes Mediterran
- Schweinefleisch (in 2cm Streifen schnippeln), Menge je nach Hunger
- eine Paprika (war ne große, sonst nimm zwei)
- 400g Pilze
- 50ml Gemüsefond (für die Soße später)
- 250ml Sahne (war zu viel, nächstes Mal nehm ich nur 200ml)
- zwei Knoblauchzehen (ich mach das Herz raus, stinkt weniger, schmeckt genauso)
- Oregano und edelsüßen Paprika (ich pack das vor dem Braten schonmal an das Fleisch, wird irgendwie würziger dann)
- Pfeffer, Salz (naja, ist halt immer dabei)
- Fleisch in Streifen schneiden, Paprika würfeln, Knoblauch kleinhacken
- Fleisch schon mal vorwürzen
- Pfanne heiß mit Olivenöl
- Fleisch rein und anbraten, so dass es eine nette Kruste bekommt (nicht zu lange, sonst wirds nachher zu trocken, wird ja noch in der Soße nachgegart) - bei dünnen Streifen scheint 2 Minuten genug
- Fleisch raus, Pilze rein und anschwitzen (musste ich erst googlen, heisst einfach so lange braten bis sie schwitzen, also Wasser rauskommt)
- Gemüsebrühe rein, aufkochen lassen
- Sahne rein, aufkochen lassen
- abschmecken der Soße, Oregano nachwürzen, Pfeffer und Salz nach Geschmack
- Fleisch und Paprika rein, 5 Minuten in der Soße kochen lassen
- optional: Essen überkochen lassen (bah, unkooperatives Essen will nicht warten wenn ich gerade nicht hingucke)
Ich esse es einfach mit Brot - das hilft auch wenn wie bei mir viel zu viel Soße entsteht. Und nein, ich glaube das ist jetzt nicht unbedingt kalorienbewusstes Essen. Vermutlich kann man die Soße auch mit was anderem als Sahne machen, aber hey, ich kann nicht kochen, ich muss mich an Rezepte halten! (deswegen wirds auch geblogged, dann kann ich die Sachen die mir schmecken nachkochen ohne lange zu suchen)
Ihr seid Helden!
Danke, Judith Holofernes!
Die BILD -Zeitung ist kein augenzwinkernd zu betrachtendes Trash-Kulturgut und kein harmloses “Guilty Pleasure” für wohlfrisierte Aufstreber, keine witzige soziale Referenz und kein Lifestyle-Zitat. Und schon gar nicht ist die Bild -Zeitung das, als was ihr sie verkaufen wollt: Hassgeliebtes, aber weitestgehend harmloses Inventar eines eigentlich viel schlaueren Deutschlands.
Die Bildzeitung ist ein gefährliches politisches Instrument — nicht nur ein stark vergrößerndes Fernrohr in den Abgrund, sondern ein bösartiges Wesen, das Deutschland nicht beschreibt, sondern macht. Mit einer Agenda.
von Wir sind Helden. Die Werbeaktion der Blöd mit diesen unsäglichen "Promi-Zitaten", für die sich Leute hergeben die es eigentlich deutlich besser wissen müssten, ist ein unsäglicher Mist. Und wenigstens sagt mal jemand wirklich was sie davon denkt, anstatt sich für die Blöd instrumentieren zu lassen. (Obligatorischer Guttenberg: den Titel hab ich schamlos vom Schockwellenreiter kopiert)
IP-Adressen und Datenschutz
IP-Adresse: Datenschützer geht gegen AdSense, Amazon-Links und IVW vor. Ich weiss nicht, aber ich glaube so langsam schiesst das leicht über das Ziel hinaus. Ja, Datensammlung muss vermieden werden wenn vermeidbar. Und sicherlich, man sollte immer im Auge haben was mit den Daten für eine zentrale Figur wie Google machbar ist. Aber wenn das dann darauf hinausläuft, dass z.B. irgendwann die Google API Loader für jQuery nicht benutzbar werden weil deren Zugriffe ja auch auf Google Server gehen, oder wenn wie hier über Amazon-Affiliate-Links gemeckert wird - die erst bei Anklicken auf Amazon zugreifen, nicht schon generell - dann wirds langsam haarig.
Dann stehen wir nur ganz kurz vor dem Punkt an dem generell Links auf Seiten bei größeren Anbietern verboten werden. Oder so Absurdidäten, wie die hier geäußerte Idee der Illegalität der Nutzung von Google Mail in Deutschland. Ja, IP-Adressen sind bedingt personenidentifizierbar. Und mit IPv6 wird das sicherlich nochmal deutlicher werden (da dort der Reuse von IP-Adressen nicht so zwingend ist wie bei IPv4). Aber die IP-Adresse ist gleichzeitig auch der zentrale Dreh- und Angelpunkt des Internet und wenn man sich allzusehr darauf fokussiert, steht man irgendwann an dem Punkt an dem der oberste Datenschützer den Zugriff auf das internationale Internet verbietet, weil man da ja seine IP-Adresse Rechnern ausserhalb Deutschlands bekannt gibt ...
Datenschutz ist in einem ganz großen Umfang auch Schulung der Nutzer und Selbstverantwortung der Benutzer - letztere kann natürlich nur bei geeignetem Wissensstand erfolgen. Mir wäre wesentlich wohler, wenn aus den Datenschutzbehörden auch brauchbarer Output in der Form von Bürgerunterrichtung käme. Aber da ist es irgendwie mau.
Also mit den großen Anbietern diskutieren und unter Umständen auch vor Gericht diese dazu zwingen Datenschutzrichtlinien einzuhalten: ja. Öffentliche Diskussion über die Probleme und Gefahren: ja. Wildes draufhauen auf irgendwelche Forenbetreiber: nein.
Wieso geht der Datenschützer gegen sowas irrelevantes wie in dem Artikel genanntes vor, und nicht mal gegen einen der Großen in der Forenbranche, also zum Beispiel Heise, Spiegel, Focus oder Golem? Zuviel Respekt vor der dort zu erwartenden Reaktion?
Irgendwas klingt an der ganzen Sache faul. Möglicherweise haben wir nicht alle Informationen - aber mir fällt nicht ein welche Informationen da fehlen könnten, die aus dem ganzen eine angemessene Reaktion machen würde.
MobileMe saugt Hamster durch Strohhalme
Twitter / Search - mobileme. Es ist schon ausgesprochen scheiße, wenn man über Twitter suchen muss um zu erfahren, dass MobileMe mal wieder schrott ist und man sich nicht anmelden kann - denn die dumme Status-Seite von Apple liefert mal wieder gar keine Informationen. Die Art wie Apple MobileMe betreibt ist hochgradig unprofessionell. Leider sind Sync-Methoden abseits von MobileMe ziemlicher schrott, wenn man diverse Macs und iOS Geräte syncen will. Und da ich natürlich wieder mal zu spät bei Twitter gesucht habe, und vorher schon versucht habe mit den von Apple gelieferten Support-Informationen mein Problem zu beheben, darf ich also warscheinlich morgen oder so meinen MobileMe-Zugang auf meinem Air rekonstruieren. Denn natürlich ist auch das Prüfen diverser Probleme bei MobileMe nur destruktiv möglich. Danke Apple für diese Zeitverschwendung.
what a superb owl
Warscheinlich von hier (ich habs nur indirekt über Twitter mitbekommen).
Layoutspielereien
Da ich im Moment immer noch so ein bischen gucke wohin mein neues Blog geht, gibts immer mal wieder Spielereien am Layout. Die erste Iteration war mir dann doch zu dunkel, also ist das ganze jetzt etwas aufgehellt. Ausserdem habe ich festgestellt, dass ich doch sehr viele Asides (Kurzartikel ohne Titel) mache und dass diese dann doch etwas schwer zu lesen sind, daher ist die Schriftgröße bei den Asides jetzt auf die gleiche Größe und Zeilenhöhe wie bei normalen Beiträgen gesetzt. Alles in allem sieht das ganze jetzt etwas lockerer aus, finde ich.
Weil danach gefragt wurde: nein, ich habe immer noch nicht vor die Links wieder bunt zu machen - im Gegenteil, ich habe sogar die kleinen Datumszettel entfärbt. Irgendwie kommt Farbe bei mir im Moment einfach nicht so gut im Layout an - ausser in meinen Bildern natürlich. Aber vielleicht sind die dunkleren Links jetzt durch die größere Schrift wieder besser zu lesen.
Ich teste normalerweise mit Firefox, Chrome und Safari - wenn mit IE was nicht funktioniert, merke ich das also nicht. Hinweise kann man mir über mein Kontaktformular zukommen lassen, wenn was kaputt ist.
Performancefresser ...
... sollte man natürlich nicht unbedingt betreiben. Das Tumblr Widget braucht durch seinen synchronen Zugriff auf Tumblr locker mal eben 300ms und das Typografie Plugin braucht nochmal 300ms. Autsch. Ok, sieht mein Text eben typografisch müllig aus, mir doch egal.
Beim Cache bin ich im Moment bei xcache angelangt - mal gucken ob der ähnlich wie apc komische Meldungen produziert. Ich hab ja Konflikte zwischen apc und WP Super Cache im Verdacht für meine Probleme, denn immer wenn das Problem auftrat, hatte ich auch diese seltsamen GC Meldungen von apc im Log. Und keinerlei Meldungen von PHP, was darauf hindeutet dass nix vom PHP ausgeführt wurde (was auch den leeren Output erklärt).
Es gibt in WordPress Unterstützung für den Objekt-Cache von xcache. Ganz toll, kann man per kleinem Plugin aktivieren. Ich spar mir den Link, denn ohne dieses Modul ist das Blog schneller (und 27 vs 29 DB Queries ist jetzt auch nicht so wahnsinnig erfolgreiches agieren des Objekt Caches). Mit aktiviertem Objekt-Cache war das Blog gleich wieder in der 700ms+ Zone - ganz ohne Zeitfresserplugins.
Für Tumblr werde ich mir jetzt also doch eine JavaScript-Ajax-Lösung bauen, die mittels Tumblr API meine Bilder raussucht und in das HTML der Seite schiebt. Ist eh nur für den Look und dann wird auch nicht versehentlich ein Tumblr-Connect-Problem gecached.
Aber um das doch recht erstaunlich gut funktionierende Silbentrennen aus dem Typografie-Plugin ist es irgendwie doch schade. Man kann wohl nicht alles haben. Render-Zeiten im Bereich von oberhalb ner halben Sekunde find ich jedenfalls albern. Vielleicht änder ich meine Meinung aber nochmal, wenn ich mal wieder länger auf mein Blog gestarrt habe.
Owl Content in neuem Zuhause
Der Owl Content läuft jetzt auch auf der neuen Kiste. War nicht mal sonderlich kompliziert, das haarigste war ein doofer Bug im Feedparser der eingesetzt wird (eine schrecklich alte Version, kann durchaus sein, dass neuere das schon längst behoben haben) und eine Inkompatibilität der PHP gettext Implementation, die von Wordpress 1.5 noch benutzt wird. Ansonsten hats eigentlich ziemlich sofort alles getan, was benötigt wird. Kann sein, dass einige Hits noch auf das alte System laufen, bis sich die Nameserver-Änderungen draußen rumgesprochen haben, aber das sollte sich in den nächsten Tagen rauswachsen. Und so ganz nebenbei hat die Eule jetzt deutlich kräftigere Flügel. Für die nächsten 8000 Beiträge sollte es reichen.
Umzugsstatus
So langsam wird es was - das statische Absaugen meines alten Blogs für das Archiv hat mehrere Tage gebraucht, aber jetzt habe ich einen kompletten Abzug erstellt, Nameserver umgebogen und in den nächsten Tagen sollten dann alle auf dem statischen Teil landen. Einen Teil der Links leite ich direkt um - zum Beispiel den Hauptfeed und die Startseite selber. Eventuell werde ich nach und nach auch andere Sachen auf das neue Blog umleiten wenn ich merke das es sich lohnt.
Die Meta-Eule ist immer noch auf dem alten Server, ich fürchte an die muss ich dann wohl als nächstes mal ran und gucken ob die auf einem neuen System direkt zum Fliegen zu kriegen ist. Und dann sind da noch die diversen Bildergalerien meiner Untermieter - immerhin hab ich da schon alles für vorbereitet, der Rest ist hauptsächlich rüberkopieren der ganzen Dateien und dann ein bischen Layoutanpassung.
Sieht so aus als ob ich in absehbarer Zeit (vielleicht sogar bis Ende des Monats?) die alte Kiste abschalten kann. Die Kiste hat mir ja lange Jahre gute Dienste geleistet, aber mitlerweile ist sie dann doch ein bischen veraltet. Aber ich werde mir die letzten Backups irgendwo zur Seite legen, denn wie ich mich kenne fällt mir da kurz nach dem Abschalten ein, dass ich da ja noch irgendwas irgendwo gespeichert habe was ich dringend brauche ...
Bitrot reloaded
Irgendwann muss man ja mal loslegen und wieder neu aufsetzen. Das hier ist der Versuch mal wieder mit Wordpress zu arbeiten. Nachdem mir meine eigene Software einfach durch jahrelanges nicht-updaten von Voraussetzungen unter dem Blog weggerottet ist, gibts diesmal eine Standardsoftware von der Stange. Schaun mer mal.
Bitrot
Hat mich jetzt auch voll erwischt. Meine alte Blog-Software wird wohl nicht unverändert überleben können. Alte Python-Version (2.3), altes (sehr altes) Django (0.91), alter PsycoPG Treiber (1.0), altes PostgreSQL (7.4) und das alles auf einer alten Debian (eine wilde Mischung verschiedenster Versionen mit Backports und eigenen Programmen und mehreren gescheiterten Upgrade-Versuchen). Argh.
Tja, ich schwanke noch zwischen "umprogrammieren" und "wegschmeißen". Letzteres hätte den Charme, dass ich den ganzen Müll nicht mehr mit mir rumschleppe. Und ehrlich, so viel interessantes hat sich auf meinem Blog eh nie abgespielt. Vielleicht kann ich ja vorher einen wget Mirror anlegen und mir den ganzen Kram irgendwo statisch hinkippen, so als Archiv.
Neuschreiben hat natürlich auch eine Menge Charme, aber die tausenden von alten Einträgen (über 4000 Artikel und über 4000 Links, dazu fast 200 Bilder) aus 8 Jahren (erster Eintrag am 3.11.2002) bloggen zu konvertieren klingt nicht wie Spaß. Und vermutlich sind tausende der Links eh völlig veraltet und hinfällig.
Keine Ahnung was ich mache, vielleicht versuch ich erstmal die Metaeule auf die neue Kiste zu bringen, da hab ich ja "nur" das Problem, dass es PHP4 nicht mehr im Ubuntu Repository für die 10.04 gibt und ich daher die Eule zwangsweise auf PHP5 bringen muss (und das mit Code der auf Wordpress 1.5 aufbaut - ich muss wirklich bekloppt sein).
Oder ich versuch die Installation einer gammelalten Debian mit den damals eingesetzten Paketen - die Kiste läuft eh nicht in der Front, sondern hinter anderen Maschinen, das Hack-Risiko ist an der Stelle ja dann doch eher gering. Die Metaeule hat natürlich auch ein paar Tausend Beiträge im Archiv (nur 8291, ist ja fast nix), aber wenn ich die alte Software weiter am Laufen halten kann (Security-Patches sind da einige im Laufe der Zeit reingelaufen, von daher kann die eigentlich ruhig weiter vor sich hin wurschteln), bräuchte ich die ja nicht zwingend anpacken.
Irgendwie war das mit dem Internet auch so eine richtig blöde Idee ...
Mal mit Tabblo gespielt

Die Bilder habe ich in der Clemens Kirche in Münster gemacht um die Kirche Juliana zu zeigen. Und bei meiner Suche im Netz habe ich festgestellt, es gibt kaum wirklich nette Programme zur freien Anordnung von Bildern auf einer Seite - Tabblo war da noch das bequemste. Irgendwie seltsam, scheinbar konzentriert sich nahezu alles darauf, Bilder in einer Form von Diashow zu präsentieren - in diesem Fall will ich aber ein "loses Panorama" machen, also die Bilder so anordnen, wie sie dem eigentlichen Raum ungefähr entsprechen. Falls jemand da für den Mac eine gute Software kennt, die solche Art von Webseiten lokal erstellbar macht, wäre ich für Tipps dankbar (möglicherweise gehts irgendwie mit iPhoto oder iWeb, aber vielleicht gibt es ja auch etwas schlankeres).
Grundsätzlich gefällt mir aber die Idee von Tabblo, Bilder relativ frei anordnenbar zu machen und das mit Text (optional) zu kleinen Bildergeschichten zu formen. Sowas als lokal gehostetes Projekt wäre vielleicht auch ganz interessant, denn irgendwie ist die reine Diashow doch oft recht langweilig.
La Bamba
Weils uns in St. Petersburg richtig viel Spaß gemacht hat, die beiden zu hören, hier einer der Songs. Und gleichzeitig war das meine Premiere mit der GF1 einen Film aufzunehmen - und nicht über die Wackler meckern, ich hatte kein Stativ dabei und es ging mir sowieso mehr um den Ton. Aber so HD-Filme mit dem Fotoapparat machen, das hat schon was ...
Vom qualitativen Abstieg eines Providers
Es war mal ein Provider, der hat Root-Server in Deutschland verkauft. Und die Leistungen waren auch gut. Und der Service war gut. Und oh Wunder: man bekam kompetente Ansprechpartner. Und hey, man bekam zügige Reaktionen. Und noch was: wenn man Problemsituationen schilderte, verstand der Ansprechpartner auf der anderen Seite tatsächlich worum es ging. Und alles war gut.
Und dann wuchs der Provider. Und wuchs. Und irgendwie wuchs das Gehirn nicht mit.
Fast-forward auf gestern: ich bekomme eine Mail. Einer meiner Server hat laut dieser Mail einen anderen Server im Netzwerk angegriffen. Als beleg wird ein Log/Dump beigefügt, welcher diesen Angriffs-Traffic zeigt. Es ist meine IP und die eines anderen Rechners zu sehen, sowie das Protokoll: FTP Daten. Soweit, so gut. Wenn meine Maschine irgendwelche Gäste hat, find ich es gut, wenn mir das gesagt wird.
Erster Akt: Kontakt aufnehmen per Ticket und Konsole anfordern - denn die Netzverbindungen sind abgeklemmt, es gibt nur eine Konsolenanbindung über das Web. Oh, klasse: der Provider hat eine Software ausgewählt, die mit Proxies nicht kann - direkte Zugriffe auf Ports gehen nunmal nur dann, wenn die Firewall NAT macht (was bei Firmenfirewalls seltener der Fall ist). Und damit ist es dann schonmal 6 Stunden Zwangsdowntime, weil es keinen anderen, alternativen Weg gibt - um auf eine Maschine mit reinem Textkonsolen-Setup zuzugreifen, muss ich zwangsweise eine auf Java basierende Web-Konsole benutzen. Ok, dumme Entscheidungen treffen auch ab und an intelligente Firmen, dachte ich noch ...
Zweiter Akt: zu Hause dann die Konsole direkt angeworfen. Und zwischendurch über die Adressen gegrübelt - die Adresse kenn ich doch? Hmm, mal gucken. Und richtig: sie steht in einem meiner Scripte drin. Und wird jeden Tag einmal angeworfen, und schaufelt dann einige Gigabyte Daten auf diese Zielmaschine. Warum? Nunja, der Zielserver ist der per FTP erreichbare Backup-Server für die Datensicherungen ... mich hätte stutzig machen müssen, dass in der originalen Mail nichts davon stand. Intelligente Provider kennen ihre eigenen Maschinen. Aber ok, so ein fauxpas kann mal passieren, nimms mit Humor, was solls. Ist ja nur Internet.
Dritter Akt: Support-Mitteilung abgeschickt - noch schnell vor 18:00, obwohl ja Support bis 22:45 angegeben ist, aber nunja. Keine Reaktion nach einer Stunde. Hmm. Angerufen - "oh, ja, das Ticket hab ich gesehen, ich gebs nochmal weiter". Wieder zwei Stunden. Dann die Aussage "der Traffic war keine Datensicherung, das war ein Angriff". Hä?
Dritter Akt zieht sich über einige Zeit, denn der Support-Mitarbeiter weigert sich schlicht und einfach diese Klärung zu akzeptieren. Was an dem Traffic ungewöhnlich ist, will oder kann er nicht sagen. Ich hätte mich garnicht eingeloggt. Komisch nur, dass bei meiner Recherche auf meiner Maschine und dem Backup-Server die Dateien genau die angegebenen Zeiten haben und damit ganz eindeutig ein Login und Transfer stattgefunden hat. Ich kann die Daten schliesslich nur per FTP da hinbringen, nicht hinzaubern. Ok, die Daten sind gross - aber ich hab 50 GB Backupbereich, ich sollte die ja wohl auch füllen dürfen. Und das Volumen liegt bei ca. 14-15 GB. Ja, das ist viel.
Aber nein, der Support-Mitarbeiter beharrt darauf, dass ich eine schriftliche Stellungnahme mache. Ich muss Stellung dazu nehmen, was für einen Bockmist die beim Provider verzapft haben. Kommt nicht gut. Schlechte Stimmung.
Vierter Akt: am nächsten Morgen erst ein Meeting, danach dann gleich das Fax fertig gemacht und hingefaxt. Gewartet, gearbeitet, immer mal wieder in den Maileingang geguckt. Nichts. Nach 6 Stunden keine Reaktion. Support-Ticket erweitert um Kommentar, auch darauf keine Reaktion. Downtime des Servers mitlerweile weit über 24 Stunden - wegen einer Fehlinterpretation auf Seiten des Providers. Aber der hat es nicht nötig sich darum zu kümmern. Schikane als Standardbehandlung für Kunden, die es wagen zu widersprechen?
Zu blöd, dass ich jetzt Hetzner nicht mehr als Serverprovider empfehlen kann. Schade, nach so vielen Jahren, ein dermaßen eklatanter Bockmist, das hab ich echt nicht erwartet.
(Mögliche Ursache: schlicht das Datenvolumen und ein irregeleitetes Intrusion-Detection System, oder vielleicht das eine File, das grösser als 2 GB ist? Wer weiß - der Provider hat ja kein Interesse an der Klärung, und auf meiner Seite kann ich das nicht analysieren, schon garnicht mit einer vom Netz abgeklemmten Maschine).
Update: das Fax sei nicht angekommen (naja, passiert mal, Fax ist eh primitive Steinzeit). Netterweise durfte ich ein Foto des Faxes reinschicken, denn das nächste Mal bin ich Freitags erst wieder in der Nähe von Steinzeittechnik. Und oh wunder - wenige Minuten nach Einsenden des Fotos kommt "der Server ist wieder am Netz" - nur was mich jetzt erstaunt: in meinem Fax stand exakt das drin, was ich schon im Ticket gesagt habe. Und natürlich gibts keine Begründung, keine Erklärung und auch kein "Sorry, unser Fehler". Nichts weiteres. Kopfkratzen und Ärgern über 30 Stunden Ausfallzeit.
Apple und Windows - Fail
Tja, seit ein paar Tagen hab ich so ein schnuckeliges Asus EEE-PC 901 zu Hause. Das Teeil rockt! Ich dachte mir, ich bleib mal auf dem Windows, da ich dann die gewohnten Programme zumindestens zum Teil benutzen kann und z.B. meine Lesezeichen zwischen den Safaris syncen kann etc. Und was ist? Apple ist ein einziger Mega-Fail.
Zuerst: ich benutze nicht einen Admin-Account unter Windows, ich benutze einen normalen Account und nur zur Installation den Admin. Dazu habe ich auch noch einen eigenen Admin eingerichtet, da ich wegen der dummen Partitionierung der SSD meine Benutzerprofile auf das Laufwerk D: legen wollte. Tuts auch alles recht gut. Nur Apple hat doofe Ohren.
Zum Einen saut Apple immer noch auf Laufwerk C: rum. Dann kann ich nicht bei allen Installern angeben, das sie nach D: installieren sollen - statt dessen installieren sie auf die Systempartition. Oder iTunes: es verlangt die Installer auf der Platte im Homeverzeichnis des Admins (welches vorher nicht lesbar für andere war), um dann nochmal irgendwas (was auch immer) lokal zu installieren für den Benutzer. Wenn das dann täte, ok. Tut aber nicht - iTunes rennt bei jedem Start voll durch die Installationssequenz mit suchen nach MP3s und all dem Mist.
Und meine iTunes Mediathek auf ein anderes Laufwerk setzen geht damit auch nicht - meine 16G Class 6 SDHC wird wohl für iTunes verschlossen bleiben, denn die Mediathek wird immer auf D: zurückgesetzt. Selten dämlich.
Und MobileMe? Naja, einmal hats geklappt und mir die Lesenzeichen durcheinandergewürfelt, aber danach jetzt tuts nicht mehr - das Controlpanel nimmt brav meine Daten und logged mich ein, aber sobald ich das Panel dann neu lade oder auf die Synceinstellungen gehe, stimmen angeblich meine Benutzerdaten nicht. Selten dämlich.
Alles in allem hinterlässst das Apple-Angebot für Windows ein eher klägliches Bild - klar, manches mag an dem nicht-Admin-User liegen, oder an den Profilen auf Laufwerk D:, aber hey, ähnliches gibts beim Mac auch, und da kommt Apple damit klar. Was ist also lost auf Windows?
Safari tuts gut, aber gegen Chrome kommt es auf der kleinen Asus Kiste nicht an - zu langsam. Wobei Google sich bei der Chrome-Installation in das Benutzerprofil (zwangsweise, nicht ohne Hacks änderbar) auch nicht gerade mit Rum bekleckert.
Wollen die mich zwingen mir doch ein Linux auf die Kiste zu packen? Da gibts dann garnicht erst die Versuchung, sich das Zeug von Apple anzugucken ...
Update: mit einem Admin-Benutzer tuts iTunes - auch mit Mediathek auf der SDHC Karte. Haben die einen total an der Schüssel bei Apple?
Update 2: Nachdem ich den Tipp in einem Webforum gefunden hab, hab ich mal den ganzen iTunes-Kram und QT deinstalliert und dann den Apple Software Updater unter meinem normalen Account mit "Ausführen als..." und dann mit dem Admin-Benutzer gestartet und damit iTunes und QT installiert. Intuitiv ist was anderes, aber immerhin tuts iTunes jetzt mit meinem non-privilegierten Account. MobileMe macht aber immer noch seine Zicken, trotz Installation über diesen Weg. Ansätze das zu debuggen? Keine. Oh, und natürlich landet so die Software wieder mal auf C: anstatt auf D: ...
Achja, und warum zum Geier scheisst eigentlich jeder dumme Installer ungefragt Icons auf den Desktop? Ok, manche fragen, aber die von Apple - nö. Bah.
Dumme Userinterfaces (c) by Apple
Welcher Klotzkopf bei Apple hatte eigentlich die saudämliche Idee der Icon-Konfiguration auf dem "Desktop" des iPhone? Und vor allem, auf wessen Kosten geht die Grosstat bei Updates eines Programms das Icon des Updates nicht dahin zu packen, wo das eigentliche Programm liegt, sondern es flugs auf den ersten freien Platz der ersten Seite mit einem solchen zu packen?
Entweder hat man nach jedem Update ein fröhliches Icon-Schieben vor sich, oder man darf nach einer Reihe von Updates seine Icons suchen gehen, wo sie denn jetzt wieder gelandet sind. Besonders knallegut kommt das Schubsen von Icons natürlich, wenn man alle Seiten voll hat - und hat man sie nicht alle voll, wandern Updates fröhlich über die Seiten. Und hat mal jemand versucht, ein Icon von der letzten Seite auf die erste zu schubsen, wenn man mehr als nur zwei Seiten hat? Kein Spaß, absolut kein Spaß.
Für die Icon-Konfiguration beim iPhone gehört der zuständige Designer geohrfeigt. Mindestens eine Woche lang. Non-stop.
Banken und das Web
Wenn man armselig ganz neu definieren will, muss man sich mal die Banken und deren Web-Nutzung angucken. Hat eigentlich irgendeiner der Programmierer an dem Müllhaufen der einem da hingepackt wird irgendeine minimale Ausbildung erhalten? Mein letzter "Spaß": der praktische, weil low-tech TAN-Bogen wird gekündigt. Gibt nur noch Smart-TAN über Codekarten und so blöde Geräte. Ok, sollte ja eigentlich tun - Session-Passwörter generieren ist ja nicht unbedingt was neues. Aber natürlich klappt auch das nicht. Wozu auch. Wäre ja albern. Ich mein, mal ehrlich, hat jemand was anderes erwartet? Und natürlich ist jetzt die TAN-Nutzung bei mir gesperrt. Weil, ist ja so doll sicher wenn man eine Technik installiert, die nicht funktioniert, und dann die Leute zwangsgesperrt werden.
Aber das ist nicht der Grund, der mich so nervt. Der Grund? Das Mitteilungsformular der Bank. Ein einfaches Formular mit Textfeld im Browser. Soweit so gut. Da gibt man Text ein, der geht direkt an den Kundenberater. Auch gut. Ich mein, mehr will ich garnicht - Text schreiben und gut ist. Und was passiert? Ich bekomme die tolle Meldung:
Der Text ist zu lang. Der Text darf nur 11 Zeilen mit jeweils 36 Zeichen enthalten.
Bitte was? Hallo? Schon mal ein Textfeld in einem Webbrowser gesehen? Gibts da irgendwo ein Spaltenlineal? Oder schon mal was von Fließtext gehört? Soll ich jetzt allen Ernstes meine Zeilen fest von Hand nach maximal 36 Zeichen (die ich abzählen muss, da mir das Eingabefeld keinerlei Hilfe gibt) umbrechen? Habt ihr sie noch alle im Rechenzentrum?
Oh, und danach, nachdem ich formatiert und gezählt hab (mit Editor-Unterstützung und cut-and-paste):
Dieser Text enthält ungültige Zeichen. Er darf nur Ziffern, Buchstaben, Umlaute und eine willkürliche und von Unwissen bei der Auswahl geprägte Auswahl von Sonderzeichen enthalten.
Klammern - die man vielleicht ja mal benutzt, wenn man eine Anmerkung mit einbaut - nene, die sind böse und dürfen nicht verwendet werden.
Sorry, aber das ist eine totale Pleite. Und nein, ich will jetzt garnichts davon hören, dass euer nachgelagertes Bankensystem nur 11 Zeilen a 36 Zeichen akzeptiert - mir als Kunde ist das scheissegal. Das als Grund anzugeben zeigt nur, wie dämlich ihr seid und wie wenig Ahnung von der Materie ihr habt. Sorry, Kollegen, aber das ist armselig.
Absurditäten der Medien
Im Doping-Zirkus wieder mal ein echter Brüller, den ich heute im Tour-Ticker gesehen habe:
Liebe Radsportfreunde! Aus gegebenem Anlass (Fall Patrik Sinkewitz) wird die Berichterstattung von der Tour de France 2007 zunächst ausgesetzt, bis die Vorwürfe gegen Sinkewitz geklärt sind. Wir danken für Ihr Interesse! A bientôt, ihr tour.ARD.de-Team
Ok. Also wieder ein Fahrer unter Doping-Verdacht. Wie bei die ganze Zeit schon. Eben nichts wirklich neues - Team T-Mobile hat wohl noch einiges mehr aufzuarbeiten. Äh - und was soll daran jetzt die Einstellung der Berichterstattung bringen? Ich mein, die war eh schon armselig genug - sie jetzt noch einzustellen ändert was genau?
Die Medien könnten natürlich anstelle der großen Entrüstung jetzt mal überlegen, wie viel sie selber an der ganzen Misere beteiligt sind. War da nicht was mit einer direkten Zusammenarbeit von ARD-Reportern und der Telekom? War da nicht der jahrelange Hype der Medien rund um Jan Ullrich und die kostenlose Mega-Werbung für die Telekom? War es nicht so, das für die deutschen Medien kaum was anderes existierte als Telekom und deren Team?
Und das ist alles ganz unschuldig an dem Druck, der aufgebaut wurde? Die Tour-Berichterstatter hatten diesmal Sprüche auf Lager, das auch über die Nicht-Gewinner gesprochen werden soll - und haben trotzdem wieder wie jedes Jahr die Gewinner-Spekulationen hochgekurbelt und ordentlich den Hype geschürt. Aber sicherlich wird die Einstellung der Berichterstattung den nicht-dopenden Fahrern (so es denn welche gibt, keine Ahnung ob das der Fall ist) ganz fürchterlich viel helfen. Und die ARD stellt da ein echtes Zeichen - ihrer eigenen Dummheit und Arroganz, denn den ganzen Mist haben die Medien und die Sportverbände und -organisationen fleißig mit aufgebaut.
Der Radsport bleibt dabei auf der Strecke - aber den scheinheiligen Intendanten und Funktionären ist der ja eh scheissegal. Doping hat mal Einschaltquoten gebracht, also hat man es ignoriert. Jetzt spielt man sich halt als grosser Kritiker auf - und macht ein genauso lächerliches Bild wie damals.