3dfxatwork hat geschrieben:Als in Deutschland, hab ich bisher noch keinen Miet-Server mit einer Architektur verschieden von x86 (oder mit 64 bit Erweiterung) gesehen
mh ich hab doch von den ff-nodes geredet...
Cyrus hat geschrieben:overhead entsteht ganz einfach durch die verschlüsselung bei openvpn, hier kann man auch verschiedene verschlüssleungsverfahren einsetzen, die dann auch unterschiedlich schnell sind, deswegen sind die hier dargestellten werte auch nicht 100%ig aussage kräftig.
ja, das ist sehr gut möglich. dennoch zeichnet sich in meinen augen bei den gemessenen werten eine tendenz ab. ich frage mich nur, ob wir angesichts der "flucht ins ausland" aufgrund von schärfer werdenden gesetzen wirklich an der verschlüsselung sparen wollen
also um verwirrungen vorzubeugen: die geschwindigkeitsmessungen hab ich genau aus dem grund gemacht, weil, wenn überhaupt, es genau der (zumindest in meinem fall) freifunk-router sein wird, der zu irgendeinem rechner im ausland tunneln wird. auch für router, die sowieso schon chronisch überfordert sind, sollte das sein. ich gehe davon aus, dass, abgesehen von mono, der sich sowieso schon ein x86-system dafür plant anzuschaffen (so wie ich es verstanden hab), auch tuxmos und jabo davon betroffen sein werden, sobald das vorhaben realität wird, da über sie doch eine ganze menge verkehr läuft, so wie ich das in der topo ablese.
die folgenden gedanken spiegeln teilweise das wider, was ich bereits beim treffen angemerkt habe, sind aber auch ein wenig weitergesponnen. was ich sage, muss nicht eintreten, wäre aber eine der logischen konsequenzen.
das problem wird einfach sein an der stelle, dass man dem geneigten laptop-user ebenso wie den nicht-hna-knoten irgendwie begreiflich machen muss, dass sie an einem knoten hängen, der im günstigsten fall 400 kbyte/s bringt, welche auch noch auf alle anderen nutzer dieses hnas aufgeteilt werden. und auch nur dann, wenn nicht olsrd oder dropbear auch noch mal ein paar prozente von der cpu brauchen. dann sind wir an dem punkt angelangt, wo die hna-user vor der entscheidung stehen: schnelleren rechner besorgen zum wohle des freifunk (was mit deutlichen kosten verbunden sein kann) oder die ganzen nutzer mit dieser geschwindigkeit gestraft lassen. dann werden die nutzer wiederum sich überlegen, ob sie nicht was an ihrem antennen-anschluss-router-management verändern, um nicht einen anderen hna reinzukriegen, der mehr hergibt als eine geschwindigkeit, die kanpp über umts-niveau liegt (und wie gesagt,
das nur im idealfall). dann wird die topographie in einer clusterbildung enden, was entschieden entgegen dem gedanken von freifunk ist. abgesehen von diesem sozialinfratrukturellen problemen sehe ich auch noch viele ungeahnte seiteneffekte beim tunneln ins ausland. die geolokalisierung von seiten, sodass man beispielsweise bei der eingabe von "
www.gmx.net" eine deutsche oberfläche bekommt, die ich auf dem treffen angesprochen hab, ist nur ein kleiner aspekt. da wir versuchen gewissen rechtlichen aspekten in deutschland aus dem weg zu gehen, sollten wir schon sehr, sehr weit weggehen, da diese aspekte mindestens in der europäischen union, den usa, kanada und japan, sowie den ländern des commonwealth und den französischen dom-tom beachtung finden oder mit sicherheit finden werden. da bleiben nicht mehr sehr viele länder übrig, die sagen wir mal keine ungünstigen abkommen bezüglich der auslieferung von informationen bei kriminalistischen verfolgungen haben. im wesentlichen zentralaftrika und der mittlere osten. d.h. man wird dem freifunk-user auch zusätzlich noch erklären müssen, warum er nicht auf seine lieblingsseite
http://www.gmx.de kommt, da die möglicherweise aus afghanistan gar nich erreichbar ist. es tun sich meiner auffassung nach mehr rechtliche fragen auf, als dass sie mit auslandsservern beseitigt werden.
nun ja, genug gesponnen, vllt kommt es auch alles ganz anders. sind nur meine gedanken.