Nachgefragt: Was ist nur mit dem Internet los?

Achtung

In der Vergangenheit habe ich immer häufiger mit Leuten gesprochen, die sehr eigenartige Beobachtungen gemacht haben. Auch mir ist das schon passiert und ich konnte es mir nicht erklären. Der Gedanke ist eigentlich absurd, aber wird das Internet gecached, also sprich zwischengespeichert und das Gespeicherte ausgeliefert? Das wäre fatal und die absolute Kontrolle über jede Information. Es fällt mir sehr schwer, den Artikel zu schreiben, eben weil es so absurd klingt. In einigen Sätzen werde ich erklären, was mich so verwirrt und welche Gedanken ich mir darüber gemacht habe.


Zunächst einfach ein Screenshot, der bereits einige Fragen aufwirft. Dieses ist nur eine der Anomalien, welche in der näheren Vergangenheit auftraten. Es gilt, auf das rot Umrandete zu achten.

Es geht um meine Domains, www.iknews.de und die alte www.infokriegernews.de. Beide laufen in der gleichen Datenbank und auf dem gleichen Server. Es gibt dort eine Verzögerung, die sich nicht erklären lässt, selbst der Counter hat eine Differenz von 300 Aufrufen. Beide Fenster habe ich zeitgleich aktualisiert.

Es kam auch in der letzten Zeit mehrfach vor, dass man mit Leuten schrieb und denen gesagt hat, sie mögen mal auf diese oder jene Webseite gehen und die sahen den Artikel nicht. Heute ein weiteres sehr eigenartiges Beispiel. Um zu sehen, wie sich der Artikel mit Herrn Scharpf entwickelt, googelte ich die Überschrift.

Frank hatte den Beitrag laut Google in seiner Kategorie “Aufgelesen” aufgenommen, ich klickte den Link und sah den Artikel auch bei Rottmeyer.de. Dann wollte ich schauen, in welche Kategorie er ihn gesetzt hatte und war erstaunt, der Artikel war nicht da.

Hier zwei Screenshots, einmal Google und dann 1,5 Stunden später von Rottmeyer.

Ca. 1,5 Stunden nach der Googlesuche entstanden:

Ich fragte Frank, ob er was geändert hat oder ob er WP-Cache benutzt und er verneinte das. Es gab in der letzten Zeit bei einigen Leuten auch auf anderen Webseiten derartig unerklärliche Verzögerungen.

Mit diesem Artikel möchte ich die Leser bitten, zu posten, wenn ähnliche Erfahrungen gemacht wurden. Ich habe mir den Kopf zerbrochen, komme aber nicht auf eine Lösung. In diesem Zusammenhang möchte ich noch einmal auf folgende Artikel hinweisen.

http://www.iknews.de/2010/08/04/internet-notausknopf-jetzt-in-den-usa/ (DNS bzw DNSSEC)
http://www.iknews.de/2012/03/18/uberwachung-der-superlative-echelon-ist-schnee-von-gestern/(Utah DATACENTER)
http://de.wikipedia.org/wiki/Ipv6 (IPv6)

Der Artikel ist nicht als Fakt zu sehen, sondern dient, die Verwirrungen zu klären. Je mehr Daten zur Verfügung stehen, umso schneller ließe sich ein Muster dahinter erkennen. Lags von Sekunden ließen sich schwer, aber halt irgendwie erklären, Lags von Stunden, die zum Teil ISP-abhängig sind, lassen sich so nicht erklären. Ich bin für jede Erklärung dankbar.

Carpe diem


72 Responses to Nachgefragt: Was ist nur mit dem Internet los?

  1. Jens Blecker sagt:

    Gerne hätte ich noch den Link zu einem Artikel über Facebook gepostet wo ich über einen Feldversuch geschrieben habe. Facebook blendete bei einer Gruppe von Menschen bewusst Informationen aus um zu sehen wie sich das auf die Verbreitung von Informationen auswirkt, leider kann ich den Artikel nicht finden.

    Wenn jemand da einen Artikel zu weiß bitte posten.

  2. Chris89 sagt:

    Hi Jens,

    um es ganz kurz zu machen: Das liegt am lokalen Browser Cache und hat nichts mit dem Internet an sich zu tun.

    Wenn du die Webseite unter zwei verschiedenen Domainnamen aufrufst, kann es sein, dass dein lokaler Browser unter den beiden Domainnamen im lokalen Browser-Cache eine unterschiedliche expire Time hat.

  3. tugrisu sagt:

    Sorry, kann ich nicht glauben. Bei mir ist dasselbe wie bei Jens. Unter iknews alles aktueller, als unter infokrieger. Bei Seitenaufrufe ist es ganz krass: 1779 zu 1334. Auch dein, dieser Kommentar ist unter infokrieger nicht zu finden…

  4. tugrisu sagt:

    Nachtrag: klickt man den Artikel unter infokrieger an, erhält man die korrekten anzeigen. muss aber daran liegen, daß man dann auf iknews ist.

  5. Jens Blecker sagt:

    Chris ich habe das mit unterschiedlichen Browsern und Computern ausprobiert, leider ist es nicht so trivial. Und das Artikel 1-2 Stunden nicht erscheinen wird kaum am Browsercache liegen?!?
    PS: Ich weiss schon wie man den Browsercache leert, strg + shift + r oder f5 aber es ist nicht der Browsercache.

  6. tugrisu sagt:

    ich habe jetzt unter infokrieger stehen:
    links unter nne: urugay der staat als drogenhändler,
    zähler steht auf 1334, letzte kommentare steht dein erster kommentar unter diesem artikel
    zeit: 22:30

  7. lotus sagt:

    Bei mir sind beide Seiten synchron. Würde auch den Browsercache vermuten. Prinzipiell sind aber auch Latenzen bei Domainaktualisierungen möglich, die dann ISP-abhängig und Standortabhängig auftreten können. Wer selbst mal Webspace, oder eine Domain registriert hat kennt die typischen Sätze wie:

    “Bitte beachten Sie, dass ein neuer Domainname in Einzelfällen noch nicht sofort von überall erreichbar ist.
    Die Bekanntmachung eines Domainnamens im gesamten Internet benötigt bis zu 48 Stunden.”

  8. Nver2Much sagt:

    Wo liegt das Problem?

    Ob sie nun zwischen cashen oder nicht.

    Schreibt hier irgend jemand was, was der Demokratie widerspricht?

    Wenn man zwei unterschiedlich schnelle Seiten hat mit dem selben Inhalt, dann nimmt man halt die schnellere Seite.

    Sich Gedanken darüber zu machen ist Zeitvergeudung, denn wenn sie den “Killswitch” ziehen (sofern die Schwätzer so etwas überhaupt haben), dann ist doch eh alles Zappenduster.

    und ob wir das im Vorhinein gewusst haben, das kann dann doch eh keiner mehr lesen, oder?!?

  9. lotus sagt:

    Vieles liegt auch am Host… ich hab zum Beispiel einen Kunden, wenn ich dort ein simples HTML-Dokument per FTP hochlade, ist dieses teils erst 30 Minuten später über das Internet erreichbar. Dieser Host ist übrigens in den Staaten und war sehr günstig, also nicht verwundernswert.

  10. Chris89 sagt:

    Hi Jens,

    es gibt noch eine andere Variante: Manche Webhoster tun Seiten bzw. Datenbankaufrufe zwischencachen um Traffic bzw. teilweise auch Datenbankzugriffe zu sparen.

    Daran könnte es evtl. auch liegen! (dann hat es nichts mit deinem lokalen Browser Cache zu tun)

  11. chris321 sagt:

    Wenn Umstellungen stattfinden, dann finden die nicht zeitgleich statt, erst recht nicht, wenn das weltweit riesige Dimensionen annimmt. Sprich: Das eine kann schon in die “Aktualisierung” einbezogen sein, das andere noch nicht.

    Welche Art der technischen Aktualisierung oder Updates das konkret betrifft ist sehr vielfältig. Das kann auf der einen Seite ein reiner technischer Vorgang sein, das kann aber wie Jens auch angedeutet hat, natürlich mit IPv6 oder der Utah Superbase etc. zu tun haben.

    Ich will mal formulieren was uns im Firmenbereich so tangiert. Da gibt es z.B. die sog. Deduplizierung:
    http://de.wikipedia.org/wiki/Deduplizierung

    >> Deduplizierung, auch Data-Deduplication, Datendeduplizierung (engl. Deduplication), ist in der Informationstechnik ein Prozess, der redundante Daten identifiziert und eliminiert, bevor diese auf einen nichtflüchtigen Datenträger geschrieben werden. Der Prozess komprimiert wie andere Verfahren auch die Datenmenge, die von einem Sender an einen Empfänger geschickt wird. Es ist nahezu unmöglich, die Effizienz bei der Verwendung von Deduplizierungs-Algorithmen vorherzusagen, da sie immer von der Datenstruktur und der Änderungsrate abhängig ist. Deduplizierung ist jedoch die derzeit effizienteste Art, Daten zu reduzieren, bei denen eine Mustererkennung möglich ist (unverschlüsselte Daten).

    Kurzform: Es wird derzeit massiv an einem Muster-Caching gearbeitet. Bedeutet: Der Computer soll ähnliche Muster erkennen und diese

    DANN NICHT MEHR ERNEUT ÜBER DIE LEITUNG SCHICKEN.

    Sprich: Ein Firmenlogo wird erkannt und dann nicht nochmals gesendet. Damit kann man Bandbreiten optimieren.

    Eine der Firmen die da ganz gross drin sind, ist die kalifornische Firma Riverbed:
    http://www.riverbed.com

    Zwischen Empfänger und Sender tritt also ein Mustererkennungsalgorithmus auf. Wie gut der ist, das sei dahin gestellt. Wir kennen ja vielleicht alle so paar Experimente mit Spracherkennungssoftware die wir mal drangsaliert haben. Bzgl. Mustererkennung kennen wir auch die biometrischen Experimente. Zusammengefasst: Der Computer tut sich mit Mustererkennung sehr schwer und da geht vieles gründlich schief.

    Teradici ist einer der grossen ZeroClient Hersteller mit einem der leistungsstärksten Protokolle die sich PCoIP nennen. Habe vor paar Tagen gerade 2 Firmengebäude über Funk vernetzt und das war etwas schwierig obwohl PCoIP schon verdammt gut ist. Ich habe daraufhin meinen Ansprechpartner bei Riverbed angesprochen und gefragt ob es nicht Sinn machen würde ihre vSH (virtual Steelhead) auf dem Server der Firmenzentrale zu installieren.

    Ich referenzierte dabei u.a. dies hier:
    http://www.teradici.com/pcoip-solutions/network-solutions-partner-program/overview.php

    A partnership between Riverbed and Teradici will be a perfect match to further enhance a global organization’s ability to develop a high-performance IT infrastructure
    Venugopal Pai
    Vice President of Global Alliances
    Riverbed

    und fragte ihn, wie es denn mit dieser Coop aussieht. Antwort: Sie arbeiten derzeit daran, aber die Lösung von PCoIP + Riverbed ist noch in der Testphase und ich solle erst im Sommer mit einer Lösung rechnen.

    Was ist denn jetzt der Unterschied zwischen PCoIP und Riverbed wird der Laie hier fragen und wie soll sich denn das ergänzen.

    Ich habe Euch in Offtopic erklärt, dass der Computer der Zukunft eine Streichholzschachtel ist und dass sie den PC, also den personal computer, mit allen Mitteln abschaffen wollen, koste es was es wolle. Das Ziel ist nur noch UCs bzw. ZeroClients zu haben und ein normaler PC wird dann unerschwinglich sein.

    Bei einem ZeroClient oder UC zählt dessen Kompressions-Komunikationsleistung. In diesem Punkt ist das PCoIP von Teradici richtig gut und MS will das in seine neuen RDS Server Umgebung im nächsten Jahr aufnehmen. Es werden dabei bestimmte Kompressorkarten zum Einsatz kommen, RemoteFX was MS derzeit preferierte wird wohl dann Geschichte werden, wenn der PCoIP Durchbruch kommt.

    Alle die jetzt mit Aktien spielen aufgepasst: Da könnt Ihr Geld investieren weil die beiden Firmen hoch kommen. Jens kann Euch besser erklären wie man da reininvestiert, das ist nicht mein Fachgebiet. Ich habe damals gesagt, dass Apple hoch kommt. Man glaube mir nicht. Heute jammern mich Wirtschaftsfachleute an und sagen sie hätten damals besser auf mich gehört. Technische Zukunft ist vielfach recht gut voraussehbar und so auch das UC-Netz (also der Nachfolger des Internets) und der ZeroClient. Dass man dazu ein gescheites Protokoll braucht, ist ja wohl klar und darin ist Teradici aus meiner Sicht der beste. Ich habe da schon paar Experimente gemacht! In meinem Fall muss ich z.B. Multimonitorbetrieb (Workstationbetrieb) über Funk hinbekommen. Das ist nicht leicht und Teradici hat das im Griff.

    ABER!

    Da gibt es dennoch die Optimierung des Datenflusses und da kommt jetzt Riverbed ins Spiel. Sie optimieren den Datenfluss eben durch Deduplizierung was eben bedeutet, dass er wiederkehrende Muster erkennt und diese nicht mehr über die Leitung schickt.

    Wie ich aber schon sagte, ist vieles davon derzeit in einem Teststadium. Ich will nicht wissen wie gut diese Deduplizierungsalgorithmen wirklich funktionieren und welche Provider da schon mitmachen usw. Sprich: Nicht jeder muss von diesem Phänomen betroffen sein. Mein Apa bei Riverbed sagte dass wir bis Sommer warten sollen weil dann die Sache ausgereifter sei. Sprich: Sie experimentieren gerade mächtig damit rum.

    Am Ende der Leitung können dann eben Phänomene bei dieser neuen Caching-Technik auftauchen. Jens hat also mit der Vermutung Caching sei an dem Phänomen schuld aus meiner Sicht generell mal Recht und Einwände bzgl. Browser Cache wie von chris89 gebracht sind natürlich auch immer in dieser Kette zu bedenken. Die Frage ist auf welcher Ebene und wer hier zu welchem Zweck cacht. Wie ich schon sagte, der UC macht eigentlich nur die alte Kompression und Flusskontrolle im Sinne der Leitungsqualität, aber nicht die Mustererkennung. Das von Jens beschriebene Phänomen deutet aber auf die Mustererkennungsalgorithmen hin das im Falle diverse Provider bereits bei sich testen. Betonung liegt auf TESTEN. Wie ich aus dem Firmenbereich erfuhr sind wir ja derzeit bei Riverbed diesbezüglich in der Testphase und wir sollen noch bis Sommer warten.

  12. haunebu sagt:

    Da kommen viele Faktoren zusammen.
    Wenn ich bei mir auf der Webseite was ändere, sehe ich das mitnehmen t-online Anschluss sofort. Über unitymedia dauert es dann ein paar Stunden bis man die Änderungen sieht.

  13. Jens Blecker sagt:

    Sicher liegt es daran nicht. Zumal es unterschiedliche Hoster und Webseiten betrifft.

  14. chris321 sagt:

    Noch als Ergänzung zu dem oben gesagten:

    Ich war kürzlich auf einer Supercomputing Tagung. Sprich: Die richtigen grossen Computer in Garching, Stuttgart und Jülich (auf DE bezogen).

    Die sehen z.B. so aus:
    http://de.wikipedia.org/wiki/SuperMUC

    Innen sieht das so aus:
    http://www.sync-blog.com/wp-content/uploads/2012/06/supermuc.jpg

    Wer hier Ähnlichkeiten mit AKWs sieht, liegt im Sinne des Utility Computings, also des Versorgungs Computings gar nicht mal so falsch!

    Hier ist z.B. ein Bild von den Bauarbeiten an diesem “2. digitalen Reaktorblock”:
    http://www.heise.de/imgs/18/6/0/5/6/8/7/LRZ-2010-07-Foto-Ernst-Graf-hoch.jpg-5b21f83f04384aab.jpeg

    Auf dieser Tagung war z.B. eine Firma welche Probleme sah ihre kompletten Videoaufzeichnungen der Fernsehsendungen zwischen München und Brüssel hin und her zu schieben. Der Sprach also von Peta- und Zetabyte an Daten (PBytes, ZBytes).
    Es sieht so aus, dass das technisch nicht möglich ist. Da kannst Du viel komprimieren und deduplizieren, diese irren Mengen bekommst Du nicht durch die Leitungen. Ich meinte: Na, dann eben 2 Autos die ständig von und nach Brüssel mit den Bändern fahren, was sonst? Genau genommen: Das ist wohl die einzige derzeitige Lösung. WAN Leitungen schaffen diese Grössenordnungen nicht. Es waren dann noch paar andere Firmen da mit genau demselben Problem und es wurde klar, dass es ein riesen Problem mit den gigantischen Datenmengen gibt, von Datensicherung ganz zu schweigen.

    Kommen wir auf das Bild oben mit dem “digitalen Reaktorblock” zurück. Wenn dort ein Flugzeug reinfliegt und das Teil fliegt in die Luft, dann sind ne grosse Menge Daten (insbesondere wissenschaftliche) auf nimmer Wiedersehen verloren.

    Man arbeitet also mit Hochdruck daran die Datenmengen irgendwie besser in den Griff zu bekommen. Sowohl bzgl. Verteilung, als auch bzgl. Datensicherheit. IBM seinerseits hat auf der Tagung neue LTO Bänder angekündigt mit gigantischen Speicherkapazitäten usw. Das ist aber jetzt mehr die technische Diskussion die ich hier auslasse.

  15. Jens Blecker sagt:

    Wie erwähnt scheidet das Browsercaching aus. Drei Browser auf 4 unterschiedlichen PC´s mit diversen refreshraten, no way.

    Wenn ich jetzt mal zu spinnen beginne….

    Zur Erinnerung hier ein Artikel zur diminished reality : http://www.iknews.de/2011/10/14/diminished-reality-die-angepasste-realitat/

    Nehmen wir mal zum Spass an, dass Webseiten die – sagen wir mal kritisch berichten in irgendeiner Art und Weise zwischengecached werden. Und im Bedarfsfall einfach unliebsame Inhalte ausgefiltert. Wenn der Link direkt verschickt wird geht es ja witzigerweise sogar. Das wäre wesentlich effektiver als das Abschalten wo die Menschen erst richtig neugierig werden. Nur ein Gedanke, keine Wahrheit.

    Bei der Umstellung auf solche Systeme wäre ein Bugfreier Übergang aus technischer Sicht ausgeschlossen, weil IMMER irgendwas irgendwie hakt, egal wie gut die Leute sind die das coden. Jeder Coder wird verstehen was ich meine. ES GIBT keine BUGFREIE Software.

    Ich habe bereits einige fähige Softwareentwickler darauf angesprochen und bisher konnte sich keiner das Phänomen erklären. Wie gesagt es betrifft ja nicht nur meine Webseite. Um ein genaueres Bild zu bekommen habe ich ja diesen Artikel eröffnet um möglichst viele Daten zu bekommen wo wer wann so etwas erlebt hat. Gut wäre mit einer kleinen Auflistung.

    Browser
    Version
    Webseite oder CMS
    Art des Phänomens

    Ich habe das bisher effektiv nur auf Blogs festgestellt, aber ich werde jetzt mal intensiver auch andere Seiten beobachten.

  16. Chris89 sagt:

    Hi Jens,

    das von dir beschriebene Szenario ist technisch nicht möglich.

    Wenn Webseiten durch Provider gefiltert werden würden, dann müsste man die Routen manipulieren, worüber der Internet Traffic läuft und das würde per traceroute sofort ins Auge stechen.

    Weiterhin ist es vollkommen unmöglich, dass Millionen von ISPs weltweit alle genau dieselbe Webseite filtern bzw. vor den Inhalt einen Cache schalten. Das ist de facto technisch nicht möglich.

  17. Hallo Jens.
    Ich habe schon sehr viele ähnliche Erfahrungen gemacht!
    Aus dem Grund habe ich vor ca. 2 Jahren ein Archiv erstellt, das ich “WTF” getauft habe …
    Das hat sich inzwischen mit vielen Videos gefüllt …

    Ich schicke mal Teil 1 und 2 rüber (zusammen etwa 10MB) – bezieht sich auf Youtube Kommentare, die teilweise erst 2 Tage später auftauchten (nach E-Mail Eingang) … . Bitte auf`s Datum achten. Der Browser-Cache wurde natürlich geleert!Ich schicke es an: blecker/at/iknews-redaktion.de

    Gruß

  18. querulant sagt:

    @Nver2Much
    sehr pragmatisch gedacht.

    Das Problem von Jens ist aber ebenfalls Fakt und “lange Laufzeiten” und “Aufhänger” meines MAC stelle auch ich in letzter Zeit häufiger fest.

    Als “technisch Interessierter” weis ich, -Nichts ist Unmöglich –

    Würde ACTA, NDAA usw. existieren, wenn die Umsetzung “unmöglich” wäre ?

    Sorry, wir werden überwacht – damit rechne ich.

    Die gezielte Tötung meiner Person per Drohne dürfte aber im “Preis-Leistungs-Vergleich” des CIA noch nicht wirtschaftlich sein.
    Vorsorglich fliege ich nicht mehr und “hüte” das Bett !!!

  19. Jens Blecker sagt:

    Ich empfehle dir mal ein Abbo der Technology Review ;) Du wärst erstaunt was alles technisch möglich ist. Wenn ich es verstehen würde und ich habe ein wirklich ganz ordentliches Verständnis, dann hätte ich den Artikel nicht gemaccht oder er hätte einen anderen Titel ;)

  20. Hamsterfisch sagt:

    Hallo,

    Ja, die Internetprovider cashen die Websites.
    Der Grund ist, dass man so Webseiten, die von mehreren Benutzern angefragt werden schnell zur verfügung stellen kann statt sie jedesmal neu vom Webserver anzufragen.
    Für die genauen Cashingzeiten würde ich mal den Provider Fragen…

    Gruss!

  21. Zartbitter sagt:

    @ querulant:

    Denkle daran die Updates und
    Softwareaktualisierungen aktuell
    zu halten, dort werden den neuesten
    “Bedrohungen” begegnet.

    Natürlich nicht die Methoden der
    Überwachung. Es ist heute ohne viel
    Aufwand möglich, das sich jemand auf
    Deinen PC aufsetzt. Egal ob MacOs
    oder WinOS oder Linux oder oder.

    Ausspähungen via Cam, kein Problem….

    Zugeklebt/verdeckt? Na dann halt
    über das Micro. Tastatur/Monitorscreening?
    Kindergarten. Stöbern in deiner/unserer
    Cloud? Ein Spaziergang.

    @ Jens: Mir als Kommentator ist schon
    aufgefallen, das einige Kommentare
    im Nirwana verschwunden sind um dann
    später wieder zu materialisieren.

    Das ist bei Youtube aber auch bei
    einigen Blogs der Fall. Bei Dir
    konnte ich das noch nicht feststellen,
    da wurde bisher alles in Echtzeit
    eingestellt.

  22. BlackRiP sagt:

    Also bei mir ist infokriegernews.de aktueller!

  23. BlackRiP sagt:

    Oh und mittlerweile ist bei Opera iknews aktueller und bei ie browser infokriegernews

  24. … in dieser Zeit, wo man die totale Überwachung der Meschen anstrebt sollte man nichts ausschließen.
    Seiten wie diese hier werden einigen garantiert ein “Dorn im Auge” sein, daher wachsam sein!

    Alles was nicht durch finanziellen Zwang kontrolliert werden kann(Blogs, freie Journalisten), ist der Gefahr ausgesetzt durch anderen Methoden(Technologien) kontrolliert zu werden.

  25. Maulhure sagt:

    Es wird getrickst bis sich die Balken biegen.
    Hier ein anderes Beispiel, wie der Machtapparat funktioniert.
    Herzlich Willkommen in der EUDSSR.
    Da in der modernen Planwirtschaft Kinderarbeitslosigkeit bei bis 25 jährigen verboten sein wird, ist im Gegenzug Beschneidung an Kleinkindern erwünscht.
    Warum dieses Beispiel es passt so gar nicht zum Artikel….
    Nicht ganz, weil vorher stand es so bei Wikipedia unter Zirkumzision:
    “Aufgrund Ihrer Empfehlung habe ich ihr Angebot ich solle mich doch mal bei Wikipedia schlau machen und unter Zirkumzision nachschauen.“
    http://de.wikipedia.org/wiki/Zirkumzision Das habe ich getan und musste dies zu meinem Bedauern lesen. “Zirkumzisionen sind mit einer signifikanten Komplikationsrate behaftet.[8] Sie wird je nach Definition zwischen 0,06 % und 55 % angegeben[112] bzw. zwischen 2 % und 10 % geschätzt.[113] Auch Todesfälle insbesondere nach der Beschneidung von Neugeborenen, bei denen schon geringer Blutverlust Lebensgefahr bedeutet, kommen vor.[114][115] Einer US-amerikanischen Untersuchung zufolge sterben in den USA jährlich schätzungsweise um die 117 neugeborene Jungen (entsprechen 1,3% aller Todesfälle in dieser Gruppe) an den Folgen von Beschneidungen[116].”
    “Das scheint für Sie völlig in Ordnung zu sein. Ich frage Sie allen Ernstes wofür bedanken Sie sich bei Herrn Prantl , doch nicht etwa für die Todesfälle in den USA durch Beschneidung.“

    Jetzt steht es wie folgt:
    Zirkumzisionen sind mit einer signifikanten Komplikationsrate behaftet.[8] Sie wird je nach Definition zwischen 0,06 % und 55 % angegeben[130] bzw. zwischen 2 % und 10 % geschätzt.[131] Auch Todesfälle insbesondere nach der Beschneidung von Neugeborenen, bei denen schon geringer Blutverlust Lebensgefahr bedeutet, kommen vor.[132][133]

    Ihr seht also Aufgrund des Ersterbens einer einzelnen Person, wurde dieser Artikel bei Wikipedia manipuliert.

    Das deutsche Stimmvieh wird bewusst manipuliert(gesteuert) und findet es toll bzw. gefallen daran.
    Die Politik steht sich nicht im weg sondern sie ist PROGRAMM und läuft nach PLAN(Wirtschaft).
    Man macht die Menschen mit den einfachsten Sachen schon glücklich / gefügig oder noch besser gehorsam. Das Internet ist eine herausragende Einrichtung den Menschen unbeobachtet zu kontrollieren.
    Der ITU-Gipfel in Dubai ist ein Kalter Krieg ums Internet so, der Spiegel heute.
    Autoritäre Staaten wie China und Russland wollen mit Hilfe einer Uno-Organisation das Internet kontrollieren. Sie könnten dann den Austausch von Daten und Meinungen unterbinden, wenn sie es für richtig halten. Die USA und Europa stellen sich dagegen. In Dubai kommt es jetzt zum Kräftemessen.
    Die USA & EUROPA stellen sich nur offiziell dagegen, in Wirklichkeit wird akribisch kontrolliert, die Anonymität wird ausgehebelt. Das cachen von Daten ist reine Routine, man will wissen wie jeder einzelne genau tickt. Der Kostenapparat für den Austausch von Daten und Meinungen wird in den USA & EUDSSR sogar genau aus diesem Grund mit Milliarden subventioniert.
    Please use our social Network,for a later treatment as usual.
    George Orwell is comíng soon. ;-)

    “Wer die Vergangenheit kontrolliert, der kontrolliert die Zukunft; wer die Gegenwart kontrolliert, der kontrolliert die Vergangenheit!”

  26. Maulhure sagt:

    Und ich dachte mir in den 90igern, wie das war es jetzt.
    Na super-toll,falsch gedacht, das war erst der Anfang. :-)
    Na ja wenigstens wird einem nicht langweilig dabei und man muß sich ständig etwas neues einfallen lassen um diese Spinner zu beschäftigen. ggggggg :-)

  27. Evey sagt:

    Ich habe auch Merkwürdigkeiten festgestellt. Seit du die Seite Iknews.de eingerichtet hast. Vorher bin ich immer auf die Infokrieger-seite gegangen. Jetzt auf der iknews.de stelle ich Unterschiede bezüglich der Liste “letzte Kommentare” fest. Wenn ich nach einander 2 oder 3 Artikel in einem neuen Tab, also mit rechtsklick öffne, unterscheiden sich die Auflistungen. Das ist wie gesagt aber erst, seit du nach dem ganzen Kuddelmuddel mit deiner Seite und dem nicht auffindbaren Administrator selbst umgestellt hast. Technisch kann ich dir leider nicht helfen. Wenn du möchtest kann ich dir noch zwei Screenshots schicken mit den Unterschieden.
    Ich habe den firefox 17.0 und nutze noscript. Auf deiner Seite lasse ich nur das script iknews.de zu. Weil mir das reicht.

  28. Erasmus sagt:

    Hallo Evey
    Die neuesten Kommentare kannst du nur Eingelogt sofort sehen, ansonsten kommen sie erst nach einer Weile.

  29. WsdV-Blog sagt:

    Da sprichst du ein Thema an! Bei dir ist mir aufgefallen, dass mein Kommentar nicht da war. Habe den Browser-Cache gelöscht und neugeladen, half nichts. Einige Stunden später war der Kommentar da. Ich habe vermutet/vermute, dass du oder ein Moderator ihn erst freigeschaltet hast. Du kannst dazu wohl genaueres sagen.

    So nun zu deiner Vermutung. Ich hätte erst auch vermutet, dass es am Browser-Cache liegt, den man z.B. beim Firefox mit F5 oder STRG+SHIT+R komplett neuladen lassen kann.

    Allerdings habe ich speziell bei Blog.de so einige interessante Dinge festgestellt.

    1. Ich gebe blod.de bei NoScript frei und lasse es laden, logge mich ein und klicke dann auf “Mein Blod.de”. Ich war sehr erstaunt, als ich statt der Übersicht der Artikel der anderen Schreiber, nur ein Feld vorfand, wo ich mich nochmals hätte einloggen können. Dieses Feld hat dort nichts zu suchen und ich war komischerweise nicht mehr eingeloggt.

    Erklären kann ich es mir nicht.

    2. Seit einiger Zeit sind die Ladezeiten bei Blog.de sehr sehr lang. Viele beschweren sich darüber.

    3. Jetzt das für das, was ich mir nicht erklären kann.

    Ich schreiben einen Beitrag oder verlinke einen. Dann möchte ich doch etwas ändern und klicke die Option “Ändern” an. Nachdem ich die Passage, den Link oder sonstiges geändert habe, speichere ich dies.

    Das komisch ist jetzt, dass mit zunehmender Häufigkeit die Artikel auf den alten Stand bleiben. Dass heißt, alles was ich eingeben habe ist verschunden, einfach weg, dies passiert nicht nur bei Artikeln, auch bei Kommentaren, wie ich erneut gestern feststellen musste.

    Habe alles ausprobiert. Noscript für Blog.de deaktiviert, neu eingeloggt, Daten gelöscht mittels der Browserfunktion, mittels Bleachbit, Cache neugeladen. Nichts aber auch gar nichts hat es daran geändert, dass manchmal meine Änderungen verschwinden.

    Könnte natürlich ein internes Problem der blog.de Firma sein, wovon ich mal stark ausgehe.

    Eine Speicherung und Überprüfung aller Daten, ich weiß nicht. Aber durchaus möglich, den Hinweis haben “Populis” die Betreiber von Blog.de selbst geliefert. Dürfte auch für dich, Jens, interessant sein.

    Blogforever: Projekt gegen digitales Vergessen
    http://www.heise.de/newsticker/meldung/Blogforever-Projekt-gegen-digitales-Vergessen-1654381.html

  30. Evey sagt:

    ok. hast recht. Ich war da noch nicht eingelogt. Hab das jetzt noch mal getestet. Eingelogt gibt es keine Unterschiede. Ich möchte aber meinen, dass es früher nicht so war??!!

Hinterlasse eine Antwort