Stefan Heße hat geschrieben:OK, dann will ich das mal mit einem Beispiel erklären:
Wenn ein Betrüger eine neue Methode entwickelt hat, wie er Leute um ihr Geld betrügt, meinst Du er würde zur Polizei gehen und denen von der Methode erzählen, damit die Polizei die Leute warnen kann?
Die Hacker wollten die Lücke ausnutzen, um Geld zu verdienen. Die waren nicht daran interessiert, dass die Lücke gestopft wird, darum haben sie auch niemals Microsoft Bescheid gegeben, dass diese Lücke existiert.
Das versteht sich ja von selbst.
Woher die chinesische Firma, die schließlich das Sicherheitsloch veröffentlicht hat, ihre Informationen her hat, darüber möchte ich nicht spekulieren. Da mag sich jeder seinen Teil denken.
Also mir klang das nach einer Sicherheitsfirma, so wie Avira oder Kaspersky hier. Vielleicht war es auch sowas wie ein CERT, keine Ahnung. Bei Dir klingt es aber zwischen den Zeilen schon fast so, als ob die selbst für den Hack verantwortlich ist. Ich will da nicht länger drüber spekulieren, es war ja schließlich nur der Anlass für meine Überlegung: schnell veröffentlichen oder lieber nur inoffiziell warnen und warten, bis Patches zur Verfügung stehen.
Da bist Du falsch informiert. Zumindest bei Microsoft wird SEHR viel Geld ausgegeben, um sichere Software zu schreiben. Die Trustworthy Computing Initiative wird auch heute noch gelebt. Der von den Entwicklern geschriebene Code wird über ein mehrstufiges System teilweise automatisiert, teilweise aber auch von Menschen auf Fehler hin überprüft. Jeder Entwickler, der bei Microsoft Software schreibt, muss durch ein spezielles Training, das ihn lehrt, worauf man bei Softwareentwicklung zu achten hat. Was soll man noch machen?
Damit willst Du also sagen, dass jede Software jede Menge Fehler enthält, weil es gar nicht anders geht. Dass also auch sicherheitsrelevante Software an massenhaft Stackoverflows leidet und locker flockig vom erstbesten Hacker ausgehebelt werden kann, wie es bei Microsoft nun mal tagtäglich der Fall ist? Sorry, aber das glaube ich nicht.
Es wird immer einen genialen Hacker geben, der auf Ideen kommt, wie man Software angreifen könnte, an die vorher nie jemand gedacht hat.
Das ist in der Tat wahr. Aber das Ziel müsste dann sein, zumindest die bekannten Verfahren halbwegs dicht zu kriegen.
Du widersprichst Dir hier selbst, indem Du zugibst, dass selbst die Software nicht 100% fehlerfrei ist.
In dem Sinne, wie ich es eben sagte. Genial neue Hackmethoden kann wohl niemand vorhersehen, und auch die sicherste Software wird hier und da noch ein paar wenige Bugs enthalten (mit ein Grund, warum ich auf die hierzulande so hoch gelobte Sicherheit in Kernkraftwerken gar nicht allzu viel gebe, wenn ich weiß, was da alles über Software geschieht.) Aber es sieht bei gut geschriebener Software definitiv nicht so aus, dass jeden Monat eine Reihe von Patches kommen muss, weil wieder Löcher gefunden wurden.
Wir sind Zulieferer für Firmen, die medizinische Geräte herstellen. Da müsste mit jedem Patch und jeder Korrektur der ganze Zertifizierungsprozess neu los gehen, was mehrere Wochen dauern kann. Das können die sich gar nicht leisten. Da muss von Anfang an schon mit höchster Präzision gearbeitet werden, damit die Zertifizierung klappt und dann muss das Ding funktionieren, auf Teufel komm raus. Da sind z.B. Windows CE und Linux ein absolutes No-Go, weil man deren Verhalten überhaupt nicht abschätzen kann, ja nicht mal eine Risikoberechnung dafür angeben kann.
Wenn ich Hello World programmiere, dann würde ich Dir vielleicht zustimmen, dass es fehlerfrei machbar ist, aber bei einer Komplexität, die ein heutiges OS hat, ist das leider unbezahlbar.
Ist es wirklich unbezahlbar? Oder ist uns diese Sicherheit heute einfach nur noch nicht mehr Geld wert? Was passiert, wenn mal wirklich millionenfach Leute geschädigt werden? Nimm mal den Fall, jemand würde ein Schadprogramm schreiben, das sich erst mal vermehrt und dann nach einer gewissen Zeit die Festplatte löscht. Der Schaden, der dadurch angerichtet würde, wäre immens. Da wäre im Vergleich dazu ein 10x so teures Windows ein Pappenstiel.
Ich bin fest davon überzeugt, wenn wirklich mal ein Schädling nennenswert Schaden anrichtet, dass dann genau diese Rechnung aufgemacht wird und sich die Softwarefirmen fragen lassen müssen, ob nicht doch etwas mehr machbar gewesen wäre, auch wenn's dadurch teurer geworden wäre. Und dann werden ein paar Köpfe rollen.
Es gibt bei vielen Kunden ein Intranet, das nix mit dem Internet zu tun hat. Viele Mitarbeiter meiner Kunden dürfen nicht mal im Internet surfen.
Aber die sind doch dann durch dieses Problem gar nicht tangiert, weil der Schädling doch gar nicht ins Intranet gelangen kann. Für die ist dieses eilige Handeln also gar nicht gedacht, sondern nur für die Internet-Leute. Und da gilt das von mir Gesagte.
Traurig, aber leider Realität. Und im Intranet werden viele Dinge genutzt, die nur der IE kann. Da kann man nicht mal so eben auf einen anderen Browser wecheln.
Ja, aber das ist dann eigentlich firmeninterne Software und die interessiert den Kunden auf der Straße überhaupt nicht.
Manchmal muss man jedoch Kompromisse eingehen.
Da stimme ich Dir zu, aber ein Kompromiss gilt ja nur so lange, wie alle Seiten damit zufrieden sind. Wenn sich aber die Gewichtung verschiebt, z.B. weil immer mehr Schaden durch solche Lücken angerichtet wird, dann muss sich auch der Kompromiss verschieben. Und genau das ist ja mein Gedankengang, dass man vielleicht durch eine schnellere Veröffentlichung hier das bisherige Gleichgewicht, das zwar den Firmen gefällt, aber den Usern eine stagnierende Sicherheit auf mäßigem Niveau bringt, ein klein wenig verschieben kann, um endlich mal wieder die Firmen zu einer neuen Initiative zu zwingen. Klar gefällt das den Firmen nicht. Aber ich will keine Lösung, die billig ist und niemand weh tut, sondern ich will eine Lösung, die *jetzt* mehr Sicherheit bringt, um in Zukunft dann besser gewappnet zu sein. Denn dann wären die Kosten definitiv höher.
Deine Frau ist aber nicht gerade repräsentativ für große Firmen, sorry.
OK, wenn Du nur Firmenkunden meintest, dann sieht das anders aus. Andererseits bleiben solche Fälle, wo man wegen dem Vendor Lock-in zwangsweise bei einem Produkt (hier IE) bleiben musste, durchaus in Erinnerung und können bei späteren Entscheidungsfindungen durchaus eine Rolle spielen, z.B. wenn mal wieder das nächste größere OS-Update ansteht.
Ich kenne nicht einen meiner Kunden, der den Firefox oder einen anderen Browser einsetzt. Abgesehen davon, dass der Firefox (um bei dem Beispiel zu bleiben) auch seine Sicherheitslücken hat (siehe
hier)
Stimme ich zu, auch der Firefox hat Lücken. Aber hier gilt eben wieder der Vorteil des kostenlosen. Wo ich nichts zahlen muss, darf ich auch keine Ansprüche stellen. Mir steht es ja frei, das Produkt zu nehmen oder nicht. Aber mal ganz abgesehen davon, dafür, dass ein solches kostenloses Produkt also theoretisch gar nicht so toll sein müsste, steht es in der Praxis erstaunlicherweise dem kostenpflichtigen Produkt von Microsoft nicht wirklich nach.
Hast Du mal versucht einen Firefox auf 10.000 Maschinen zu installieren? Einer meiner Kunden hat das versucht. Nur so viel: Er ist wieder zum IE zurückgekehrt.
Das Installieren auf 10.000 Systemen ist nicht die Aufgabe des Internetbrowsers, sondern die Aufgabe des Betriebssystems oder sogar eines speziellen Installationsprogramms. Und warum klappt das mit Firefox unter Windows nicht? Weil Microsoft sich weigert, diesen Browser in den dort verfügbaren Verteil- und Update-Mechanismus einzubinden. Da kann aber Firefox nichts dafür. Nimm ein anderes System wie Linux, wo Firefox anständig unterstützt wird, dort geht das mit dem Firefox auf 10.000 Maschinen butterleicht, genauso wie der Rest des Systems. Also nicht aus einem Mangel von Windows auf einen Mangel von Firefox schließen. Das ist unfair!
Habe ich das getan? Das habe ich von Vista behauptet, aber nicht vom IE, das musst Du verwechselt haben.
Du hast gesagt:
"Und wenn die anderen Browser auch funktionell so weit wären, dann hätten sie die gleichen Probleme, glaub' mir." Das impliziert für mich, dass Du glaubst, der IE sei weiter als andere Browser. Und das habe ich angezweifelt.
Selbst wenn ich das getan hätte, dann kommt es immer auf die Betrachtungsweise an:
Nur die Acid-Kompatibilität macht noch keinen guten Browser aus.
Sondern? Mit diesem Test wird nachgeprüft, wie gut sich der Browser an den Standard hält. Und das ist für mich ein sehr praxisrelevanter Test. Denn wie soll man Webseiten schreiben, wenn man sich nicht an den Standard halten kann? Wenn man jedesmal für den IE eine Extrawurst braten muss? Das nervt doch nur.
Und ob mein Browser jetzt Tabs anzeigen kann oder nicht, macht in einer Firma auch nicht wirklich viel her.
Komischerweise hat der IE7 das aber gleich mal als erstes nachimplementiert. Und ich nutze Tabbed-Browsing sehr oft, *auch* in der Firma.
In einem Großunternehmen zählen folgende Dinge (Die Reihenfolge der Prioritäten legt jedes Unternehmen selbst fest):
1. Funktionalität bildet das ab, was das Unternehmen benötigt und am besten nicht mehr
Dann ist aber der IE nicht das beste Mittel der Wahl, denn er bildet viel mehr ab, als die meisten Firmen benötigen. Und viel der Funktionen, die Du für die Firmen als so wichtig bezeichnest, sind einfach die Folge davon, wenn man sich einmal auf die MS-Schiene eingelassen hat. Dann wird man eben gezwungen, mit gewissen Mechanismen zu arbeiten. Und dadurch wird man als weitere Folge eben gezwungen, den IE zu benutzen, weil der diese Features wie ASP u.ä. alleine nur kann. Ob das aber insgesamt notwendig ist, oder ob man nicht auf einem anderen Wege mit weiter verbreiteten und standardisierten Methoden, die auch andere Tools/Browser können, auch auskäme, ist noch sehr fraglich.
2. Einfache Anpassbarkeit
Also da kann der Firefox mit seinen Add-ons locker mithalten.
3. Schnelles und einfaches Deployment
Wie gesagt, das ist Aufgabe des Betriebssystems, nicht des Browsers. Dieser Punkt fällt für mich also komplett weg.
4. Zuverlässiger Support
Sehe ich bei Microsoft auch keinen Vorteil. Großunternehmen würden beispielsweise bei einem Linux auch ein supportetes Produkt kaufen, z.B. von IBM oder Red Hat oder Montavista oder Sun oder wem auch immer und dann haben sie genau die gleichen Vorteile. Und selbst wenn es nur um den Internetbrowser ginge, frage ich mich, ob man da bei Microsoft tatsächlich schneller und zuverlässiger Support bekommt als bei einem OpenSource-Projekt wie Firefox. Da geht so ein Bugfix meist auch ratzfatz.
5. Vorausplanbarer Lifecycle
Auch hier sehe ich den Lifecycle der OpenSource-Produkte eher im Vorteil. Im Gegenteil, wenn MS was abkündigt, dann kann man sich drehen und wenden wie man will, man kann es nicht mehr weiter benutzen. Das heißt der Lifecycle ist dort sehr streng zeitlich begrenzt. Bei Open-Source gilt diese Beschränkung nicht. Und bei neuen Versionen ist der Prozess bei OpenSource mindestens genauso überschaubar wie bei Micorsoft, ja ich würde sogar behaupten, man weiß noch mehr darüber als bei einem Closed-Source-Produkt wie dem IE. Bei Firefox wird jetzt schon diskutiert, was in Version 4 und zukünftigen Versionen eingebaut werden soll. Und man kann sogar aktiv mit eigenen Vorschlägen teilnehmen oder gar mit Manpower aktiv daran mitwirken. Bei MS bekommt man hingegen irgendwann ein fertiges Produkt vor die Nase geknallt und das muss man nehmen. Einfluss hat man da recht wenig drauf. Und da willst Du mir nun erzählen, dass dennoch der MS-Prozess vorausplanbarer ist? Das kann ich beim besten Willen nicht nachvollziehen.
Die Zertifizierung ist nocht nicht abgeschlossen, wird aber kommen.
Für mich ist das allerdings überhaupt nicht ausschlaggebend. Nur das ein OS EAL4+ zertifiziert ist, heißt nicht, dass es automatisch sicher ist. Es gibt zu jeder Zertifizierung eine genaue Anleitung, wie das System aufgebaut und betrieben werden muss, um diese Sicherheit auch zu gewährleisten.
Hast Du Dir mal ansatzweise durchgelesen, was da alles gemacht werden muss?
Total Realitätsfremd. Das setzt kein Kunde so ein. Also wieder mal alles zu synthetisch, keinerlei praktischen Nutzen.
Das sei dahingestellt. Ich will da jetzt auch nicht tiefer drauf eingehen, es sollte nur zeigen, dass es mit der um Lichtjahre besseren Sicherheit von Vista bezüglich anderer Betriebssysteme nicht so weit her ist, wie Du im ersten Moment behaupten wolltest.
Ja, Du hast Recht. In der RTM hat man es mit der UAC etwas übertrieben, aber in der SP1 Version hat man nachgebessert. Jetzt demnächst mit SP2 wird es wieder weiter verbessert werden.
Wie war das doch gleich nochmal mit der Einführung von Software im Beta-Stadium als Final Release, was ich in meinem letzten Beitrag monierte?
Trotzdem ist das Einführen der UAC mehr als sinnvoll.
Auch hier bei der Userverwaltung war nebenbei bemerkt Linux dem Windows schon Jahrzehnte lang voraus, weil es von Anfang an als Multiuser-System konzipiert war. Insofern ist das nur ein Aufholen von Windows, und nichts weltbewegend Neues, mit dem sich Microsoft nun nennenswert brüsten kann.
Das macht aber Microsoft ganz gerne, also alte Hüte als Weltneuheit zu verkaufen. Als vor ein paar Jahren der Terminalserver von Microsoft raus kam, war mir zuerst nicht ganz klar, was das soll. Dann fragte ich einen Kollegen, was das eigentlich ist. Und er erklärte mir es lang und breit und immer mehr verstand ich dann endlich, dass damit Microsoft nun etwas als super duper neues Feature verkaufte, was unter Unix schon seit 30 Jahren und bei Linux dann auch Gang und Gäbe war: dort gibt es schon seit Anbeginn X-Terminals und jeder X-Server hat diese Funktion so ganz nebenbei eingebaut, was bei Microsoft mit einem Terminalserver teuer gekauft werden muss. Das habe ich in den 80er-Jahren schon an der Uni ganz alltäglich genutzt. Das musste ich darum erst mal verdauen, dass es bis dahin mit Windows gar nicht möglich war, auf dem einen Arbeitsplatz die Ausgabe eines Programmes zu sehen, das auf einem anderen Rechner ausgeführt wurde.
Also die Variable %ProramFiles% gab es schon bei Windows 95, evtl. sogar noch länger.
Sag ich ja. Und es dauerte Jahre, bis sie genutzt wurde. Immer wieder gab es Programme, die nach "Program Files" installieren wollten. Also war man aufmerksam, und sobald dieser Name bei der Installation auftauchte, war Vorsicht geboten und das Ändern des Zielordners angesagt. Und jetzt, unter Vista, taucht der Name auch ständig wieder auf. Wollen Sie nach "Program Files" installieren? Aus alter Gewohnheit denke ich nein, und will mit dem Fileselektor ein anderes Verzeichnis suchen. Ich wähle "Programme" aus und kehre zurück und wieder fragt mich die Installation, ob ich nach "Program Files" installieren möchte. Hallo? Ich habe doch gerade "Programme" gesagt, wieso werde ich nun schon wieder nach "Program Files" gefragt? Wie kommt das? Nun, weil an dieser Stelle der Systemname durchkommt. Wenn ich "Programme" auswähle, dann sieht das Programm intern "Program Files" und liest mir das dann auch so vor. Das ist doch völlig verwirrend und alles andere als intuitiv.
Ja, wenn man ein multilinguales Betriebssytem schreiben will, dann geht es leider nicht anders.
Doch, Du hast es doch gerade selbst gesagt, über die entsprechende Environmentvariable oder einen anderen sinnvolleren Mechanismus. Aber eine Datei anders anzuzeigen, als sie tatsächlich heißt, das öffnet doch allen möglichen fiesen Tricks Tür und Tor, wie z.B. Rootkits, die damit locker ihre Namen verbergen können. Und wenn man von einem anderen System aus auf diese Files zugreift, sieht man auch wieder nur die Systemnamen. Also das ist gelinde gesagt eine der dummsten Ideen, die sich Microsoft in den letzten Jahren hat einfallen lassen. Das ist Security-Risk-by-Design.
Zum Ersten: Firmenkunden haben ein Downgrade-Recht, d.h. sie brauchen sich nicht XP dazukaufen, sondern sie kaufen einfach die neueste Lizenz (Vista oder Server 2008) und installieren dann wenn sie wollen ein älteres System (XP oder Server 2003). Das geht bei Volumenlizenzverträgen.
Du siehst das immer aus der Großkundensicht. Die haben viele Probleme nicht, die kleinere Firmen oder Privatleute aber sehr wohl haben. Diese Großkunden sind aber nicht die Durchschnittsuser.
Zum Zweiten: Firmenkunden migrieren deswegen nur langsam auf Vista, weil viele ihrer Anwendungen derart schlecht geschrieben sind, dass sie nicht mehr laufen. Das kann z.B. daran liegen, dass sie ins %ProgramFiles%-Verzeichnis schreiben wollen, was jetzt nicht mehr geht oder dass sie Windows-DLLs austauschen wollen, was nicht mehr geht.
Ja und? Wer muss sich dann Gedanken machen? 1000 Firmen oder Microsoft? Ich bin fest davon überzeugt, dass die Vista-Statistik für Firmen eigentlich furchtbar aussieht, weil kaum eine Firma wirklich Vista einsetzt und stattdessen den Downgrade nutzt. In die Vista-Verkaufszahlen sind diese Rechner aber sehr wohl eingegangen. Aber da lügt sich Microsoft in die eigene Tasche. Nun gut, das kann mir ja egal sein.
Ich wiederhole mich mal: Jede Software, die korrekt für Windows 2000 nach den Software Guidelines geschrieben wurde, die läuft auch heute einwandfrei unter Vista.
Warum läuft wohl selbst Office 97 unter Vista und andere deutlich neuere Software auch heute noch nicht?
Office 97 ist ein ganz schlechtes Beispiel. Das nutzte jede Menge inoffizieller Features, die für andere Software mangels Dokumentation Tabu waren. Dadurch hat es mir seinerzeit schon so manchmal einen Win98-PC zum Komplettabsturz gebracht, wo bei anderen Programmen sich nur der Prozess aufgehängt hätte.
Und was die Guidelines angeht. Microsoft hält sich doch selbst oft nicht an die Gepflogenheiten, die unter Windows üblich sind. Wenn mich irgendeine Software nicht nach einem Zielverzeichnis fragt, sondern schnurstraks nach C: installiert, dann sind das Microsoft-Programme. Wenn es irgendwelche Programme gibt, die sich zwar installieren, aber nicht mehr deinstallieren lassen, dann sind das Microsoft-Programme. Stichwort DirectX. Steht das auch so in den Installations-Guidelines drin? Kann ich mir nicht vorstellen. Also nicht mit Steinen werfen, wenn man selbst im Glashaus sitzt.
Hier sind wir absolut einer Meinung.
Hast Du einen Vorschlag, wie man die chinesiche Firma zur Verantwortung zieht?
Ob das nun eine chinesische Firma ist oder eine russische oder eine deutsche, das ist letzendlich egal. Es gibt keine Vorschrift, wie sich so eine Firma verhalten soll, sondern es sind sozusagen nur Gentlemen-Agreements, dass man sich ruhig verhält und den Bug an den Hersteller meldet. Und das scheint nicht zuverlässig zu funktionieren. Klar kann ich auch niemand dazu zwingen, etwas zu veröffentlichen. Aber schau Dir mal den Unterschied im Prozess an:
Auf der einen Seite: ich finde ein Problem, ich veröffentliche das Problem.
Auf der anderen Seite: ich finde ein Problem, ich schaue, ob schon jemand anderes das Problem gefunden hat. Wenn nein, an wen muss ich mich wenden? Wenn ja, wie ist der aktuelle Stand der Bearbeitung. Und ist schon eine angemessene Zeit vergangen, seit der Fehler gemeldet wurde? Wie bekomme ich das überhaupt raus, wenn es doch im Geheimen gemeldet wird? Darf ich schon veröffentlichen? Oder soll ich mal beim Hersteller nachmahnen? Oder bei dem nachfragen, der die ursprünglichen Meldung gemacht hat? Eventuell muss ich es dann doch irgendwann veröffentlichen, spätestens, wenn der Hersteller einen Patch parat hat. Oder wenn der Hersteller sich nicht rührt. Denke ich dann aber überhaupt noch an das Problem?
Mal ehrlich, welches dieser beiden Verfahren bietet mehr Chancen für Fehler?
Ich werde mal den CIOs meiner Kunden diese These präsentieren und fragen, ob sie nicht hierauf ihr Geschäft aufbauen wollen.
Nee, mache ich lieber nicht, dann fliege ich wohl raus...
Nun, das ist eben ein anderes Geschäftsmodell. Jedes hat seine Vor- und Nachteile. Die Verpflichtungen, die man eingeht, wenn man etwas gegen Geld verkauft, sind eben anders als bei einem Produkt, das verschenkt wird.
Mir geht es hier aber gar nicht darum, Microsoft so an den Karren zu fahren, eigentlich verteidige ich nur die Objektivität und relativiere ein paar aus meiner Sicht zu MS-lastige Aussagen. Ich könnte aber vergleichbare Listen mit Mängeln auch in anderen Produkten oder in Linux aufzählen. Ich nutze Windows und Linux parallel und finde beides nicht schlecht. Letztendlich bin ich da eher emotionslos, ich will einfach nur gerne gut funktionierende Software einsetzen, und das darf auch gerne was kosten, wenn es dann entsprechend besser ist. Wenn in Linux was nicht tut, rege ich mich genauso drüber auf und verfluche es, wie bei Windows.
Ich finde jeder, der ordentliche Software abliefert, soll seinen Marktanteil bekommen. Nur muss sich eben eine Firma, die Geld für ihre Produkte verlangt, schon andere Fragen stellen lassen, als eine Firma, die das Produkt für lau hergibt. Auch was die Sicherheit angeht.
Mein Frage ist mit diesen Beiträgen hier, wie das in der Zukunft weiter gehen soll. Die Anzahl der Exploits nimmt zu, gleichzeitig wird die Schadsoftware immer besser gemacht und selbst Profis haben manchmal Probleme, Virenmails zu erkennen oder können genauso wenig den Phishing-Versuchen entgegensetzen wie jeder andere auch. Man folgt nun mal einem Link durch draufklicken und gibt ihn nicht jedes Mal neu in die Adresszeile ein. Und wenn da irgendwo ein Nicht-ASCII-Zeichen drin steckt und man dadurch auf der falschen Webseite landet, dann kann das jedem passieren. Oder wenn man auf einer seriösen, aber dennoch durch SQL-Injection infizierten Webseite surft, dann ist da niemand vor Schaden gefeit.
Sollen wir das weiterhin akzeptieren und alles so weiter laufen lassen wie bisher? Oder muss man sich nicht mal so langsam überlegen, ob man nicht was ändern kann. Und darum habe ich ja diese Frage, Exploits schnell veröffentlichen oder nicht, zur Diskussion gestellt. Weil dies wäre aus meiner Sicht ein Weg, hier mal etwas Bewegung in die Sache zu bringen. Klar gefällt das den Herstellern erst mal nicht, aber wem muss es objektiv gesehen nützen? Den Herstellern oder den Endusern? Ich denke doch eher den Endusern.
Sorry für das lange Posting, aber bei so interessanten Themen kann ich mich nicht bremsen.
Gruß,
Hagge