Die bunte Seite: Artikel aus dem Heise-Newsletter zum Ablegen und Merken …-.

 | 
Home | 
Beruf | 
Computer | 
Referenz | 
Farbmetrik | 
Umwelt | 
QM-Leistung | 
Programmieren | 
CallCenter | 

  meine Link-Sammlung nach Themen  

  statt zu zitieren, ist es besser einen LINK zu setzen  

Tele-Talk direkt 24.06.2003

HB, dri, S. 15     In Deutschland gibt es mit 50,1 Prozent mehr Menschen, die das Internet nutzen als Online-Verweigerer. Das berichtet das Handelsblatt unter Berufung auf eine Umfrage von TNS Emnid. Jeder zweite Arbeitssuchende nutze das Internet auch zur Stellensuche. Die Bundesanstalt für Arbeit werde daher bis zum Jahresende 13.000 Internetzugänge für Arbeitslose einrichten. ©2003 telepublic-Verlag / Alle Rechte vorbehalten

Meldung vom 25.06.2003 14:51

Etwas Licht in den Dschungel der E-Learning-Lernumgebungen auf dem deutschen Markt will eine Studie des Fraunhofer Instituts für Arbeitswirtschaft und Organisation bringen. Die online kostenlos verfügbare Auswertung einer Umfrage unter 32 Anbietern von Learning Management Systemen (LMS) und Learning Content Management Systemen (LCMS) führt zunächst in das Thema ein und erklärt die Funktionen von LMS/LCMS einschließlich Kommunikationsmöglichkeiten und E-Business-Unterstützung. Ein weiteres Kapitel gibt Tipps zur Auswahl einer technischen Infrastruktur für die betriebliche Weiterbildung mit neuen Medien. Der Anhang listet Übersichten mit Angaben zu 26 Anbietern und ihren Produkten auf. (anm/c’t)

Tele-Talk direkt 23.06.2003

Zwei Drittel aller europäischen Unternehmen verzeichnen Profitabilitätseinbußen durch falsche oder unvollständige Daten. Das hat jetzt eine Umfrage von SAS unter 500 Marketingleitern von Versicherungen, Banken und Telekommunikationsunternehmen in Deutschland, Frankreich, Großbritannien, Italien und den Niederlanden ergeben. Sie wurden befragt, ob und in welchem Ausmaß die Datenqualität die Investitionen in Marketingkampagnen beeinflusst. Zwei Drittel der Befragten gaben an, dass die Zufriedenheit und Treue ihrer Kunden durch mangelhafte Datenqualität leidet. In Deutschland sind die Zweifel an der Datenqualität am größten: Nur 18 Prozent der deutschen Teilnehmer an der Studie vertrauen auf die Richtigkeit und Vollständigkeit ihrer Informationen. 23 Prozent der Marketingleiter aus Deutschland – die höchste Zahl in Europa – schätzen, dass zwischen 21 und 30 Prozent ihrer Daten nicht korrekt sind. Auch bei den Auswirkungen der schlechten Datenqualität liegt Deutschland an der Spitze: 47 Prozent der Befragten gaben an, dass sie Beschwerden von Kunden über für sie irrelevante Marketinginformationen erhalten.

Meldung vom 30.06.2003 12:01

Die 50 größten Städte betreiben zwar eine Homepage, auf E-Mail-Anfragen liefern jedoch nur 17 von ihnen hilfreiche Informationen. Die Hälfte der Verwaltungen lassen die Bürger zudem länger als zwei Tage auf eine Antwort warten. Zu diesem Ergebnis kommt eine Untersuchung der SirValUse Consulting. Für 20 Städte ist ihre Internet-Präsenz eher ein Aushängeschild als eine Bürgerservice-Plattform. Daher fehlen Funktionen wie beispielsweise ein Anmeldeformular zum Download. Dabei wären 90 Prozent der Bürger bereit, den Gang zum Amt online zu erledigen. Die EU gibt im Aktionsplan eEurope 2005 vor, dass ab 2005 alle grundlegenden öffentlichen Dienste online verfügbar sein müssen.

Drei der 50 größten deutschen Städte halten überhaupt keine elektronischen Musterformulare im virtuellen Rathaus bereit, haben die Unternehmensberater festgestellt. Einige Städte, die Formulare im Netz haben, verwirren die Nutzer: Bei jeder zweiten Stadt sind die Formulare nur nach Kategorien abgelegt. In einer alphabetischen Übersicht lassen sich die Formulare erheblich einfacher finden. Diese wird aber nur von 18 untersuchten Städten angeboten.

Die Antwortzeiten der virtuellen Rathäuser auf E-Mail-Anfragen lassen zu wünschen übrig. Acht Verwaltungen antworteten gar nicht auf die Anfrage im virtuellen Rathaus Nur die Hälfte der angeschriebenen Städte schaffte eine Reaktion innerhalb von zwei Tagen nach der Mail-Anfrage, fünf Städte benötigten mehr als eine Woche für die Hilfestellung. Zudem lässt die Qualität der Antworten zu wünschen übrig, meinen die Unternehmensberater. Ein Drittel der Antworten haben die Marktforscher als hilfreich bewertet, da sie die genaue Internet-Adresse des Online-Formulars enthielt oder detailliert den Weg zum Formular auf dem Stadtportal beschrieben. Wenig hilfreich waren die Antworten von 14 Prozent der Städte. Sie verwiesen in der Mail auf die Homepage der Stadt, von der schon die Anfrage gesendet wurde.

Quelle: SirValUse Consulting(anw/c’t)

  nach oben  

Meldung 02.07.2003 11:41

Internet Security Systems (ISS), Hersteller von Sicherheitssoftware, stellt eine Liste mit den 31 gefährlichsten Schwachstellen in IT-Systemen vor. Die Liste enthält aktuelle Sicherheitslücken in verschiedenen Produkten, darunter Microsofts Internet Information Server, den Webserver des Open-Source-Projekts Apache, SSH oder MS-SQL.

Der Catastrophic Risk Index (CRI) soll Unternehmen in die Lage versetzen, die größten Bedrohungen und Risiken zu erkennen und die richtigen Prioritäten zu setzen, um sie zu beseitigen. Nach Angaben von ISS haben Kunden in der Vergangenheit, bei monatlich bis zu 300 neuen Meldungen von Schwachstellen, den Überblick verloren. Daher hätten sie um eine Zusammenfassung der wichtigsten Sicherheitslücken gebeten. Der CRI soll auch in den Schwachstellenscanner Internet Security Scanner von ISS integriert werden, der dann nur nach diesen Sicherheitslöchern sucht.

ISS sieht seinen Index als Ergänzung zu der bereits vom FBI und SANS etablierten Top-20-Liste. Sie führt zehn Schwachstellen unter Windows und zehn Schwachstellen unter Unix auf. Der Schwachstellenscanner SARA, den auch heise Security auf den Tool-Seiten vorstellt, kann anhand dieser Liste Server untersuchen und entsprechende Reports erstellen. (dab/c’t)

Meldung vom 09.07.2003 16:16

Schon die Wahl eines einprägsamen und rechtlich unangreifbaren Domain-Namens ist oftmals tückisch.

Diverse Recherchemöglichkeiten helfen, Namensgleichheit oder -ähnlichkeit zu vermeiden. Vorsichtshalber sollte man einige „Ausweich-Domains“ anmelden, um in Falle eines rechtlichen Angriffs die Webseite weiterbetreiben zu können.

Auch bei dem Setzen von Links ist Sorgfalt angebracht. Wer verlinkte Seiten auf rechtswidrige Inhalte überprüft und das Datum des letzten Besuches im Link vermerkt, dürfte jedoch auf der rechtlich sicheren Seite sein.

Fremde Marken- und Unternehmenszeichen sollten in den Keyword-Meta-Tags für Suchmaschinen nicht genannt werden.

Und wer fremde Texte oder Bilder veröffentlichen will, tut gut daran, Kontakt mit dem Urheber aufzunehmen und sich die Nutzungsrechte zu sichern. Verwendet man für die Gestaltung Inhalte von Grafik- oder Foto-CDs, sollte man im Voraus klären, ob diese per Lizenz für die freie Online-Nutzung zugelassen sind.

„Verstöße gegen die Preisangabenverordnung sind seit jeher ein beliebter Abmahnungsgrund. Daher sollten die genannten Preise die gesetzliche Mehrwertsteuer sowie sämtliche Preisbestandteile bereits enthalten“, … … …

Der vollständige Artikel inklusive iX-Website-Checkliste ist ab morgen in der aktuellen Ausgabe 08/2003 der iX und online zu finden. (ur/iX)

Meldung vom 10.07.2003 16:37

Auch im vierten Jahr des Fernabsatzgesetzes und anderthalb Jahre nach Inkrafttreten des Gesetzes über die rechtlichen Rahmenbedingungen für den elektronischen Geschäftsverkehr sind sich die Online-Händler nicht über deren Bestimmungen bewusst. Das hat die Studie „Top 10 der häufigsten Fehler von Online-Händlern“ von Trusted Shops ergeben. Dafür hat der Kölner Shop-Zertifizierer über 900 Prüfberichte seit dem Jahr 2000 ausgewertet.

Wer die Vorschriften nicht kennt, setzt sich erheblichen Risiken aus, heißt es in der Studie. Bei Vergehen drohten Abmahnungen der Verbraucherschutz- oder Wettbewerbsverbände. Wer als Online-Händler nicht aufpasse, tappe schnell in die Falle verlängerter Rückgabemöglichkeiten, selbst wenn die Kunden die Ware längst in Gebrauch gehabt hätten. Selbst renommierte Unternehmen wie Fleurop oder Amazon hätten schon unter den Folgen unwissentlicher Rechtsverstöße zu leiden gehabt.

Wer sichergehen will, dass die eigenen AGB (Allgemeine Geschäftsbedingungen) rechtmäßig und wasserdicht sind, kann sich bei Trusted Shops zertifizieren lassen. Der Shop-Zertifizierer bietet nach eigenen Angaben verständliche Handbücher und Formulierungshilfen an, die immer auf dem neuesten Stand sind.

Außerdem hilft die Website-Checkliste in der neuesten Ausgabe von iX Betreibern, nicht in rechtliche Stolperfallen zu tappen. Der vollständige Artikel Webcheck ist in der neuen Ausgabe von iX und online zu lesen; die Website-Checkliste gibt es als PDF zum Download. (ola/c’t)

Meldung vom 12.07.2003 15:17

Gemessen wurden mittels Elektromyogrammen die Aktionsströme in den jeweiligen Muskelpartien und zum anderen die Atmungsrate. Fast ausnahmslos konnten die Wissenschaftler bei ihren Probanden alsbald stärkere Verspannungen in allen oben genannten Muskelbereichen feststellen. Die meisten Teilnehmer waren sich der permanenten Anspannung sowie einer erhöhten Atmungsfrequenz nicht bewusst oder registrierten dies erst, wenn sich nach längerer Tipperei leichte Schmerzen auf Grund der Verspannungen einstellten.

Die Mitglieder einer Kontrollgruppe, welcher man die Messungen des Elektromyographen direkt präsentierte und die per Biofeedback auf die erhöhten Werte mit vorgelernten Entspannungsübungen reagierten, konnten damit sowohl die Muskelanspannungen als auch die Atmung wieder auf Normalmaß reduzieren.

Fazit der Untersuchung: Alle, die viel am Computer arbeiten, sollten, um chronischen Verspannungen oder dem Risiko einer Hyperventilation vorzubeugen, sich ihrer Muskelaktivitäten und ihrer Atmung bewusst sein und auf erhöhte Werte mit Pausen der Entspannung reagieren.
(ae/c’t)

Meldung vom 16.07.2003 17:55

Offenbar ungeachtet der lauernden Gefahren durch schlecht gesicherte Zugänge, verzeichnet der Bundesverband deutscher Banken (BdB) ein starkes Wachstum der online geführten Konten auf mittlerweile 30 Millionen. Im Vergleich zum Vorjahr entspreche das einer Steigerung um 50 Prozent. Vom Jahresende 2000 bis Ende 2001 habe sie nur rund 30 Prozent betragen. Seit Ende 1998 hat sich damit die Zahl der online geführten Konten nach Angaben des BdB vervierfacht.

Dabei seien die privaten Banken nach wie vor Marktführer: 12,4 Millionen Online-Konten bedeuteten für sie knapp 42 Prozent Marktanteil. Die Sparkassen folgten nach eigenen Angaben mit einer stark gestiegenen Gesamtzahl von 11,1 Millionen Online-Konten und einem Marktanteil von rund 38 Prozent. Volks- und Raiffeisenbanken führten nach Angaben ihres Verbandes inzwischen rund 4,8 Millionen Online-Konten (entsprechend gut 16 Prozent), die Postbank 1,3 Millionen Konten (entsprechend 4,5 Prozent).

Neben Kontostandsabfrage und der Ausführung von Inlands- und Europaüberweisungen gehöre auch die Einrichtung von Daueraufträgen zum Online-Standard-Service, so der BdB weiter. Vielerorts ließen sich sogar Kreditanträge online stellen. Auch Online-Brokerage, also der Kauf und Verkauf von Wertpapieren via Internet, gehöre zum selbstverständlichen Angebot im Netz. Alle online durchgeführten Transaktionen seien darüber hinaus gewöhnlich günstiger als in der Filiale.

Noch im April warnte die Stiftung Warentest, wer sich mit dem Internet nicht auskenne, solle vom Online-Banking besser die Finger lassen. Auf derlei Bedenken reagiert der BdB mit einer Broschüre zum Thema Online-Banking-Sicherheit, das Lernwillige sich als PDF von deren Homepage besorgen können. Alternativ kann man sich die Broschüre in gedruckter Form neben anderen Verbraucher-Infos online bestellen. (ola/c’t)

Meldung vom 16.07.2003 14:24

Mitarbeiter des Massachusetts Institute of Technology (MIT) arbeiten an einer Suchmaschine, die Menschen in Entwicklungsländern weitestgehend offline mit Informationen aus dem World Wide Web versorgen soll. Laut Angaben des Instituts richtet sich das Angebot an die Bewohner von Ländern, in denen überlastete Telefonleitungen, langsame Internetanbindungen und Internettarife in Höhe von zehn Prozent eines durchschnittlichen Monatseinkommens zur Normalität gehören.

Das Projekt mit der Bezeichnung TEK (Time Equals Knowledge) sieht vor, dass Informationssuchende nur kurze Zeit mit dem Internet verbunden sein müssen, um eine Suchanfrage an einen Server in Boston zu schicken. Dort durchsucht ein Programm das Internet nach den genannten Themen, speichert die Fundstellen und sendet sie am folgenden Tag in komprimierter Form an den Fragesteller zurück. Hinter dem Verfahren stehe die Erkenntnis, so Mitarbeiter des MIT im Gespräch mit der BBC, dass viele Ländern der Welt nicht in der Lage sind, ihren Bürgern einen ungestörten Zugang zur Informationsgesellschaft zu verschaffen. Den meisten Bürgern dieser Länder fehle es zudem an den nötigen finanziellen Mitteln für ausgedehnte Web-Streifzüge. Stattdessen hätten die Menschen aber deutlich mehr Zeit als die Bürger der Industriestaaten.

Derzeit befindet sich die Software im Alpha-Stadium. Nach Institutsangaben soll jedoch in zwei bis drei Monaten die erste Beta-Version zum Download bereitstehen. (em/c’t)

Meldung vom 16.07.2003 12:07

Das Free Network Project hat vier Monate nach der Vorgängerversion die Version 0.5.2 seiner Peer-to-Peer-Software Freenet zum Download bereitgestellt. Die aktuelle Version soll nach Angaben der Entwickler weniger Systemressourcen beanspruchen; zudem soll der Dateiaustausch dank verbesserter Routing-Algorithmen schneller vonstatten gehen.

Die Version 0.5.2 ist derzeit für Windows und Unix verfügbar. Die Windows-Version von Freenet arbeitet nach Angaben des Free Network Project am besten unter Windows 2000, XP oder NT, mit Abstrichen auch unter ME, 98 und 95. Zur Unix-Version machen die Entwickler keine Angaben. Voraussetzung zur Installation ist die Java Runtime Environment (JRE) 1.4.1 oder neuer. Für Windows ist ein Installationsprogramm verfügbar, das sowohl die Freenet-Software als auch die passende JRE-Version enthält.

Freenet ist ein freies, nichtkommerzielles Peer-to-Peer-Netzwerk, in dem die Benutzer frei und ungefiltert Informationen austauschen und damit etwaigen Zensurgelüsten entgehen können sollen. Statt einem zentralen Dienst, der alle Informationen sammelt, sind die Informationen im Netz verteilt. Der Client verschlüsselt die Daten zur Übertragung und leitet sie über andere P2P-Knoten zum eigentlichen Empfänger. Dadurch soll es extrem schwer werden, die Datenströme zurückzuverfolgen. Im Unterschied zu anderen Tauschbörsen entscheidet nicht der einzelne Teilnehmer darüber, welche Dateien er als Weiterleiter seinen Mitstreitern zur Verfügung stellt. Vielmehr bestimmt die Software anhand der Beliebtheit einer Datei, ob sie im lokalen Data Store gehalten wird oder nicht. (ola/c’t)

TeleTalk Meldung 17.07.2003

Derzeit sind rund 122 Millionen Europäer online – so die aktuelle Erhebung von Forrester Research. Das entspricht etwa 49 Prozent aller europäischen Konsumenten. In Spanien sind derzeit 8,9 Millionen Menschen online, in Frankreich 17,7 Millionen, in Italien 21,9 Millionen, in Großbritannien 26,4 Millionen und in Deutschland 32,9 Millionen. Das größte Wachstum an Internet-Nutzern gab es in Spanien mit 17 Prozent.

Meldung vom 18.07.2003 13:53

Mit den Schnäppchenfindern im Internet lässt sich einem Test von Verbraucherschützern zufolge tatsächlich bares Geld sparen. Die Preisdatenbanken blieben mit ihren Niedrigst-Angeboten durchschnittlich um 30 Prozent unter der Preisempfehlung des Herstellers, berichtet die Verbraucherzentrale Nordrhein-Westfalen.

Die laut Nielsen/NetRatings fünf meistbesuchten Schnäppchenfinder sollten bei jeweils fünf Produkten zeigen, wie weit sie die unverbindlichen Preisempfehlungen der Hersteller unterbieten können. Zudem suchten die Verbraucherberater auch aktuelle Sonderangebote von Quelle und Saturn durch die Web-Maschinen. Das Ergebnis: Bis auf eine Ausnahme brachten die Datenbanken stets einen niedrigeren Preis zu Tage. Dabei lag das Sparpotenzial im Durchschnitt bei rund 30 Prozent.

Beim Kauf einer neuen Marken-Waschmaschine könne sogar 51 Prozent gespart werden. Die Preise seien oft so niedrig, dass sich auch der Versand bei weiter entfernt liegenden Anbietern lohne. Um mit einiger Sicherheit das niedrigste Angebot ausfindig zu machen, sollten aber mehrere Preisvergleiche abgefragt werden.

Testsieger wurde bei den Verbraucherschützern guenstiger.de, deren Web-Rechercheure in den häufigsten Fällen das günstigste Angebot fanden. Weniger überzeugend schnitt für die Verbraucherzentrale dagegen kelkoo.de ab, fünfmal sei dieser Preissucher das Schlusslicht gewesen. (anw/c’t)

Meldung vom 21.07.2003 18:24

In China gibt es nun 68 Millionen Internet-Nutzer. Das hat laut Medienberichten das China Internet Network Information Center (CNNIC) ermittelt. Demnach wuchs die Zahl der Web-Surfer um 9 Millionen gegenüber Dezember 2002 und um 23 Millionen gegenüber Juni 2002. Im Oktober 1997, als das CNNIC zum ersten Mal eine Statistik vorstellte, waren gerade einmal 620.000 Chinesen online. Das Wachstumspotenzial scheint sehr groß, denn bislang haben lediglich etwa 5 Prozent der Chinesen einen Internetzugang.

Auch ist die Verweildauer der chinesischen Surfer im Internet länger geworden: Sie stieg von 9,8 Stunden je Woche auf nunmehr 13 Stunden. 9,8 Millionen Chinesen haben einen Breitband-Internetzugang, 4,9 Millionen gehen via ISDN ins Netz. Fast 40 Prozent der erfassten Internetznutzer sind 18 bis 24 Jahre alt, 40 Prozent sind weiblich und 60 Prozent nicht verheiratet. (anw/c’t)

ECIN-Meldung 23.07.2003

In zwölf Pilotkommunen in NRW wurden die häufigsten Geschäftsvorfälle vom Meldewesen bis hin zum Baugenehmigungsverfahren auf eine elektronische Bearbeitungsweise umgestellt.

Innerhalb des Gemeinschaftsprojekts e-Government NRW beteiligten sich unter Leitung des Städte- und Gemeindebundes NRW, zusammen mit den Kooperationspartnern Microsoft Deutschland und der Bertelsmann Stiftung zwölf Städte und Gemeinden aus NRW. Das Pilotprojekt umfasst acht Teilprojekte, die mit die häufigsten Geschäftsvorfälle in einer Kommune aufweisen. Die teilnehmenden Städte eröffnen nach Abschluss des Gesamtprojekts ihren Einwohnerinnen und Einwohnern, der Wirtschaft aber auch anderen Behörden die Möglichkeit, diese Verwaltungsverfahren online abzuwickeln. Bis zur Anpassung einiger Gesetze ist dies in bestimmten Teilprojekten allerdings nur eingeschränkt möglich. Hierüber liegt eine ausführliche, kostenfreie Dokumentation vor.

Darüber hinaus ist hierbei auch das e-Government Starter Kit entstanden. Diese modular aufgebaute e-Government-Plattform auf .net-Basis beinhaltet neben einem Basispaket (Benutzerverwaltung, Sicherheit etc.) schon jetzt zwei Fachverfahren: die einfache Melderegisterauskunft und die Beantragung von Personenstandsurkunden. Das e-Government Starter Kit kann ab dem Spätsommer 2003 über den Städte- und Gemeindebund NRW kostenfrei von seinen Mitgliedern bezogen werden. Zu einem späteren Zeitpunkt wird es auch Nicht-Mitgliedern gegen eine geringe Schutzgebühr zugänglich gemacht.

ECIN-Meldung 21.07.2003

Nach den üblichen, häufig übertriebenen Prognosen der letzten Jahre scheint nun Gewissheit einzukehren: Alle Zeichen deuten auf Wachstum im eLearning-Sektor.

Nicht nur Schulen und Universitäten sind gemeint, wenn es um eLearning geht. Auch Unternehmen sind in den Bereichen Aus- und Weiterbildung bereits sehr engagiert ins eLearning eingestiegen. Nach den Analysen der Experten von eMarketer liegen die Umsätze, die hier im vergangenen Jahr realisiert wurden, zwischen sechs und sieben Mrd. US$. Die Marktforscher von Cortona Consulting schätzen, dass bis 2010 allein in den USA und in Europa ein Marktvolumen von 50 Mrd. US$ erreicht werden wird. IDC prognostiziert die eLearning-Umsätze in der Aus- und Weiterbildung für das Jahr 2006 auf immerhin 23,7 Mrd.US$.

Als treibende Kraft bei dieser Entwicklung hat Ben Macklin von eMarketer die junge Generation ausgemacht, die mit Internet und Videospielen aufgewachsen ist. Er geht davon aus, dass eLearning zwar nie den traditionellen Klassenraum ersetzen wird, aber das Interesse an den Online-Optionen in dieser Gruppe besonders ausgeprägt ist. In diesen Zusammenhang fügt sich auch der von der American Society for Training and Development prognostizierte Anstieg der Trainingszeit, die via Internet absolviert wird: Ausgehend von 10,5 Prozent im Jahr 2001 sollen im nächsten Jahr bereits 25 Prozent erreicht werden.

Meldung chemie.de 16.07.2003

In der Technik ist es nicht selten unerwünscht, daß manche Flüssigkeiten von einer Oberfläche abperlen. Deshalb findet man zum Beispiel in der Gebrauchsanweisung einer Farbe oder eines Klebstoffes den Hinweis, daß die Oberfläche, auf die die Substanz aufgebracht werden soll, staub- und fettfrei sein muß. In manchen Fällen ist es sogar erforderlich, die Unterlage anzuschleifen oder mit einem Haftgrund vorzubehandeln. Ein anderes Beispiel: Die sehr dünne Schmierschicht in der Festplatte eines Computers, die zwischen dem Schreib-/Lese-Kopf und dem Speichermedium liegt, ermöglicht den dauerhaften Betrieb der Festplatte, da sie mechanischen Kontakt verhindert. Oder der Verbrennungsmotor: Die Schmierschicht Zwischen Zylinderwand und Kolben darf selbst bei den hohen für den Verbrennungsvorgang typischen Temperaturen nicht abreißen.

In diesen und zahllosen anderen Fällen ist es von großer Bedeutung zu wissen, warum dünne Flüssigkeitsfilme aufbrechen oder sich „entnetzen“, wie es fachsprachlich heißt. Mit diesen Vorgängen hat sich Dr. Ralf Seemann, Abteilung Angewandte Physik (Leiter Prof. Dr. Stephan Hermighaus) der Universität Ulm, auseinandergesetzt. Er untersuchte im Detail, wie ein hauchdünner Film des Kunststoffes Polystyrol von einem glatten Silizium- oder Siliziumoxid-Plättchen abperlt. Gegenüber Wasser ist Polystyrol recht zähflüssig, daher entnetzt sich der Kunststoff langsam. Der Vorgang kann einige Stunden oder sogar Tage dauern. In der dünnen Kunststoffschicht entstehen zunächst kleine Löcher, die sich allmählich vergrößern. Das Polystyrol sammelt sich in den Lochrändern an. Es bilden sich ringförmige Wulste, deren Größe ständig zunimmt. Sind die einzelnen Löcher so weit angewachsen, daß benachbarte Polystyrolränder einander berühren, verschmelzen sie. Von dem ursprünglichen Film bleibt nur ein Netzwerk aus Stegen übrig, die schließlich zu einzelnen Tröpfchen zerfallen.

Welche Bedingungen führen zur Entnetzung? Für das Aufbrechen extrem dünner Polymerfilme, die nur wenige zehn Nanometer dick und damit ungefähr zehntausendmal dünner sind als ein menschliches Haar, ging man bisher von zwei möglichen Ursachen aus: die Löcher bilden sich entweder in der Umgebung von Staubteilchen oder chemischen Verunreinigungen (heterogene Nukleation), oder sie entstehen spontan durch Verstärkung der thermischen Fluktuation der Filmdicke (spinodale Entnetzung).

Seemann hat den gesamten Entnetzungsvorgang vom Aufbrechen der ersten Löcher, über deren Wachstum bis zum Endzustand der Entnetzung detailliert untersucht und unter anderem neue Mechanismen der Lochbildung gefunden sowie neue Erkenntnisse zur Fließfähigkeit (Viskosität) dünner Polystyrolfilme gewonnen. Mit einem Rasterkraftmikroskop, das die Oberfläche mit einer sehr feinen Spitze abtastet, ist es erstmals gelungen, an hauchdünnen flüssigen Polystyrolfilmen, die auf Siliziumoxid-Plättchen aufgebracht waren, den Entnetzungsvorgang in Echtzeit zu beobachten. Aus den charakteristischen Lochabständen und der Zeitskala, auf der das Entnetzungsmuster entsteht, konnten die Viskosität des Flüssigkeitsfilms und die Stärke der Wechselwirkung zwischen dem Polymer und dem Substrat bestimmt werden. Dabei wurde für dünne Polystyrolfilme auf Siliziumoxid-Plättchen der Entnetzungsmechanismus eindeutig als spinodale Entnetzung identifiziert, womit die aus dem Jahr 1974 stammende Theorie von Eli Ruckenstein und Rakesh K. Jain erstmals quantitativ bestätigt werden konnte. Mit dem Wissen über den genauen Aufbrechmechanismus und dessen theoretischer Berechnung können nun sehr präzise Aussagen über die Stabilität von dünnsten Flüssigkeitsfilmen auf festen Unterlagen getroffen werden.

Ein Film, der stabil gegenüber thermischen Fluktuationen ist, kann nicht über den Mechanismus der spinodalen Entnetzung aufbrechen. Er kann nur über die heterogene Nukleation aufreißen. Seemann stieß aber noch auf eine weitere Möglichkeit: die Löcher können auch durch Verspannungen innerhalb des Polymerfilms verursacht werden. Diese Verspannungen sind allen aus Lösung aufgebrachten Polymerfilmen gemein und haben ihre Ursache in der langkettigen Polymergestalt. Ein Polymer ist aus vielen gleichen Einheiten aufgebaut, wobei die Kettenlänge ein Maß der tatsächlichen Länge des Moleküls im gestreckten Zustand ist. Verspannungen in Polystyrolfilmen treten mit steigender Kettenlänge verstärkt auf.

Im weiteren Verlauf der Entnetzung, wenn die Löcher bereits aufgebrochen sind, sammelt sich das Material in einem Randwulst ringförmig um die Löcher an. Aus der charakteristischen Form dieser Lochrandprofile und der Dynamik des Lochwachstumes lassen sich Rückschlüsse auf rheologische Eigenschaften von Polymeren auf kleinster Längenskala ziehen. Für Flüssigkeitsfilme, die sich wie eine ideale Flüssigkeit verhalten, fand Seemann zudem eine bis dahin unbekannte Form des Lochrandes, die unter geeigneten Bedingungen die Bildung von konzentrisch um das ursprüngliche Loch angeordneten Satellitenlöchern nach sich zieht.

Die Analyse des zeitlichen Ablaufs des Aufreißens führte zur Entdeckung einer Viskosität der hauchdünnen Polystyrolfilme, die von derjenigen des kompakten Materials stark abweicht. Die genaue Filmdickenabhängigkeit dieses anomalen Verhaltens konnte mit Hilfe optischer Dilatometrie (Messung der thermischen Ausdehnung) bestätigt und mit einem theoretischen Modell beschrieben werden. Im Vergleich zum Volumenmaterial Polystyrol, das z.B. als Material für Joghurtbecher oder CD-Hüllen begegnet, haben extrem dünne Polystyrolfilme eine millionenfach niedrigere Viskosität mit der Folge extrem höherer Beweglichkeit. Es ist zu erwarten, daß die von Seemann gewonnenen Erkenntnisse zu den Entnetzungsprozessen à la longue zum Beispiel Einfluß auf die Technologie verschiedenster industrieller Beschichtungsprozesse haben werden.
Quelle: Universität Ulm

Meldung 22.07.03-001

Die Marktforscher von Gartner wollen herausgefunden haben, dass 3,4 Prozent
der US-Haushalte bereits einmal Opfer von „identity theft“ geworden sind.

Meldung   Teletalk 24.7.03

Critical Path, Anbieter von Software für die Internetkommunikation, prösentiert ein neues Produkt für die Verwaltung von Passwörtern. Benutzer können damit vergessene Passwörter selbstständig neu einrichten. Unternehmen bietet die Software die Möglichkeit, Passwortrichtlinien zu definieren und zu implementieren. Eine systemübergreifende Passwort-Synchronisierung, die die Benutzeranmeldung erleichtert, sowie die Überwachung aller Passwortänderungen ist ebenefalls möglich.

Meldung   heise 23.07.2003 20:17

Besucher der Online-Präsenz des Harry Ransom Humanities Research Center der University of Texas in Austin haben nun Gelegenheit, in digitalen Faksimiles der orignalen Gutenberg-Bibel zu blättern. Dafür hat das Center sämtliche Seiten digitalisiert und in Übersichten, aber auch vergrößerten Detailansichten dargestellt. Das Harry Ransom Center kam 1978 in den Besitz der Gutenberg-Bibel, deren Wert auf 20 Millionen US-Dollar geschätzt wird.

Das texanische Exemplar sei bis ins 18. Jahrhundert in süddeutschen Klöstern in Gebrauch gewesen. Das Besondere an ihr seien Randnotizen und andere Anmerkungen von Mönchen. Sie hoben ausgiebig Textstellen hervor und korrigierten manche, so heißt es aus dem Ransom Center. Daher sei die texanische Ausgabe äußerst interessant. Demnächst soll auch eine CD-ROM mit Faksimiles in höherer Auflösung erscheinen.

Die texanische Website ist nicht die erste, auf der eine digitalisierte Version der Gutenberg-Bibel zur Ansicht gebracht wird. Die Niedersächsische Staats- und Universitätsbibliothek Göttingen nahm im Jahre 2000 das 600. Geburtsjahr Johannes Gutenbergs zum Anlass, sein Druckwerk im Internet und auf CD-ROM zugänglich zu machen. Daneben gibt es unter anderem Angebote der japanischen Universität Keio und der British Library in London.

Gutenberg und seine Mitarbeiter druckten in den 50er Jahren des 15. Jahrhunderts etwa 180 dieser 42zeiligen Bibel-Ausgabe, 150 auf Papier, 30 auf Pergament. Heute existieren weltweit noch 48 Exemplare, zwei davon im Besitz des Gutenberg-Museums zu Mainz, der Wirkstätte des „schwarzen Künstlers“. (anw/c’t)

Meldung   heise 23.07.2003 17:07

Fast jeder zweite Deutsche nutzt mittlerweile das Internet. Nach einer neuen Studie des Deutschen Instituts für Wirtschaftsforschung (DIW) geht knapp die Hälfte der Bevölkerung (47 Prozent) regelmäßig ins Netz. Innerhalb von acht Jahren sei die Zahl der Internet-Nutzer von 250.000 auf knapp 39 Millionen gestiegen, heißt es in der heute veröffentlichten Studie. Bis 2007 wird ein nochmaliger Anstieg auf 48 Millionen Nutzer erwartet.

Das Internet hat sich nach der DIW-Studie auch in den Unternehmen fest etabliert. Im vergangenen Jahr nutzten 62 Prozent der Firmen in Deutschland das Internet, mit weiterhin steigender Tendenz. Die Bedeutung des Internet als Wirtschaftsfaktor werde weiter zunehmen, so das Forschungsinstitut. Auch bei der Job-Suche seien gute Internet-Kenntnisse immer wichtiger. Zwischen den verschiedenen Altersgruppen gibt es dabei erhebliche Unterschiede: Knapp die Hälfte der Leute ohne Zugang zum weltweiten Datennetz sind älter als 60 Jahre.

Nach der DIW-Studie gibt es auch eine enge Wechselwirkung zwischen der Internet-Nutzung in der Wirtschaft und in den privaten Haushalten. Viele Internet-Nutzer seien im Beruf oder in der Ausbildung erstmals mit dem neuen Medium in Kontakt gekommen. Mittlerweile nutzten 50 Prozent das Internet nur zu Hause, 34 Prozent sowohl zu Hause als auch am Arbeitsplatz und nur 16 Prozent ausschließlich im Beruf.

Siehe dazu auch:

Meldung   heise vom 24.07.2003 12:26

Als zentrale Anlaufstelle für wissenschaftliche Literatur und Online-Fachinformationen haben jetzt 37 Bibliotheken, Forschungsinstitute und Fachinformationszentren ein fächerübergreifendes Internet-Portal eingerichtet. Unter dem Kunstnamen vascoda, der Assoziationen zu dem portugiesischen Seefahrer und Entdecker Vasco da Gama (1469 bis 1524) weckt, soll es Anfang August zur internationalen Bibliothekskonferenz IFLA den Betrieb aufnehmen.

Vascoda bündelt die in Deutschland mit öffentlichen Mitteln aufgebauten Informationsdienstleistungen der Wissenschaft unter einem gemeinsamen Internet-Zugang mit einer einfach zu handhabenden Suchmaschine. Die Benutzung ist unentgeltlich, auch wird ein Großteil der Informationen, die sämtlich aus geprüften Quellen stammen, kostenlos zu beziehen sein. Daneben sind aber ebenso Angebote von Verlagen und kommerziellen Datenbanken kostenpflichtig verfügbar. Die Abrechnung erfolgt in diesen Fällen über die Registrierungs- und Zugangsmechanismen der jeweiligen Anbieter.

An dem vom Bundesministerium für Bildung und Forschung (BMBF) und der Deutschen Forschungsgemeinschaft (DFG) geförderten Wissenschaftsportal sind unter anderem 23 Virtuelle Fachbibliotheken — wie MathGuide und ViFaPhys –, die vier großen Informationsverbünde EconDoc (Wirtschaft), GetInfo (Naturwissenschaft und Technik), infoconnex (Pädagogik, Sozialwissenschaften, Psychologie) und Medizin sowie die Elektronische Zeitschriftenbibliothek (EZB) an der Universitätsbibliothek Regensburg beteiligt. (Richard Sietmann) / (jk/c’t)

Heise-Meldung vom 06.08.2003 14:25

Der Standard für Nicht-ASCII-Domainnamen steht fest, verschiedene Anbieter wollen die neuen Domains noch in diesem Jahr auf den Markt bringen. Allerdings gibt es nicht nur technische Tücken wie verschiedene Tabellen für die zusätzlichen Zeichen in verschiedenen Ländern Europas. Auch wettbewerbsrechtlich ist das letzte Wort möglicherweise noch nicht gesprochen. Vor allem bei .com- und .net-Adressen gibt es ein Zweiklassensystem für Nutzer.

Ende vergangener Woche hat Webhoster Schlund/1&1 seinen Kunden mitgeteilt, dass sie sich ihre Umlaut-Domains nun vorbestellen können, erst einmal kostenfrei und ohne Garantie auf Erfolg. Ende September sollen die Domains dann in der zentralen Datenbank beim Exmonopolisten VeriSign/NSI eingetragen werden. Doch während Schlund wie die Mehrzahl der Registrare in Deutschland und Europa den endgültigen technischen Standard der Internet Engineering Task Force abgewartet hat, registrieren VeriSigns Hausregistrar NSI und 48 weitere Unternehmen schon seit zwei Jahren in einem anderen Standard: Die Nicht-ASCII-Domains werden mit RACE (Row-based ASCII Compatible Encoding) statt mit dem jetzt offiziellen Punycode in ASCII umgewandelt.

Kunden, die also brav auf den neuen Standard warten, können leicht den Kürzeren ziehen. Ein Blick in die Datenbank von VeriSign zeigt, dass gängige Namen wie Müller.com oder auch München.com bereits registriert sind. Chris Parente, VeriSign-Sprecher für den Bereich Naming Directory Services sagte gegenüber heise online: „Wenn Registrare bis zur Migration warten, dann könnten ihre Kunden in der Tat damit konfrontiert sein, dass die von ihnen gewünschten Adressen vergeben sind.“ Wer heute eine Nicht-ASCII-Domain registriere, sei in der Datenbank, bei der Migration werde lediglich umkodiert — von RACE nach Punycode, sichtbar durch das geänderte Domain Präfix von bq- auf xn-. Selbstverständlich rate er zur sofortigen Registrierung, betonte Parente.

Da VeriSign den offiziellen Start des neuen Standards vom 23. August auf den 28. September verschoben hat, bleibt noch viel Zeit, sich eine Domain zu sichern. Auch wenn das unter Umständen teurer wird. Man sei sich bewusst, so 1&1-Sprecher Michael Frenzel, dass es schwer sei, VeriSign noch aufzuhalten. „Ob jemand dagegen klagt, kann man schwer sagen.“

VeriSign unterläuft mit den RACE-Domains auch ein andere Regelung. Laut Aussage von ICANN-Sprecherin Mary Hewitt kann das Unternehmen keine Registrierung von Internationalisierten Domains (IDNs) vornehmen, solange es nicht die von ICANN im Juni veröffentlichten IDN-Richtlinien unterzeichnet. „VeriSign und ICANN stehen nach wie vor in Verhandlungen über die Bedingungen.“ Eine Reihe anderer Registries, wie Afilias für .info oder Public Internet Registry (PIR) für .org haben ICANNs Richtlinien bereits akzeptiert, nicht zuletzt, weil ihre Verträge mit ICANN sie dazu verpflichten.

PIR steckt dabei in einem nicht unbeträchtlichen Dilemma: Von VeriSign hat man rund 150.000 RACE-Domains übernommen, doch da VeriSign-Rechte an der Technik im Spiel waren, hat man das Projekt erst einmal gestoppt und die Domains auf Eis gelegt. Zwar will man versuchen, die Domains ins neue System zu retten, aber ganz sicher können die PIR-Kunden noch nicht sein, dass sie von ihrem Frühstart profitieren. Laut PIRs Vice President of Operations, Bruce Beckwith, sind auch noch eine Vielzahl technischer Fragen offen, vor allem kämpfe man sich als globale Registry durch Hunderte von Variationen für einzelne Zeichen, die es in verschiedenen Sprachen gibt.

Genau damit beschäftigen sich derzeit auch viele nationale Registries, auch die .de-Registry DeNIC, die den Zeichensatz mit den Kollegen in Österreich und der Schweiz absprechen will. Vorstandsmitglied Sabine Dolderer ließ auf Anfrage wissen, dass man derzeit dabei sei, „das Registrierungssystem soweit fit zu machen, dass es mit IDNs arbeiten kann“. Einen konkreten Termin für die Einführung von müller.de gibt es aber noch nicht. Den Hickhack bei den Registries für generische Top Level Domains beobachtet man nicht ohne Sorge: Auf der einen Seite sei VeriSigns Strategie samt des speziellen Plug-ins schon verständlich. „Ich sehe es aber auch mit einem weinenden Auge, da es natürlich nicht der ‚reinen Lehre‘ entspricht, nach der eine Registry sich auf den Kern der Registrierungen beschränken soll.“

Heise-Meldung vom 06.08.2003 12:22

Die Apache Software Foundation (ASF) will Suns J2EE-Spezifikation implementieren. Herauskommen soll ein Open-Source-Produkt von „Welt-Klasse“, das die Verantwortlichen unter der Apache-Lizenz verbreiten wollen. Die guten Beziehungen zu Sun erlaubten es, die J2EE-Implementierung von Sun zertifizieren zu lassen. Darauf wolle man auch hinarbeiten.

Wie der ASF-Vorsitzende Greg Stein am gestrigen Dienstag mitteilte, soll das Projekt den Namen „Geronimo“ tragen und auf den anderen Java-Projekten bei der ASF aufbauen. Auch wolle man eng mit Projekten wie Castor, JBoss, MX4J und OpenEJB zusammenarbeiten. Stein ruft alle interessierten Entwickler zur Mitarbeit auf. Wer mitwirken will, kann seine Code-Beiträge im Incubator einreichen. (ola/c’t)

Heise-Meldung vom 05.08.2003 16:20

Die Musikindustrie befindet sich seit ein paar Wochen in einer Offensive gegen Tauschbörsen. Just diese Phase hat sich die US-amerikanische Federal Trade Commission ausgesucht, um Tauschbörsen-Nutzer zu warnen. Allerdings nicht vordringlich vor den urheberrechtlichen Konsequenzen, sondern wegen Sicherheitsbedenken im Umgang mit Filesharing.

So rät die Handels- und Wettbewerbsbehörde in ihrem „Consumer Alert„, bei der Installation von P2P-Software mit Bedacht vorzugehen. Nutzer sollten vor allem darauf achten, welche Bereiche ihrer Festplatte anderen zugänglich gemacht werden sollen — nicht etwa persönliche Dokumente, Steuerabrechnungen oder andere sensible Daten. Anti-Virensoftware sollte ständig auf dem neuesten Stand sein und Eltern müssten ihre Kinder über Inhalte und Gefahren von Dateien und Software aus Tauschbörsen aufklären.

Die Fürsorge der Behörde geht aber noch weiter: Sie informiert über Spyware, die mit manchen Filesharing-Programmen einhergeht und rät zu Software, die in der Lage ist, Spyware zu erkennen und zu beseitigen. Auch sollten Tauschbörsen-Nutzer darauf achten, das Programm nach Ende einer Tauschsitzung endgültig zu beenden. Einige Software arbeite nämlich nach einem vermeintlichen Ende im Hintergrund weiter. Dies erhöhe das Sicherheitsrisiko, meint die FTC.

Angesichts ihrer massiven Kampagne gegen Tauschbörsen-Nutzer dürfte die Recording Industry Association of America (RIAA) zumindest irritiert sein über die staatlichen Ratschläge. Denn die geht nur in einem Satz auf die Copyright-Problematik ein: „Sie könnten urheberrechtlich geschütztes Material herunterladen und sich dadurch juristische Konsequenzen einhandeln.“ (anw/c’t)

ECIN-   13.08.2003

Den Kampf gegen die Flut der unerwünschten Werbemails hat sich die Anti-Spam-Task-Force (ASTF) auf die Fahnen geschrieben und versammelt unter diesem Pseudonym alles was im Provider-Geschäft in Deutschland Rang und Namen hat.

ECIN-   07.08.2003

Dass beim Geld bekanntlich alle Freundschaft aufhört und durch erhöhtes Misstrauen ersetzt wird, beeinträchtigt die Entwicklungen im Bereich Payment bereits seit Jahren. Zahlungssysteme kommen und gehen und Bestand hat nur das, was auch sonst in aller Welt bereits hinreichend erprobt wurde. Dennoch verfügt die Zunft nach wie vor über beharrliche Vertreter, die dem Angebot von Rechnung, Nachnahme & Co. gerne eine wettbewerbsfähige Alternative an die Seite stellen würden. Wer dabei derzeit die besten Chancen hat, verrät Ihnen unser aktueller Artikel.

Die Wahl der Zahlungsart spielt aus Sicht der Unternehmen bei der Optimierung der Zahlungsabwicklung eine besondere Rolle. Die Zahlungsart ist die konkrete Ausgestaltung des Ablaufes des eigentlichen Geldtansfers und ist eng verknüpft mit dem gesamten Prozess der Zahlungsabwicklung. Je nach Zahlungsart müssen bestimmte Prozessbestandteile bei der Zahlungsabwicklung genutzt werden oder können bei Zahlungen mit dieser Zahlungsart entfallen. Die daraus resultierenden Auswirkungen auf die Kosten des gesamten Prozesses der Zahlungsabwicklung werden den befragten Unternehmen durch die Angabe der ŁEinführung neuer Zahlungsarten“ als eine der wichtigsten Maßnahmen zur Senkung der Gesamtkosten der Zahlungsabwicklung bestätigt.

Dieser Beitrag stellt daher die aktuellen Zahlungsarten für Macropayment dar und untersucht auch die zu erwartende Entwicklung bei diesen Zahlungsarten. Weiterhin wurden die Anforderungen der befragten eCommerce Unternehmen an eine Zahlungsart zusammengestellt, um anschließend eine Bewertung aus Sicht der Unternehmen vorzunehmen. Es werden alle relevanten, derzeit in den befragten eCommerce Unternehmen praktizierten Zahlungsarten gegenüber gestellt, um möglichst alle Entwicklungspotenziale identifizieren und bewerten zu können.

Aktuelle Macropayment-Zahlungsarten

Nachfolgend ist der heutige und künftige Anteil der befragten eCommerce Unternehmen dargestellt, die eine bestimmte Zahlungsart bei ihrer Zahlungsabwicklung einsetzen. Diese Darstellung verdeutlicht dem Leser die vergangenen und gegenwärtigen Entscheidungen der befragten Unternehmen für oder gegen eine bestimmte Zahlungsart .Unter Micropayment wird in dieser Studie eine Zahlungsart verstanden, die für den Transfer von Klein- und Kleinstbeträgen, z.B. bis 5 EUR, unter wirtschaftlichen Gesichtspunkten geeignet ist. Als Macropayment werden dementsprechend alle übrigen Zahlungsarten bezeichnet.. Je niedriger der Zahlungsbetrag ist, umso unwirtschaftlicher wird in der Regel das Verhältnis zwischen den Kosten der Transaktion und dem erzielten Umsatz mit dieser Transaktion. Insbesondere bei Macropayment-Zahlungsarten beinhalten die Kosten des Geldtransfers von einem Kundenkonto bankbedingt fast immer fixe Komponenten pro einzelner Transaktion. Eine Micropayment-Zahlungsart bündelt daher üblicherweise mehrere Zahlungsbeträge, umgeht die Bankkosten oder senkt die Kosten pro Transaktion auf eine andere Art.

Als die am häufigsten von den befragten Unternehmen eingesetzte Macropayment-Zahlungsart ist in Abbildung 1 die Rechnung mit einem Anteil von knapp 70 Prozent zu erkennen. Obwohl die Rechnung wegen des hohen manuellen Anteils und der möglichen Zahlungsausfälle eine der höchsten Gesamtkosten der Zahlungsabwicklung pro Transaktion verursacht, ist sie gleichfalls die von den Kunden am ehesten akzeptierte Zahlungsart.

Maßnahmen, die die Nutzung anderer Zahlungsarten durch den Kunden zum Ziel haben, dürften sich daher für fast alle befragten Unternehmen lohnen. Interessanterweise kommt nach der Rechnung die Kreditkarte mit 57 Prozent der Unternehmen noch vor der Nachnahme und der Lastschrift mit jeweils 52 Prozent sowie der Überweisung/Vorkasse mit 50 Prozent der befragten Unternehmen. Interessant deshalb, weil die Kreditkarte als Zahlungsart in der Kundenpräferenz weit hinter der Nachnahme liegt. Unterstellt man wieder das zuvor ermittelte Hauptmotiv ŁReduktion der Transaktionskosten“ ist dies aus der Sicht der Unternehmen mit den hohen Nachnahme-Kosten der Paketzusteller zu erklären. Die regulären Nachnahmegebühren z.B. der Deutschen Post liegen zurzeit mit insgesamt etwa 5 EUR pro Transaktion erheblich über den Kosten der Kreditkarten-Zahlung, selbst wenn man eine durchschnittliche Transaktionshöhe von 100 EUR annimmt. Die hohen Kosten erklären auch die geringste künftige Zunahme der Nutzung der Nachnahme von den befragten Unternehmen.

Weitere Zahlungsarten wie Online-Überweisung, Kreditkarten mit Authentifizierung oder Online-Kredite bzw. Online-Leasing werden heute von weniger als 15 Prozent der befragten Unternehmen eingesetzt, haben aber im Vergleich zu den anderen Zahlungsarten große Wachstumsaussichten. Der größte Zuwachs ist bei der Online-Überweisung zu erwarten. Bei der Online-Überweisung nutzt der Kunde das vorausgefüllte Überweisungsformular des Onlinebanking-Moduls seiner eigenen Bank. Da der Kunde eine Überweisung nicht rückgängig machen kann sinkt das Zahlungsausfallrisiko erheblich. Innerhalb von 12 Monaten werden bereits 35 Prozent der befragten Unternehmen diese Zahlungsart einsetzen. Das wäre ein Wachstum von mehr als 100 Prozent. Ein vergleichbar großes Wachstum ist bei den Kreditkarten mit Authentifizierung zu erwarten. Bei dieser Zahlungsart bestätigt der Kunde die Zahlung nochmals mit einer persönlichen PIN-Nummer. Da das Betrugsrisiko mit diesem Verfahren erheblich sinkt, übernehmen bei diesem Verfahren z.B. bei Łverified by VISA“ die herausgebenden Banken unter bestimmten Voraussetzungen das Zahlungsausfallrisiko. Etwa 30 Prozent der befragten Unternehmen wollen diese Zahlungsart innerhalb von 12 Monaten integrieren. Trotz der bereits hohen Verbreitung der Lastschrift wird auch diese Zahlungsart künftig noch öfter von den befragten Unternehmen integriert und dann die zweithäufigste Zahlungsart sein. Knapp 70 Prozent der befragten Unternehmen werden die Zahlungsart Lastschrift innerhalb der nächsten 12 Monate in ihre Zahlungsabwicklung integrieren. Andere als die in der Abbildung 1 dargestellten Macropayment Zahlungsarten dürften auch in naher Zukunft keine nennenswerte Rolle spielen.

Anforderungen an Zahlungsarten

Abbildung 2 stellt die wichtigsten Anforderungen aller befragten Unternehmen an eine Zahlungsart dar. Hierfür wurde der Durchschnitt der Angaben pro Anforderung auf einer Skala von 1 – Łsehr wichtig“ bis 6 – Łunwichtig“ gebildet.

Die wichtigste Anforderung aus Sicht der befragen Unternehmen ist der ŁSchutz vor dem Missbrauch der Zahlungsinformationen“. Die am stärksten wachsenden Macropayment-Zahlungsarten ŁOnline-Überweisung“ und ŁKreditkarte mit Authentifizierung“ (vgl. Abbildung 1) erfüllen diese Anforderung offenbar besser als die anderen Zahlungsarten. Weitere wichtige Anforderungen sind das ŁVertrauen in den Abwickler der Zahlung“ eine Łhohe Verbreitung der Zahlungsart unter den Nutzern“. Gemessen an diesen drei wichtigsten Anforderungen ergibt sich, dass die Zahlungsarten bekannter Dienstleister bzw. bekannter Marken bei den befragten eCommerce Unternehmen die besten Chancen auf Integration in deren Zahlungsabwicklung haben. Auch der empfundene Schutz der Zahlungsinformationen ist am ehesten bei einem vertrauten Anbieter oder vertrautem Verfahren gegeben. Die Zahlungsarten bekannter Dienstleister und die Zahlungsarten, die auf einfache und vertraute Verfahren setzen, haben damit die besten Voraussetzungen für eine häufigere Integration bei den Unternehmen. Diese Anforderungen sind offensichtlich wichtiger als funktionelle Anforderungen.

Es folgen ŁNachvollziehbarkeit des Transaktionsablaufes“ und die ŁUsability des Zahlungsablaufes“. Die ŁNachvollziehbarkeit des Transaktionsablaufes“ ist für das eCommerce Unternehmen besonders für die Kommunikation mit dem Käufer wichtig. Idealerweise sollten die Informationen über den Status aller bislang durchgeführten Teilschritte in einem CRM-System vorliegen, um dem Käufer jederzeit bestmögliche Transparenz des Zahlungsablaufs zu demonstrieren. Die Verfügbarkeit solcher Informationen stärkt das Vertrauen des Käufers gegenüber dem eCommerce Unternehmen und dessen Zahlungsabwicklung. Unter ŁUsability des Zahlungsablaufs“ ist die Einfachheit und Verständlichkeit der Kommunikations-Schnittstellen zwischen Verkäufer und Käufer,
zwischen Zahlungsabwickler und Käufer und auch zwischen Verkäufer und Zahlungsabwickler bei der Abwicklung einer Zahlung zu verstehen. Das können Web-Oberflächen, Telefon-Gespräche, Softwaremodule usw. sein.

Die ŁMöglichkeit von Rückzahlungen“ ist zum Beispiel bei einer Abrechnung mittels Kreditkarte problemlos möglich. Für den Verkauf von Waren mit Lieferfristen ist ein Łbestimmbarer Zeitpunkt der Abbuchung“ des Zahlbetrages vom Kundenkonto eine wichtige Anforderung. Im Vergleich zu anderen Anforderungen sind diese jedoch weniger wichtig.

Der vorliegende Beitrag ist ein Auszug aus der Publikation „Zahlungsabwicklung im E-Commerce“ von Marco Brandt, erschienen im BusinessVillage Verlag.

Heise-Meldung vom 13.08.2003 17:17

Wer in der Webprogrammierung arbeitet, nutzt an Sprachen hauptsächlich Perl, Java, PHP oder die Möglichkeiten von ASP(.Net). Die anstehende PHP-Version 5 stellt erneut die Frage, ob die Sprache insbesondere unter Windows eine Konkurrenz zu Microsofts .Net-Framework und der Web-Ausprägung ASP.Net sein kann.

Seit Juni ist die erste Betarelease „draußen“, und vieles dürfte im Ende des Jahres erwarteten endgültigen PHP 5 so bleiben, wie es in dieser Beta ist. iX stellt deshalb die Konzepte von PHP 5 vor und vergleicht sie mit dem aktuellen ASP.Net. Denn obwohl PHP eine Scriptsprache und ASP.Net als Bestandteil des .Net-Framework eher eine Programmierumgebung (Nutzung der Klassenbibliotheken et cetera) ist, dürften viele die beiden als
Konkurrenten um die Gunst der Webprogrammierer ansehen.

ASP.Net ist sprachunabhängig: ob C#, C++ oder JScript zur Entwicklung dienen soll, spielt keine Rolle, und .Net-Klassen und -Interfaces helfen bei der Arbeit. Die Scriptsprache PHP dagegen verfügt ihrerseits über eine Unzahl an Funktionen, die Webentwickler unterstützen.

Fazit: Wer strenge Datentypen braucht, kommt an ASP.Net nicht vorbei, und wer richtig objektorientiert arbeiten will, dem reicht möglicherweise die Umsetzung in PHP 5 immer noch nicht, weil sie die Kompatibilität zu den Vorgängerversionen in den Vordergund stellt. Aber: der leichte Einstieg ist ein unschlagbares Argument für PHP vor allem im semiprofessionellen Bereich.

Der vollständige Artikel ist in der aktuellen iX zu finden (ab 14.8. am Kiosk oder per Direktbestellung),
eine Leseprobe gibts online. (hb/iX)

Mit welcher Sprache Webentwickler ihre dynamischen Seiten programmieren wollen, ist eine schwierige Entscheidung. Zur Auswahl stehen mit PHP und ASP.Net zwei unterschiedliche Konzepte. Der PHP-Gemeinde stehen große Dinge ins Haus: Die nächste Major-Release soll noch in diesem Jahr fertig sein. Da Microsoft schon vor zwei Jahren zum großen Sprung ansetzte und das Gegenstück ASP.Net brachte, sind Vergleiche beider Webprogrammiersysteme nicht selten. Zum Leidwesen der PHPler gingen Analysen regelmäßig zu Gunsten von Microsoft aus, wogegen die Verbreitung deutlich für PHP spricht. Mit Version 5 hofft die PHP-Gemeinde nun, die technische Lücke zum fortschrittlichen ASP.Net schließen zu können. Ob die Hoffnungen berechtigt sind, sei nachfolgend analysiert. Als Basis dienen die aktuellen Versionen. Auch wenn es sich bei PHP 5 noch um die erste Betaversion handelt, dürfte der Eindruck repräsentativ sein. Typische Betakrankheiten wie mangelnde Stabilität und Performance sind hier nicht berücksichtigt, um die Chancengleichheit zu waren. Vergleiche dieser Art bedürfen immer einer Erklärung, welchen Standpunkt der Autor einnimmt. Denn letztlich handelt es sich nicht um zwei ähnliche Produkte, deren Features sich Punkt für Punkt abhaken lassen. Lediglich das Ziel – die Programmierung eines Webservers – ist dasselbe. Der Autor hat mit beiden Systemen mehrere umfangreiche Applikationen programmiert, und dennoch fällt die Einschätzung nicht leicht. Stolpersteine, die die Praxis bereithält, lassen sich an Feature-Listen eben nicht ablesen. Im Gegensatz zu ASP.Net ist PHP 5 keine umfassende Neuentwicklung. Installation und Erscheinungsbild unterscheiden sich praktisch nicht von PHP 4. Die Kompatibilität mit der Vorgängerversion war den Entwicklern offensichtlich wichtig. Hier hat Microsoft seinem Publikum deutlich mehr zugemutet und dem alten ASP den Laufpass gegeben.

Framework versus Funktionsvielfalt
Ein grundlegender Unterschied im Ansatz der Sprachen ist die Architektur. ASP.Net bietet als Teil des .Net-Framework alle Eigenschaften und Funktionen, die .Net per se enthält. Hier steht an erster Stelle die umfangreiche Klassenbibliothek, die in vielfältigen Namensräumen sauber strukturiert ist. Für das Gros der Aufgaben dürften Entwickler hier fündig werden und fertige Funktionen nutzen, für alle anderen stehen Schnittstellen (Interfaces) bereit, um eine konsistente Implementierung vorzunehmen. ASP.Net ist sprachunabhängig. Im Lieferumfang des Entwicklerkits befinden sich Visual Basic.Net, C#, J#, C++ und JScript.Net. Durch die Intermediate Language (IL), die die Compiler erzeugen, sind die Sprachen interoperabel. Diesen Code überträgt vor der Ausführung der Just-in-Time-Compiler in Maschinencode, sodass letztlich ein reines Compilersystem zur Verfügung steht. Da ASP.Net diesen Prozess noch etwas verdeckt, entspricht der Entwicklungsprozess stark dem Scripting mit ASP oder PHP, was die Einarbeitungszeit verringert.

ASP.Net erlaubt die so genannte ŁCode Behind“-Technik. Dabei werden HTML und Programmcode getrennt entwickelt und durch ein Ereignismodell miteinander verbunden. Was PHP mit Template-Engines nachbauen muss, ist hier schon Systembestandteil. Praktisch wird dazu eine spezielle Steueranweisung in die HTML-Seite eingebettet, die die Verknüpfung zum Code herstellt: . Nichtsdestotrotz lässt sich Code nach wie vor einbetten – wenn gewünscht, gemeinsam mit hinterlegtem. Nicht einmal die Sprachen müssen gleich sein. VB.Net in HTML und C# in der Codedatei lassen sich ohne Schwierigkeiten verarbeiten. Dies kommt der Entwicklung im Team entgegen.

PHP 5 ist ein optimierender Interpreter. Die neue Zend-Engine 2.0, die den Sprachkern bildet, erzeugt zunächst ähnlich wie ein Compiler einen Bytecode (Token), den der Interpreter abarbeitet. Prinzipbedingt ist PHP deshalb bei der reinen Verarbeitungsgeschwindigkeit langsamer. Da in der Praxis jedoch andere Faktoren eine gewichtige Rolle spielen, beispielsweise Datenbank- oder Dateizugriffe, ist dies nur bei Anwendungen unter hoher Last von Bedeutung.

Eine Trennung der Bereiche HTML und Code gibt es nach wie vor nicht. Entwickler können sich zwar etwas bauen oder die nötige Disziplin aufbringen, sauberen Code zu entwickeln. Vor allem Anfänger, die PHP vornehmlich adressiert, dürften dies jedoch mangels Fachwissen nicht tun.

Strenge Typisierung – oder keine
Der bei einer ASP.Net-Anwendung erzeugte IL-Code muss bestimmten Bedingungen genügen, damit verschiedene Sprachen tatsächlich denselben Code erzeugen. Dazu gehören identische Datentypen. Diese liefert unter .Net das Common Type System (CTS), Teil des Framework. Ein Integer in C# und einer in VB.Net ist deshalb trotz unterschiedlicher Syntax derselbe Datentyp. Um das durchzusetzen, sind .Net-Sprachen typstreng. Jeder Datentyp muss exakt deklariert werden. Compiler können eine fehlende Deklaration durch eine bestimmte Annahme ersetzen; dies ist beispielsweise bei VB.Net der Fall.

PHP 5 widmet sich dem Thema Datentypen ebenso wie seine Vorgänger überhaupt nicht. Es gibt keine Möglichkeit, den Datentyp einer Variablen festzulegen. Für große Projekte und die Teamarbeit ist das ein Handikap. Inkonsistente Datentypen führen zu schwer zu entdeckenden Programmierfehlern. Anfängern mag dieser Mangel den Einstieg erleichtern, letztlich behindert es jedoch die Etablierung von PHP 5 für große Projekte.

In der Printausgabe finden Sie mehr zu PHP vs. ASP.Net; ausserdem zwei weitere Artikel: die neue Version PHP 5 als Beta sowie SQLite, das kleine DBMS, das PHP 5 erstmals unterstützt

Tele-Talk-Direct 1151/03, Donnerstag, 14. August 2003

Heise-Meldung vom 14.08.2003 11:52

Frauen und Männer stellen unterschiedliche Anforderungen an eine gelungene Website. Das will das Marktforschungs- und Beratungsunternehmen eResult GmbH festgestellt haben, wie aus der entsprechenden Wom@n-Online-Studie-II hervorgeht. Danach messen Frauen einer übersichtlichen Startseite und einer schnellen Ladezeit eine höhere Bedeutung zu als männliche Nutzer. Insgesamt sei die Nutzerfreundlichkeit (Usability) eines Webangebots Frauen besonders wichtig.

Die Erhebung fand per Web-Fragebogen mit 429 Männern und Frauen statt. Die Forscher wollen beispielsweise herausgefunden haben, dass es Frauen bei Transaktionen in Shops bevorzugen, wenn nur wenige Schritte bis zum Abschluss der Buchung beziehungsweise Bestellung nötig sind. Hilfen zu Formulareingaben und alternative Bestellmöglichkeiten über Telefon oder Fax würden Frauen besonders schätzen. Bei Informationsangeboten wie Online-Frauenzeitschriften werde von ihnen Wert auf einen schnellen und einfachen Zugang und ein nicht zu buntes Layout mit nur wenigen Animationen auf der Homepage gelegt.

Diese Ergebnisse passen gut zu anderen Forschungsergebnissen über geschlechtsspezifische Unterschiede bei der Nutzung von Websites. Eine MediaAnalyzer-Studie hatte 2002 zum Beispiel herausgefunden, dass Frauen Navigationsleisten und Menüs stärker beachten als Männer. W3B konstatierte in seiner Studie „Frauen im Internet„, dass Frauen gute Navigation wichtiger ist als aufwendiges Design. eResult-Geschäftsführerin Miriam Yom rät als Fazit aus den Studienergebnissen: „Angebote, die weibliche Nutzer als wichtige Zielgruppe haben, sollten stärker auf die systematische Verbesserung ihrer Nutzungsfreundlichkeit hinarbeiten.“

Dass Männern gute Usability für eine erfolgreiche Bedienung nicht genauso wichtig ist, kann aus der Studie jedoch nicht geschlossen werden. Da eResult rein auf die Eigenaussagen der Testteilnehmer gesetzt hat, ist es möglich, dass Frauen einfach eher zugeben, dass ihnen Unterstützung und gute Bedienung wichtig sind. Das Konzept „Usability“ als solches ist jedenfalls geschlechtsneutral — es definiert schließlich einfach, ob die Zielgruppe einer Site sie effizient, effektiv und zufriedenstellend bedienen kann. (Petra Vogt) / (hob/c’t)

Heise-Meldung vom 14.08.2003 15:27

Nach Angaben von Scott Charney, bei Microsoft Hauptverantwortlicher für Sicherheitsfragen und das Trustworthy Computing, sind die Hälfte aller Abstürze des Betriebssystems nicht die Schuld von Windows. Vielmehr würden sie durch den Code von Drittanbietern verursacht, meinte Charney nach Berichten in australischen Medien auf der TechEd-Konferenz in Brisbane, und bezog sich dabei auf Fehlerursachen, die Microsoft durch das Analyse-Tool Dr. Watson übertragen bekommen habe. Ähnliche Anmerkungen über Nicht-Microsoft-Code, vor allem in Gerätetreibern, als Ursache für Windows-Abstürze, machte bereits Microsofts Cheftechniker Craig Mundie Ende vergangenen Jahres; er meinte damals, es sein noch ein langer Weg bis zum Trustworthy Computing.

Charney ist derjenige Manager bei Microsoft, der im Rahmen der von Bill Gates ausgerufenen Sicherheitsinitiative dafür sorgen soll, dass die Produkte des Konzerns aus Redmond sicherer und von weniger Bugs geplagt werden. Laut Charney gehört dazu auch, dass die Analysemethoden während der Software-Entwicklung es Microsoft ermöglichen, die Arbeit der einzelnen Programmierer genau zu kontrollieren. Jeder Entwickler habe einen hohen Grad der Verantwortung für den Code, den er produziere; und falls ein Programmierer verwundbaren Code produziert habe, schaue man sich auch seinen gesamten übrigen Code genau an. (jk/c’t)

Heise-Meldung vom 14.08.2003 12:34

Statistische Daten über Deutschland und die einzelnen Bundesländer lassen sich jetzt über ein neues Internetportal finden. Unter statistikportal.de bieten die Statistischen Ämter des Bundes und der Länder direkten Zugang zu amtlichen Basisdaten für Deutschland und die 16 Bundesländer. Tabellen und Daten aus vielen Lebensbereichen werden auf der Website veröffentlicht, teilt das Statistische Bundesamt mit, darunter beispielsweise Einwohnerzahlen und Daten zu Berufsgruppen, Gesundheitsversorgung und Bildung. Außerdem gibt es ein Verzeichnis der Gemeinschaftsveröffentlichungen sowie Kontaktadressen zu den statistischen Ämtern. Alle Informationen liegen auf Deutsch und Englisch vor.

Die obersten Bundesstatistiker und ihre Länder-Kollegen wollen bis 2005 alle internetfähigen Dienstleistungen auch online anbieten. Das neue Portal zeige, dass man sich diesem Ziel mit großen Schritten nähere, hieß es zur Eröffnung der Website während des 54. Weltkongresses des International Statistical Institute (ISI). (jk/c’t)

Heise-Meldung vom 15.08.2003 14:25

Die bisherigen Erklärungsversuche zum flächendeckenden Blackout in den USA und Kanada sind reichlich
lückenhaft: Ein Blitzschlag soll ein Kraftwerk an den Niagara-Fällen lahmgelegt haben. In der Folge brach in vielen Bundesstaaten das Stromnetz zusammen.

Um solche Ausfälle zu vermeiden, werden landesweit die Anschlüsse der Kraftwerke an das Stromnetz über ein zentrales Grid-Center gesteuert. Dies sorgt normalerweise auch dafür, dass notfalls Versorgungsgebiete schnell vom Netz abgekoppelt werden, um die anderen Kraftwerke nicht ebenfalls in den Abgrund zu ziehen. An dieser Stelle versagten die Schutzfunktionen. In der Folge erhöhte sich die Netzlast für andere Kraftwerke, die sich dann zum Schutz vor Überlastung ihrerseits vom Netz abkoppelten und damit einige Landesteile der USA nicht mehr versorgen konnten. Warum die Maßnahmen zur Vermeidung solcher Totalausfälle nicht gegriffen haben, ist noch unklar.

Bei unseren Recherchen sind wir auf folgende Zusammenhänge gestoßen: Das ausgefallene Niagara-Kraftwerk gehört zu National Grid USA. Dieser Energieversorger wird als Referenzkunde von Northern Dynamics aufgeführt. Diese Firma bezeichnet sich als „Home of the OPC Experts“ und bietet eine Reihe von Produkten an, die OPC zur Kommunikation mit Kontroll- und Steuerungssystemen nutzen.

OPC steht für „OLE for Process Control“ und setzt auf Microsofts COM/DCOM-Modell auf. Das ist aber genau die Technik mit dem Sicherheitsloch, das der Wurm W32.Blaster ausnutzt. In einem Netz, in dem dieser Wurm aktiv ist, versagt infolge der regelmäßigen Neustarts, die jetzt auch betroffene Endanwender bei ihren PCs beobachten, die DCOM-Kommunikation und damit auch OPC auf ungepatchten Systemen.

OPC wird unter anderem auch für die Kopplung sogenannter SCADA-Systeme (Supervisory Control and Data Acquisition) eingesetzt, wie sie auch Kraftwerke benutzen. Dabei werden Prozessdaten zwischen einer Zentrale (MTU) und einer oder mehreren Messeinheiten (RTU) ausgetauscht. Auch Sollwerte für Prozesse lassen sich über SCADA-Systeme einstellen.

Da National Grid USA für eine Stellungnahme nicht zu erreichen war, drängen sich uns folgende Fragen auf:

– Wofür genau setzt National Grid USA OPC ein?

– Gab es zum Zeitpunkt des Stromausfalls Probleme mit OPC? Und wenn ja: Stehen diese in einem Zusammenhang mit dem Wurm W32.Blaster?

Als weitere Referenzkunden führen die OPCExperts von Northern Dynamics unter anderen General Electrics, die Siemens AG, den europäischen Kraftwerksbauer ABB und die European Organization for Nuclear Research (CERN) auf. Auch hier besteht also Klärungsbedarf. (heise Security)/ (ju/c’t)

Heise-Meldung vom 17.08.2003 18:46

Bereits im Januar hat es eine mehrere Stunden andauernde Störung des primären Steuersystems von US-Stromkraftwerken durch eine Wurm-Attacke gegeben. Das belegt ein Dokument des North American Electric Reliability Council (NERC).

Das NERC wurde 1968 als Reaktion auf den Stromausfall am 9.11.1965 in New York gegründet, um sicherzustellen, „dass das elektrische System in Nordamerika verlässlich, ausreichend und sicher ist“. Am 13. August — also am Tag vor dem großen Blackout — verabschiedete es einen Standard für Cyber Security (Titel: „Urgent Action – Cyber Security“), der dringenden Handlungsbedarf für das US-amerikanische Stromversorgungssystem attestiert.

In einem begleitenden Schreiben bat Charles E. Noble (CISSP Information Security, ISO New England) die abstimmungsberechtigten Mitglieder um Zustimmung zu dem Standardisierungsvorschlag und begründete dessen Notwendigkeit mit dem Hinweis auf einen Störfall:

On January 25, 2003 the SQL Slammer Worm was released by an unknown source. The worm significantly disrupted many Internet services for several hours. It also adversely affected the bulk electric system controls of two entities for several hours. These events have been studied in detail. No unintentional control actions and nor service interruptions occured due to these events; however, both entities lost their ability to execute bulk electric system control from their primary control centers for several hours. Those who have studied these incidents believe that at least one would have been prevented had these actions set forth in the proposed standard been taken.

(Am 25. Januar 2003 wurde der SQL-Slammer-Wurm von einer unbekannten Quelle freigesetzt. Der Wurm unterbrach viele Internet-Dienste für mehrere
Stunden. Er beeinträchtigte außerdem für mehrere Stunden die Stromnetz-Systemsteuerung von zwei Einheiten. Diese Vorfälle wurden genau untersucht. Es traten infolge dieser Ereignisse weder unbeabsichtigte Steuerungsaktivitäten noch Dienstunterbrechungen auf; doch beide Einheiten verloren für mehrere Stunden die Fähigkeit, die Stromnetz-Systemsteuerung über ihre
primären Kontrollzentren auszuführen. Diejenigen, die diese Vorfälle untersucht haben, glauben, dass mindestens einer durch die im Standard vorgeschlagenen Aktionen hätte verhindert werden können.
)

Das Dokument belegt, dass die Steuerungssysteme für die Stromversorgung in den USA für Würmer und Viren anfällig sind, und liefert damit ein weiteres Indiz für die Vermutung, dass der Wurm W32.Blaster/LovSAN ein Teil der Ursache für den jüngsten flächendeckenden Blackout gewesen sein könnte. Nach bisherigen Verlautbarungen wurde dieser entweder durch den Ausfall eines einzelnen Kraftwerks oder durch fehlerhafte Leitungen verursacht. Dieses lokale Problem löste dann eine Art Domino-Effekt aus, in dessen Folge sich viele andere Kraftwerke zum Schutz vor Überlastung abschalteten. Warum die Schutzmechanismen versagt haben, die eigentlich das ursprünglich betroffene Versorgungsgebiet vom Netz hätten abkoppeln müssen, ist noch völlig unklar.

Offenbar hatte bereits der SQL-Slammer im Januar genau die Systeme lahm gelegt, die in besonderen Netzlast-Situationen einen Domino-Effekt verhindern sollen. Der Störfall blieb ohne Folgen, weil es damals keine Lage gab, die den sofortigen Eingriff des Control-Centers erfordert hätte. Das NERC hält es jedoch für dringend erforderlich, Maßnahmen gegen eine mögliche Wiederholung zu ergreifen.

Einen Zusammenhang zwischen W32.Blaster und dem großen Blackout, wie ihn heise Security als Möglichkeit zur Diskussion stellte, haben die befragten Experten und Behörden umgehend verneint. So erklärte das staatlich geförderte US-Institut für Internet-Sicherheit CERT/CC, es gebe keinerlei Hinweise auf einen Zusammenhang mit einer Aktivität eines wie auch immer gearteten Virus. Dabei wurde bereits 2001 in Workshops des CERT/CC vor den
Gefahren von Viren und Würmern für das Stromnetz gewarnt. Da das CERT/CC weder eine andere plausible Erklärung für den Domino-Effekt präsentiert noch in der kurzen Zeit eine vollständige Untersuchung aller mit dem Netz des National Grid USA verbundenen Systeme durchführen konnte, sind die Angaben des CERT/CC vor und nach dem Ereignis kaum miteinander in Einklang zu bringen.

NERC-Präsident Michehl R. Gent hat versprochen, den Vorfall rückhaltlos aufzuklären. Angesichts der Analysen seiner Experten darf man erwarten, dass bei seinen Untersuchungen zum Domino-Effekt ein Zusammenhang mit W32.Blaster/LovSAN jedenfalls nicht voreilig ausgeschlossen wird. (ju/c’t)

Heise-Meldung vom 20.08.2003 18:54

Der weltweite IP-Traffic wird im Jahr 2003 um etwa 67 Prozent gegenüber 2002 zunehmen. Diese Prognose geben die IP-Infrastruktur-Spezialisten von Telegeography in ihrem gerade veröffentlichten Report „Global Internet Geography 2004„. Datenbasis seien unter anderem bei großen Carriern angefragte Statistiken aus dem ersten Quartal dieses Jahres.

Telegeography weist außerdem darauf hin, dass die internationalen Datenautobahnen nach Recherchen der Firma derzeit nur zu 10 bis 30 Prozent genutzt werden. Das sei auch gut so, erklärte Chef-Forscher Alan Mauldin: „Die Backbone-Betreiber müssen genügend Kapazitäten übrig haben, um zu gewährleisten, das auch in Peak-Zeiten die Netzwerk-Performance nicht leidet.“

Inzwischen sei Vernunft in die Carrier-Branche eingekehrt. Die Telegeography-Daten zeigen, dass die Zunahme des weltweiten IP-Traffics und der Bandbreitenausbau gut korrespondieren. Anders als in der Boom-Zeit seien die Investitionsentscheidungen der Carrier „nicht mehr von Optimismus, sondern von Vernunft“ geprägt, heißt es im Report.

Die Gesamtkapazität der transatlantischen Routen betrage gegenwärtig 388 Gbit/s, der durchschnittliche IP-Traffic auf den Leitungen etwa 70 Gbit/s. Für 2004 sagt Telegeography eine Gesamtbandbreite zwischen Europa und Nordamerika von 648 Gbit/s voraus. Der IP-Traffic werde dann durchschnittlich bei 117 Gbit/s liegen.
(hob/c’t)

Heise-Meldung vom 20.08.2003 14:57

In China sind allein seit Beginn dieses Jahres knapp 33,5 Millionen neue Handy-Nutzer hinzugekommen. Insgesamt waren damit zum Ende Juli fast 240 Millionen Handys im Einsatz, teilte das chinesische Ministerium für Informationsindustrie am Mittwoch in Peking mit. Der Umsatz des chinesischen Telekom-Sektors sei in den Monaten Januar bis Juli im Jahresvergleich um 15,2 Prozent auf 262,19 Milliarden Yuan (28,493 Milliarden Euro) gestiegen. Die Zahl der Festnetzanschlüsse nahm um 12,4 Prozent auf 240,75 Millionen zu.

Der chinesische Wachstumsmarkt bleibt damit in der allgemeinen Branchenschwäche ein Hoffnungsträger für die Gerätehersteller. Der mit Verlusten kämpfende schwedische Telecom-Ausrüster Ericsson gab am Mittwoch einen Auftrag im Wert von 600 Millionen Dollar vom chinesischen Mobilfunkanbieter Guangdong Mobile bekannt. Die Vereinbarung betreffe die Erweiterung des GSM-Netzes in der Provinz Guangdong, hieß es. (dpa) / (jk/c’t)

Heise-Meldung vom 20.08.2003 14:34

Auch wenn das seit langem geforderte Arbeitnehmerdatenschutzgesetz noch auf sich warten lässt, geschieht insbesondere Surfen und Mailen am Arbeitsplatz auch jetzt schon keineswegs in einem rechtsfreien Raum.
Der vom Bitkom herausgegebene Leitfaden „Die Nutzung von E-Mail und Internet im Unternehmen — Rechtliche Grundlagen und Handlungsoptionen“ erklärt nicht nur Geschäftsführern, Personalverantwortlichen und Unternehmensjuristen, sondern auch anderen Interessierten die Gesetzeslage — wobei der Arbeitskreis Datenschutz des Unternehmensverbandes das Thema zwar sachlich, aber naturgemäß vorrangig aus der Sicht des Arbeitgebers beleuchtet.

So stellt der Leitfaden die Vor- und Nachteile für das Unternehmen dar, die durch die Zulassung einer privaten Nutzung der Techniken am Arbeitsplatz entstehen und klärt über die möglichen datenschutzrechtlichen Probleme auf. Darüber hinaus bietet er Hilfestellungen für Regelungen im Arbeitsvertrag oder durch Betriebsvereinbarungen und zeigt, unter welchen Voraussetzungen Arbeitgeber die Nutzung kontrollieren dürfen. (anm/c’t)

Heise-Meldung vom 21.08.2003 15:01

Der Tiefseeschwamm Euplectella setzt sich am Meeresgrund mit einem dichten Büschel feiner, einige Zentimeter langer Silikat-Nadeln im schlammigen Boden fest. Forscher um Vikram Sundar von den Bell Laboratories haben jetzt herausgefunden, dass die optischen Eigenschaften dieser Nadeln sie zu ausgezeichneten natürlichen Glasfaser für die optische Datenübertragung machen. Der Schwamm könnte wichtige Hinweise geben, wie Glasfasern bei niedrigen Temperaturen gefertigt werden könnten, um so eine sehr viel höhere mechanische Stabilität zu bekommen, schreiben die Forscher im Wisenschaftsmagazin Nature ( Vol. 21. August 2003 S. 899).

Die Nadeln haben einen Durchmesser zwischen 40 bis 70 Mikrometer und sind zwischen fünf und 15 Zentimeter lang. Unter dem Elektronenmikroskop enthüllten die zunächst homogen wirkenden Nadeln eine differenzierte Struktur, die im Querschnitt ein wenig an einen Baum erinnern. Ihre Brechungsindexverteilung ähnelt modernen Glasfasern: Im Zentrum — mit etwa 2 Mikrometer Durchmesser — ist der Brechungsindex besonders hoch, fällt dann steil ab, um zum Rand hin noch einmal etwas anzusteigen. Bei Messungen stellte sich tatsächlich heraus, dass in Epoxidharz eingegossene Fasern einzelne Moden (Anzahl der geführten Wellen) hervorragend übertragen, während nicht umhüllte Fasern sich hervorragend zur Übertragung von vielen Moden eignen. (wst/c’t)

chemie.de-29.08.2003 – Washington/Halle (dpa)

Ein Forscherteam hat Flüssigkristalle in Bananenform entwickelt, die künftig unter anderem Computerdisplays verbessern könnten. Das US-Fachmagazin «Science» (Bd. 301, S. 1204) veröffentlicht die Ergebnisse der Wissenschaftler und spektakuläre Bilder der Flüssigkristalle, die an psychedelische Kunst erinnern, in seiner neuesten Ausgabe. Außer Forschern aus den USA, Frankreich und Japan ist auch ein Team der Martin-Luther-Universität in Halle beteiligt. Die neuartigen Flüssigkristalle hätten «Potenzial für neue Anwendungen in der Optoelektronik», erläuterte Prof. Wolfgang Weissflog vom Institut für Physikalische Chemie in Halle.

Die von gebogenen Molekülen gebildeten Flüssigkristalle brechen das Licht unter dem Polarisationsmikroskop in unterschiedliche Richtungen, dies erzeugt diese fantastischen Bilder», erklärte Weissflog. Unter dem Polarisationsmikroskop liefern unterschiedlich dicke Stellen durchsichtiger Substanzen farbige Bilder. Die im Laboratorium hergestellten Flüssigkristalle hätten außerordentlich interessante optische Eigenschaften und könnten zu neuartigen Displays führen. «Vor 30 Jahren wurden die Vorgänger, stäbchenförmige Flüssigkristalle, noch als Laborkuriosität belächelt», sagte Weissflog. Heute seien diese in zahlreichen Anzeigen (LCDs), wie Flachbildschirmen, Laptops, Handys und Computerdisplays zu finden.

Quelle: dpa

chemie.de-01.09.2003

Auf dem Weg zum Bildschirm auf Folie ist die Wissenschaft nun einen Schritt weitergekommen. Eine Forschergruppe um Prof. Karl Leo am Institut für Angewandte Photophysik der Technischen Universität Dresden hat erstmals niedermolekulare organische Leuchtdioden – so genannte OLEDs – entwickelt, die schon bei einer Spannung von 2,5 Volt die nötige Helligkeit für Bildschirmanwendungen liefern. Damit benötigen sie halb so viel Energie wie bisherige Leuchtdioden anderer Forschergruppen. Organische Leuchtdioden sind die Grundlage einer viel versprechenden neuen Flachbildschirm-Technologie. Das Bundesministerium für Bildung und Forschung (BMBF) fördert diese Entwicklung im Rahmen des Förderschwerpunktes „Displays auf Basis organischer Leuchtdioden (OLED-Displays)“ an der Technischen Universität Dresden mit 1,8 Millionen Euro.

Da die organischen Schichten sehr dünn sind, eignen sich OLEDs für den Aufbau von Bildschirmen auch auf flexiblen Materialien, wie beispielsweise auf Folie. Manche Zukunftsprognosen gehen von OLED-Technologien aus, die ganze Wände oder Litfasssäulen als Bildschirme nutzen können. Selbstleuchtende Bildschirme auf OLED-Basis haben im Vergleich zu etablierten Flüssigkristall-Bildschirmen (LCD) mehrere Vorteile: Sie besitzen einen großen Blickwinkelbereich, stellen exzellent Bewegtbilder dar und haben einen geringen Energieverbrauch.

Quelle: BMBF

Heise-Meldung vom 05.09.2003 10:23    

Das in San Francisco ansässige Internet Archive hat jetzt mit einem Beta-Test seiner neuen Suchmaschine namens Recall begonnen. Recall ermöglicht es, insgesamt 11 Milliarden archivierte Webseiten nach Stichwörtern zu durchsuchen. Der Gesamt-Datenbestand umfasst nach Angaben der Recall-Entwicklerin Anna Patterson 0,5 Petabytes. Der Suchindex ist demnach bereits 2 Terabytes groß. Bisher lassen sich erst Seiten ab dem Januar 1996 durchsuchen. Innerhalb dieses Zeitraums kann die Suche jedoch beliebig zeitlich eingeschränkt und präzisiert werden.
Recall unterscheidet sich fundamental von anderen Suchmaschinen, da es seinen Index nicht anhand der Verlinkungshäufigkeit einer Website bewertet. Stattdessen werden die Suchergebnisse durch Bewertung des Kontexts angeordnet, in dem sie auf der jeweiligen Seite genannt werden. Außerdem wird erstmals auch die Popularität eines Suchbegriffs zeitlich ausgewertet. So zeigt eine Grafik an, wann der jeweilige Suchbegriff am häufigsten im Web zu finden war. Eine zweite Grafik stellt die Popularität von mit dem Suchbegriff verwandten Themen dar. Wer beispielsweise nach „Iraq“ sucht, erfährt so automatisch, dass der Begriff im Zeitraum von 1996 bis 1998 sehr oft im Zusammenhang mit Kurden genannt wurde. Während diese ab 1999 kaum noch im Web Erwähnung fanden, tauchten seit Januar 2000 immer mehr Webseiten auf, die über einen möglichen Krieg mit dem Irak spekulierten.

Die Suchmaschine versucht zudem, jedem Begriff Kategorien und Themen zuzuordnen, die ein weiteres Spezifizieren der Suche erlauben. So lässt sich etwa die Irak-Suche auf UN-Waffeninspektoren oder auch den Nordirak einschränken. Bisher wurden rund 50.000 Kategorien angelegt, die insgesamt 1.4 Millionen Suchbegriffe beinhalten. In Zukunft soll Recall schließlich auch noch um eine Personalisierungsmöglichkeit erweitert werden. Dann wird sich die Suchmaschine die vergangenen Suchen merken und diese in die Bewertung der weiteren Suchergebnisse einbeziehen. Außerdem sollen sich die Beschreibungen der Suchergebnisse abhängig von dem Profil des jeweiligen Nutzers unterscheiden.

Das Internet Archive wurde 1996 als Non-Profit-Organisation gegründet. Finanziert wird es im Wesentlichen vom Alexa-Gründer Brewster Kahle, der seine Firma 1999 für einen dreistelligen Millionenbetrag an Amazon.com verkaufte. Seit 2001 bietet das Archiv im Zusammenarbeit mit Alexa den Abruf alter Versionen zahlreicher Webseiten über sein Wayback-Angebot an. Bisher ließ sich dieser Datenbestand jedoch nicht nach Stichwörtern durchsuchen. (Janko Röttgers) / (jk/c’t)

Heise-   

heise online News (http://www.heise.de), 21.09.2003

Die Chefin des PDA- und Smartphone-Herstellers Handspring, Donna Dubinsky, meint, Entwicklungländer können sich die Verkabelung sparen.

Meldung vom 02.10.2003 14:11    

Der Fragebogen geht ins Detail: Neben Fragen zur Erhebung, Bearbeitung und Speicherung der Daten wird beispielsweise auch abgefragt, ob die Webseite mit Cookies arbeitet, wie lange diese gespeichert werden und ob der Nutzer hierüber unterrichtet wird.

Der Behördenleiter Hans-Friedrich Umlandt betonte in einem Gespräch mit heise online, dass gegen die angeschriebenen Firmen kein Verdacht vorliege, es handle sich um eine Routinekontrolle. Es sei ausdrücklicher Wille des Gesetzgebers, dass die Behörde die Einhaltung der Datenschutzrichtlinien aktiv überwache, also auch von sich aus tätig werde. Dazu prüfe man die Angaben der Web-Anbieter. „Die Liste mag auf den ersten Blick recht umfangreich sein, die datenschutzrechtlichen Anforderungen sind aber auch entsprechend hoch; außerdem muss der Fragebogen ein sehr breites Spektrum von Internet-Dienstleistern abdecken“, begründet Umlandt den umfangreichen Fragenkatalog.

Nach Auswertung der Fragebogen soll sich bei Bedarf eine genauere Prüfung anschließen. „Wir prüfen die Plausibilität der Antworten. Wenn weiterer Klärungsbedarf besteht, werden wir nachhaken“, kündigt Umlandt an. Wer nun kontrolliert wird, darf also nicht darauf hoffen, dass die Behörde noch einmal locker lässt, wenn die Fragen nicht zur Zufriedenheit beantwortet werden. Die Betreiber sind laut Umlandt zufällig und aus verschiedenen Bereichen ausgewählt worden.

Bei den Überprüften regt sich indes Unmut, nicht über den Inhalt des Schreibens, sondern über dessen Stil. Torsten Wenzel ist Vorstandsvorsitzender des IVEW und betreut ein Mitglied, das einen solchen Fragebogen erhalten hat. „Das hätte ruhig etwas freundlicher formuliert sein dürfen“, kritisiert er den Stil des Behörden-Schreibens. Er hätte sich insbesondere mehr Aufklärung über den Grund des Schreibens gewünscht. Besonders sauer stieß ihm der ausführliche Hinweis auf den Bußgeldkatalog auf; man wolle ja gerne alle Auflagen einhalten, versichert Wenzel, aber das sei bei unterschiedlichen Vorschriften in den Bundesländern nur schwer möglich. (uma/c’t)

Meldung vom 08.10.2003 15:06    

Microsoft wird seine führende Stellung auf dem Markt für Betriebssysteme trotz der wachsenden Konkurrenz durch Linux auch bis 2007 behalten. Dies vermuten die Marktforscher von IDC und legen dafür Marktanteile vom vergangenen Jahr zu Grunde: 2002 stammten nach Stückzahlen 55,1 Prozent der 5,7 Millionen Serverbetriebssysteme von Microsoft gegenüber 50,5 im Jahr zuvor, während Linux auf 23,1 Prozent Anteil kam, Unix auf 11 Prozent und Netware auf 9,9 Prozent.

Auf den Desktops, also bei den Client Operating Environments, scheint Microsoft noch stärker zu dominieren: Hier stieg im vergangenen Jahr der Anteil der Redmonder bei neuen Softwarelizenzen von 93,2 auf 93,8 Prozent, während Linux auf 2,8 Prozent und Mac OS 2,9 Prozent Anteil an den 121 Millionen Lizenzen in diesem Bereich hat. IDC berücksichtigt bei den Server- und Client-Zahlen nur Software, für die gezahlt oder die zusammen mit Hardware verkauft wurde.

Trotz der anhaltend schwierigen wirtschaftlichen Lage ist der Markt für Betriebssysteme insgesamt gewachsen. 2002 wurden hier 18,6 Milliarden US-Dollar ausgegeben, 4,3 Prozent mehr als im Jahr zuvor. Angeführt wird dieser Trend laut IDC durch ein Umsatzwachstum von 12,4 Prozent für die Windows-Plattform.

„Microsoft trotzt weiterhin dem allgemeinen Markttrend und hat sich sowohl beim Umsatz wie auch bei den Verkaufszahlen steigern können“, resümiert Al Gillen von IDC. „Linux war im vergangenen Jahr der einzige weitere Lichtblick.“ Alle anderen Betriebssysteme mussten demnach im vergangenen Jahr Verluste hinnehmen. (anw/c’t)

Meldung vom 27.10.2003 14:32

In Deutschland gibt es pro Einwohner mehr registrierte Internet-Adressen als in jedem anderen Land, berichtet die Financial Times heute unter Berufung auf eine Studie der OECD. Demnach hat es in Deutschland Ende vergangenen Jahres 84,7 Registrierungen pro 1000 Einwohner gegeben. Auf den Plätzen zwei und drei folgten Dänemark mit 71,7 und Norwegen mit 66,4 Registrierungen je 1000 Einwohnern. Mit zu den führenden Ländern zählen die USA und Großbritannien mit jeweils mehr als 60 Web-Sites.

In den Jahren 2001 und 2002 hat sich die Zahl der Internet-Adressen mit der Top-Level-Domain .de jeweils verdoppelt. Damit habe Deutschland die größte Wachstumsrate der 30 untersuchten OECD-Staaten. Im Durchschnitt gibt es in den EU-Ländern knapp 40 Internet-Adressen pro 1000 Einwohner. In Deutschland bringen kleine und mittlere deutsche Unternehmen vermehrt Internetauftritte auf den Weg. Für Privatpersonen sei es relativ einfach und kostengünstig, sich eine Homepage zuzulegen. (anw/c’t)

Meldung vom 29.10.2003 17:07

Von der elektronischen Vergabeplattform e-Vergabe des Beschaffungsamtes bis zum Förderantrag für die Solaranlage auf dem Dach beim Bundesamt für Wirtschaft und Ausfuhrkontrolle — 232 von insgesamt 440 bis 2005 zur Abwicklung über das Internet vorgesehenen Verwaltungsdienstleistungen bieten die Ministerien, Ämter und Behörden des Bundes bereits online an. „Bis zum Jahresende werden noch weitere 36 Internetangebote der Bundesverwaltung neu hinzukommen“, kündigte Staatssekretär Göttrik Wewer vom Bundesinnenministerium heute zur Halbzeit des Projektes BundOnline 2005 in Berlin an.

Als positives Beispiel stellte Wewer die Zoll-Auktion heraus, eine Plattform, auf der die Bundeszollverwaltung seit März vergangenen Jahres gepfändete, beschlagnahmte und ausgesonderte Artikel anbietet. Interessenten können hier Computer, Handys, HiFi-Geräte, Kameras und Autos ersteigern. Inzwischen beteiligen sich mehr als 200 Dienststellen an der Zoll-Auktion, die im abgelaufenen Quartal 3300 Artikel zur Versteigerung online stellte — darunter 431 Kraftfahrzeuge — und es mit durchschnittlich 10 Geboten pro Objekt derzeit auf einen monatlichen Umsatz von rund 1,5 Millionen Euro bringt. Bisher haben sich schon über 60.000 Bieter bei der Zoll-Auktion registriert.

Noch nicht ganz soviel Anklang findet die e-Vergabe-Plattform für die Ausschreibungen des Bundes, wie der Staatssekretär einräumt. „Da sind wir zwar sehr gut aufgestellt, aber unser Problem ist, dass die Wirtschaft noch nicht so recht hinterherkommt“, erklärte er. Der Schwerpunkt der E-Government-Aktivitäten liegt bislang noch auf den Informationsangeboten der Behörden. „Jetzt kommen allmählich die komplexeren Fälle auf den Tisch“. Dazu zählen beispielsweise die jährlich rund 700.000 Antragsverfahren und Rentenbescheide der Bundesversicherung für Angestellte, rund 150.000 Anträge von Kriegsdienstverweigerern pro Jahr beim Bundesamt für den Zivildienst und die jährlich 50.000 Arzneimittelzulassungsverfahren beim Bundesgesundheitsministerium.

Echte Transaktionen mit den Bürgern verlangen gegenwärtig noch den Ausdruck von Formularen und die Zusendung des Antrags mit der persönlichen Unterschrift auf dem Postweg. Hier erhofft sich Wewer einen Schub von der im Rahmen des Signatur-Bündnisses vereinbarten Ausgabe von Signaturkarten durch die Banken und Sparkassen. „Wir sind heilfroh“, so der Staatssekretär, „dass sich die Wirtschaft nach langen Diskussionen bereit erklärt hat, da voranzugehen und wir uns daran hängen können“.

Da die unmittelbaren Bürgerkontakte zumeist auf kommunaler Ebene stattfinden, sollen im Rahmen der im Juni gestarteten Initiative Deutschland-Online die elektronischen Verwaltungsdienstleistungen von Bund, Ländern und Gemeinden enger verzahnt werden. BundOnline will dazu die von der Projektgruppe entwickelten E-Government-Basisdienste — wie etwa Formularserver, Content Management System, Zahlungsverkehrsplattform und Portale — allen Verwaltungsebenen zur Verfügung stellen. Voraussichtlich noch im Dezember wird die Ministerpräsidentenkonferenz eine mit dem Bund abgestimmte Projektliste verabschieden.

Die Bundesregierung hatte den „Umsetzungsplan für die E-Government-Initiative BundOnline 2005“, für den das Bundesinnenministerium federführend ist, vor zwei Jahren beschlossen. Seinerzeit wurde der Mittelbedarf für die 376 Projekte auf 1,6 Milliarden Euro geschätzt; inzwischen ist für die auf 440 angestiegene Zahl internetfähiger Dienstleistungen nur noch von 1,4 Milliarden Euro die Rede. Nach Auskunft des Staatssekretärs sei der Rückgang nicht auf Haushaltskürzungen, sondern auf den seither eingetretenen Preisverfall auf dem IT-Markt zurückzuführen. Schön, wenn auch mal etwas billiger wird als geplant. (Richard Sietmann) / (boi/c’t)

Meldung vom 29.10.2003 14:27

Im vergangenen Jahr wurden fünf Exabyte oder fünf Millionen Terabyte an Informationen gespeichert. Bei einer Weltbevölkerung von 6,3 Milliarden Menschen entfallen auf jeden Erdbewohner etwa 800 Megabyte an neuen Daten. Dies berichtet die Tageszeitung San Jose Mercury News in Berufung auf die Studie „How much Information? 2003“ der University of Berkeley. Im ersten Bericht im Jahr 2000 waren es gerade einmal etwa 1,5 Exabyte neuer Information oder 250 Megabyte pro Erdbewohner und Jahr.

18 Exabyte Informationsdatenvolumen wurden im vergangenen Jahr elektronisch ausgetauscht, 98 Prozent davon über die Telefonnetzwerke. 90 Prozent der neuen Information sind auf magnetischen Medien gespeichert worden, sieben Prozent auf Filmen und nur ein Bruchteil auf Papier. Nordamerikaner nutzen etwa 12.000 Blätter Papier pro Person und Jahr, während Europäer nur auf 5000 im Schnitt kommen. Die USA produzieren insgesamt 40 Prozent der gespeicherten Informationen. (boi/c’t)

Meldung vom 27.11.2003 18:16

„Uns wird in alten Geschichten an Wunderbarem viel erzählt“ — so klingt, ins Neuhochdeutsche übersetzt, die erste Zeile des Nibelungenliedes. Wer den sprachlichen Reiz der mittelhochdeutschen Fassung aus dem 13. Jahrhundert nachvollziehen möchte, hat dazu nun Gelegenheit, denn das mittelalterliche Epos ist nun erstmals komplett ins Internet gestellt worden. Die Badische Landesbibliothek in Karlsruhe hat dafür die Handschrift C des Heldenepos um Siegfried, Kriemhild und Hagen digitalisiert. Auf der Homepage der Landesbibliothek sind seit heute die 2400 Strophen auf 380 Internet-Seiten nachzulesen. Auch Hörproben des in neugotischer Schrift verfassten Textes werden angeboten.

Die Farbabbildungen der einzelnen Seiten der Handschrift werden in jeweils drei Varianten zur Verfügung gestellt. Ein Bild im JPG-Format mit einer Größe von etwa 9 KByte ist in die Web-Seiten integriert. Durch Anklicken erhält man eine JPG-Abbildung mit einer Größe von etwa 80 KByte. Daneben ist auch eine Darstellung im PDF-Format mit rund 160 KByte möglich. Außerdem gibt es zwei Transkriptionen sowie eine Übertragung ins Neuhochdeutsche nachzulesen.

„Die verhältnismäßig große Zahl der heute noch erhaltenen Handschriften zum Nibelungenlied bezeugt, daß sich diese Dichtung in der Zeit um 1200 und in den nachfolgenden Jahrhunderten großer Beliebtheit erfreut haben muss“, erfährt man auf der Homepage. Im 16. Jahrhundert sei das Nibelungenlied fast vollständig in Vergessenheit geraten. Die neuzeitliche Rezeption setzte erst wieder im Jahre 1755 ein.

Die heute noch erhaltenen Handschriften und Handschriftenfragmente zum Nibelungenlied weichen in der Textgestalt oft erheblich voneinander ab. Die einzelnen Handschriften lassen sich in zwei größere Klassen einteilen, die in der Forschung nach den drei Haupthandschriften als *A/B-Fassung beziehungsweise als *C-Fassung bezeichnet werden. Die *C-Fassung wird dabei heute als eine jüngere Bearbeitung des Nibelungenliedes angesehen.

Die drei Haupthandschriften, die in der Ausstellung Uns ist in alten Mären … Das Nibelungenlied und seine Welt erstmalig an einem Ort zu sehen sind, werden heute in München (Handschrift A), St. Gallen (Handschrift B) und in Karlsruhe (Handschrift C) aufbewahrt. Das Online-Projekt gehört zu den Vorbereitungen der großen Nibelungenlied-Ausstellung des Badischen Landesmuseums und der Landesbibliothek. Die Schau wird am 13. Dezember eröffnet und dauert bis zum 14. März 2004.

Meldung vom 01.12.2003 14:18

Die Datenschützer kritisieren vor allem die mangelnde Transparenz bei den Teilnahmebedingungen. Fast alle Kundenbindungssysteme würden mehr Daten über den Kunden sammeln, als für das Durchführen eines Bonusprogramms notwendig sei — bis hin zur Erstellung individueller Käuferprofile. Die sei nur dann rechtlich zulässig, wenn der Kunde dieser Speicherung und Weiterverarbeitung seiner Daten explizit zugestimmt habe. Die in der Praxis verwendeten Einwilligungserklärungen seien jedoch „praktisch in allen Fällen mit Mängeln behaftet“, heißt es in der Studie.

Durch besondere Intransparenz zeichne sich beispielsweise Happy Digits aus: So lägen dem Antragsformular von Happy Digits keine Teilnahmebedingungen bei, es erfolge lediglich der Hinweis, dass die Teilnahmebedingungen mit dem Versand der Karte zugestellt werden oder per Faxabruf angefordert werden können. Auch eine „Verletzung des Kopplungsverbots“ sehen die Datenschützer als schwerwiegenden Mangel an. Die Verbraucher müssten die Möglichkeit haben, der Nutzung und Weiterverwendung ihrer Daten „aus freien Stücken“ zuzustimmen. Sowohl das Bonusprogramm Vodafone Stars als auch das Programm S-Points der Sparkassen Wuppertal, Essen und Bonn machten dagegen die Teilnahme der Kunden an dem Bonussystem von seiner Einwilligung in die Nutzung von personenbezogenen Daten zu Werbe- und Marktforschungszwecken abhängig. Von einer freiwilligen Einwilligung könne „hier keine Rede mehr sein“.

vzbv-Vorstand Edda Müller rief die Unternehmen zu einem „Wettbewerb für mehr Verbraucherschutz und Datenschutz bei den Kundenkarten“ auf. „Wer für seine Kundenprofile speichern will, wenn ein Kunde Schmerzmittel, Kondome oder Diätprodukte kauft, der soll es offen sagen — oder sein lassen.“ Der vzbv sei bereit, mit Unternehmen und den Datenschutzbehörden Strategien für verbraucherfreundliche Kundenkarten zu erarbeiten. Die Studie verstehe sich nicht nur als Kritik an der bestehenden Praxis sondern auch als „Fundus für Verbesserungsideen im Sinne der Verbraucher“.

Der Spyware-Hersteller Claria, besser bekannt unter seinem bisherigen Namen Gator, bleibt trotz Einschüchterungsversuchen auf den schwarzen Listen der PC-Schützer. So entfernten zwar die Betreiber der amerikanischen Aktivisten-Website PC Pitstop nach Drohungen der Gator-Anwälte einige Gator-kritische Beiträge aus ihrem Informationsangebot, doch den Spyware-Entwicklern wurde damit nur eine kurze Verschnaufpause zuteil.

Seit heute prangt nämlich auf PC Pitstop der Link auf ein eigens errichtetes Gator Information Center, das den Anwälten des Pest-Produzenten keine neuen Schattengefechte ermöglichen soll. Zum Beispiel haben die Pitstop-Autoren dort konsequent die Vokabel „Spyware“ vermieden, an denen die Juristen ihre Klage festgemacht hatten. Stattdessen setzen die PC-Schützer jetzt ganz kühl ihre eigenen Beobachtungen gegen die vorgebrachten Gator-Behauptungen: Die Entwickler des gefürchteten Gator Advertising Information Network (GAIN), das sich im Gefolge von Shareware-Paketen wie DivX oder Kazaa vielfach unbemerkt auf heimischen Festplatten einschleicht, hatten sich eine eigene Definition von Spyware zurechtgelegt, in der es auf Datensammlung scheinbar überhaupt nicht ankommt. Nach der Claria-Doktrin kommt es nämlich nur darauf an, dass „richtige“ Spyware ihre Aktivitäten ohne Gegenleistung für den Anwender ausübt, während die GAIN-Programme ja immerhin zur Verbilligung anderer Softwarepakete beitrügen und deshalb nur als Ad-Ware bezeichnet werden dürften.

Dieses Verhalten bekommen laut PC Pitstop auch jene Anwender zu spüren, die etwa für den Gator-verseuchten Passwort-Tresor eWallet die Registriergebühr von 30 US-Dollar entrichten. Dann stelle die Software zwar sofort ihr Reklamebombardement auf den Anwender ein, nicht aber ihre Spionagetätigkeit. Und die hat es durchaus in sich — gemäß verwinkelten Querverweisen im ohnehin kaum auffindbaren Software Privacy Statement sammelt der Trojaner nämlich außer Auskünften über besuchte Webseiten auch detaillierte Daten über andere Anwendungen, die der Benutzer auf seinem PC installiert hat.

PC Pitstop vermittelt nicht nur diese Informationen im wieder veröffentlichten Gator Licence Quiz, sondern outet per Medienbericht auch vermeintliche Gator-Begünstigte, nämlich Anzeigenkunden, als tatsächliche Opfer des Reklamegewinnlers. Zu den weiteren Opfern zählen diejenigen Webmaster, deren Seiten ohne ihr Zutun als Trigger für Gators Popup-Orgien herhalten müssen. In deren Interesse verweist PC Pitstop auch auf eine , in der über 8000 betroffene Webseiten, darunter auch heise online, als Gator-Opfer beschrieben werden. Einige US-Verlage, die sich das Abdecken ihrer Inhalte zugunsten der Gator-Bilanzen nicht gefallen lassen wollten, waren dagegen bereits vor Gericht gezogen; dank einer außergerichtlichen Einigung ist der Ausgang der Affaire jedoch nicht an die Öffentlichkeit gelangt.

Meldung vom 29.10.2003 17:07

In der Klage von zwei ehemaligen IBM-Angstellten um Krebs erregende Chemikalien in der Festplattenproduktion geht der Expertenstreit weiter. Nach US-Medieberichten warf der Chemiker Barton Simmons, Laborchef beim California
Department of Toxic Substances Control
, dem Konzern wissenschaftlich schlampige Arbeit vor.

Rechtsanwalt Richard Alexander hatte beantragt, dass IBM sämtliche Unterlagen zu den Umwelt-Überwachungen der Produktionsanlage zwischen 1967 und 1997 herausgeben muss. Simmons ist der Auffassung, dass aus diesen Dokumenten hervorgeht, dass Messinstrumente in den IBM-Laboren falsch kalibriert wurden und so zu niedrige Werte lieferten.

Die ehemaligen IBM-Angestellten Jim Moore und Alida Hernandez klagen gegen IBM, weil der Konzern krebserregende Chemikalien im Festplatten-Werk in San Jose eingesetzt und die damit verbundenen Gesundheitsrisiken verschwiegen haben soll. Die juristische Latte ist allerdings sehr hoch gelegt: Die Kläger behaupten und müssen somit auch nachweisen, dass IBM von diesem Zusammenhang gewusst und keinerlei Maßnahmen dagegen ergriffen hat. IBM weist die Vorwürfe zurück. Der Fall wird in der Branche mit Spannung beobachtet; bisher sind vergleichbare Verfahren in der Regel durch einen außergerichtlichen Vergleich beigelegt worden. Die Anhörungen sollen noch in diesem Jahr beendet werden.

Meldung vom 11.12.2003 17:57

Der Karlsruher Internetanbieter Web.de und der Online-Suchdienst Google arbeiten künftig bei der Vermarktung von Werbung zusammen. Web.de werde die Technik Google AdSense für bezahlte Suchmaschinen-Einträge einsetzen, teilte das Unternehmen heute mit. Von der auf zwei Jahre geschlossenen Partnerschaft erhofft sich Web.de eine Verdoppelung der bisherigen Einnahmen durch derartige Einträge. Die Zusammenarbeit von Web.de mit E-Spotting im Bereich „Sponsored Links“ bleibt von der Vereinbarung mit Google unberührt, heißt es in einer Mitteilung.

Google hatte seinen Service für Werbekunden vor rund drei Jahren gestartet. Kunden können dabei kostenpflichtig eigene Links einrichten, die bei der Suche nach bestimmten Begriffen in der Trefferliste erscheinen sollen. „Dank der Relevanz der dargestellten Anzeigen aus Googles Content-bezogener Werbung haben wir die Möglichkeit, direktmarketingorientierte Anzeigen in unser Portal zu integrieren, ohne die Besucher der Web.de Seiten zu irritieren“, freut sich Matthias Greve, Vorstandsvorsitzender von Web.de.

Meldung vom 17.12.2003 17:07

Katalysatoren aus ungewöhnlichen Materialmischungen
Chemiker der Uni Jena beenden Verbundprojekt und suchen jetzt Praxispartner

10.12.2003 – Jena — Saubere Luft wird immer wichtiger

Meldung vom 12.12.2003 17:07

Meldung vom 11.12.2003 17:07

Bereits am 1. Dezember hat die International Organization for Standardization (ISO) mit Relax NG einen Entwurf für XML-Schemata zum Standard erhoben, den nicht wie XML Schema das World Wide Web Consortium (W3C), sondern die Organization for the Advancement of Structured Information (OASIS) betreut.

Relax NG und XML Schema sind zwei Umsetzungen von Schemata für XML-Dateien, die über die Möglichkeiten einer DTD (Dokumenttyp-Definition) hinausgehen. Insbesondere geht es dabei um die Festlegung und Überprüfung von Datentypen, etwa ob ein Preis vom Typ Fließkomma ist. Dadurch lassen sich beim anwendungsübergreifenden Austausch von Informationen via XML von vorneherein Fehler erkennen.

Verfasser der OASIS-Spezifikation ist James Clark, der an der Entwicklung von SGML sowie XML stark beteiligt war und ist. Relax NG ist eine Verschmelzung der ursprünglich von Makoto Murata entwickelten Regular Language Description for XML (Relax) und Clarks eigenen Tree Regular Expressions for XML (TREX). Dem derzeitigen Entwurf von XHTML 2 hat das W3C lediglich ein Relax-NG-Schema für XHTML 2 beigefügt.

chemie-de vom Mittwoch, 14. Januar 2004

07.01.2004 – Wenn im Krimi von „Arsen“ die Rede ist, wurde das Opfer meist mit Arsenik, d.h. Arsenoxid, vergiftet. Wie giftig eine arsenhaltige Substanz ist, hängt von ihrem genauen Aufbau. Im Urin einer seltenen Schafsrasse fanden Forscher der Universitäten Aberdeen, Schottland, und York, England, eine bisher unbekannte organische Arsenverbindung. Das Besondere daran: An das Arsenatom ist ein Schwefelatom gebunden – das erste Mal, dass ein Thioorganoarsenat, so der Name dieser Verbindungsklasse (griech. theion = Schwefel), in einer biologischen Probe gefunden wurde.

„Überraschend, aber eigentlich nicht unerwartet,“ findet Jörg Feldmann, „denn Arsen hat eine hohe Affinität zu Schwefel, im Organismus binden Arsenionen an Schwefelwasserstoffgruppen von Proteinen und legen so wichtige physiologische Funktionen lahm. Auch beim Abbau von arsenhaltigen Verbindungen im Körper spielt die Bindung zwischen Arsen- und Schwefelatomen eine wichtige Rolle.“ Auf der Suche nach arsenhaltigen Stoffwechselprodukten untersuchten er und seine Kollegen den Urin einer britischen Schafsart, deren Lieblingsspeise Seegras ist. Seegras akkumuliert Arsen, das in Meerwasser in Spuren vorhanden ist, in Form von so genannten Arsenozuckern, einer bisher als nichttoxisch eingestuften Verbindungsklasse. Das Thioorganoarsenat, dessen Struktur durch chromatographische und massenspektrometrische Methoden charakterisiert wurde, ist nicht sehr beständig, vielleicht einer der Gründe, warum es jetzt erst entdeckt wurde. Beim längeren Stehenlassen und bei der Behandlung der Proben wird es rasch in das entsprechende Oxoorganoarsenat umgewandelt, das Schwefel- also durch ein Sauerstoffatom ersetzt. Die Oxo-Verbindung ist bereits seit längerem bekannt, sie soll in Schalentieren vorkommen und galt bisher als Metabolit von Arsenozuckern, der mit dem Urin ausgeschieden wird.

Möglicherweise wurden Thioorganoarsenate bei der Analytik von Bioproben bisher einfach übersehen. Feldmann: „Die Standardbedingungen bei der Analytik von Arsenverbindungen scheinen für den Nachweis von Thioorganoarsenaten sehr ungünstig zu sein.“ Beispielsweise spielt der pH-Wert (Säurewert) bei der Trennung der Proben auf Chromatographie-Säulen eine wichtige Rolle. In stark sauren Lösungen zersetzt sich das in Schafsurin gefundene Thioorganoarsenat leicht, mit nur schwach sauren Flüssigkeiten lässt es sich nicht mehr von der Säule eluieren. „Mit diesem Wissen könnte vielleicht bald eine Vielzahl weiterer Thioorganoarsen-Verbindungen entdeckt werden,“ spekuliert Feldmann. „Der Stoffwechsel von Arsenverbindungen im Körper scheint jedenfalls komplexer zu sein als zuvor angenommen, und es eröffnen sich neue Fragen zur Toxizität von Arsenverbidnungen.“

chemie-de-Meldung vom 09.01.2004

09.01.2004 – Ob Verkehrsdelikt, illegaler Drogenkonsum oder Doping: Die Haaranalyse ist ein unverzichtbares Instrument, das dazu beiträgt, Straftaten aufzuklären und juristische Zweifel auszuräumen. Gerichtsprozesse und persönliche Schicksale werden durch diesen Test entschieden. Wissenschaftliche Untersuchungen einer rechtsmedizinischen Arbeitsgruppe aus Heidelberg und Mainz haben jetzt gezeigt: Nicht alle gebräuchlichen Analyseverfahren berücksichtigen ausreichend den Farbstoffgehalt im Haar.

Farbstoffe bzw. Pigmente (Melanin) im Haar reichern bestimmte Substanzen, die dem Körper zugeführt werden, in hohem Maße an. Als „Pigmenteffekt“ ist bekannt: Wer dunkles Haar hat, kann mehr Drogen oder andere Stoffe einlagern; Blonde kommen deshalb beim Haartest eher ungeschoren davon. Allerdings sind auch die Ergebnisse bei Dunkelhaarigen nicht einheitlich, denn nicht immer werden die an Melanin gebundenen Stoffe ausreichend erfasst. Deswegen fordert Prof. Dr. Rainer Mattern, Ärztlicher Direktor des Instituts für Rechts- und Verkehrmedizin am Universitätsklinikum Heidelberg und gleichzeitig Vorsitzender der Deutschen Gesellschaft für Verkehrsmedizin, die Einführung wissenschaftlich gesicherter, verbindlicher Standards für die Haaranalyse.

Für ihre Arbeiten zum Fremdstoffnachweis im Melanin der Haarzellen wurde Privatdozentin Dr. rer. nat. Gisela Skopp, Forensische Toxikologin (GTFCh) am Heidelberger Institut für Rechts- und Verkehrsmedizin von der Deutschen Gesellschaft für Rechtsmedizin mit einem Posterpreis ausgezeichnet. Die Wissenschaftlerin und Apothekerin erhielt die Auszeichnung zusammen mit ihren Mainzer Kollegen, dem Diplom-Biologen Dino Magnani und der Privatdozentin Dr. med. Dipl.-Ing. Lucia Pötsch-Schneider.

Bei der Analyse werden Substanzen nur zum Teil aus Pigmenten freigesetzt

Bei einer Haaranalyse kommen verschiedene Verfahren zum Einsatz. Je nach Analysemethode und Substanz kann dies zu unterschiedlichen Ergebnissen führen. Um körperfremde Substanzen bei der Haaranalyse zweifelsfrei nachzuweisen, untersuchte das Wissenschaftlerteam im Labor die Fremdstoffaufnahme an pigment-bildenden Zellen. Dabei handelt es sich um diejenigen Zellen, die durch Produktion von Melaninpigmenten die Haarfarbe bestimmen.

Melanin wird im Haar in kleinen Körnern, den sogenannten Melaningranula, abgelagert. Es ist bekannt, dass manche Substanzen verstärkt an Melanin binden und sich somit in den Granula und auf ihrer Oberfläche anreichern. Benutzt man eine ungeeignete Analysemethode, werden die Substanzen nur zum Teil aus dem Verbund mit Melanin freigesetzt und können dadurch nicht im vollen Umfang im Haar nachgewiesen werden. „Es ist daher sehr wichtig, standardisierte Methoden zum Nachweis der jeweiligen Substanzen zu nutzen“, erläutert Frau Dr. Skopp. Das Wissenschaftlerteam untersuchte, wie effektiv verschiedene Nachweisverfahren die beiden Psychopharmaka Imipramin und Haloperidol auf ihre Bindung in/an Melaningranula erfassen können. Pigment-produzierende Melanozyten wurden den Medikamenten ausgesetzt; im Laufe einiger Tage bildeten sie Melanin und schlossen dabei die Fremdsubstanzen in die Granula ein. Durch die radioaktive Markierung der Medikamente konnte ermittelt werden, wie viel Substanz durch die verschiedenen Aufschlussverfahren erfasst worden war.

„Wir konnten nachweisen, dass die Substanzen in unterschiedlichem Maß in die entstehenden Pigmente eingeschlossen werden“, erklärt Frau Dr. Skopp. Dabei stellte sich heraus, dass Haloperidol zu 80 Prozent mit dem Melanin verbunden war, Imipramin jedoch nur zu 30 Prozent. „Die eingeschlossenen Medikamente ließen sich mit wässrigen Lösungsmitteln nur schlecht herauslösen“, so Skopp weiter. Als effektivste Methode erwies sich die Behandlung der Proben mit Methanol und Ultraschall.

Fachgesellschaften legen Standard fest / Nur anerkannte Labors sollen Analysen für Rechtsverfahren liefern

„Da die Analyse von Rauschmitteln in Haarproben und ihre Interpretation sehr anspruchsvoll ist, findet man Anbieter unterschiedlicher Qualität am Markt“, erklärte Professor Mattern. Mitunter würden negative Befunde geliefert, obwohl eine Belastung der Haare nachweisbar wäre, oder umgekehrt, könne es zu falsch-positiven Ergebnissen kommen. Um diese Rechtsunsicherheit zu beheben, haben die Deutschen Gesellschaften für Verkehrsmedizin (DGVM), Verkehrspsychologie (DGVP) und toxikologische und forensische Chemie (GTFCH) kürzlich beschlossen, den derzeit anerkannten Stand in gemeinsamen Kriterien der Entnahmebedingungen, der Analysemethoden und der Beurteilung festzulegen und den Stand der Wissenschaft entsprechend fortzuschreiben.

Damit Rechtsgleichheit und Rechtssicherheit gewährleistet sind, müssen die zuständigen Fachministerien durch Erlass festlegen, dass nur Analysenergebnisse aus anerkannten Labors in Verfahren mit Rechtsfolgen verwendet werden dürfen. Die Labors sollten verpflichtet werden, in Ringversuchen ihre Leistungsfähigkeit auf dem Gebiet der Haaranalyse regelmäßig nachzuweisen und die Kriterien der Fachgesellschaften einzuhalten.

chemie.de 27.01.2004

Die zehn größten Pharmaunternehmen der Welt nach Umsatz in Milliarden Dollar im Jahr 2002:

Umsatz Marktanteil (%)

1. Pfizer (USA) 40,3 11,0

2. GlaxoSmithKline (GB) 27,0 7,2

3. Merck & Co. (USA) 21,6 5,6

4. AstraZeneca (GB) 17,3 4,5

5. Johnson & Johnson (USA) 17,2 4,5

6. Aventis (F) 16,6 4,3

7. Bristol-Myers- Sqibb (USA) 14,7 3,8

8. Novartis (Schweiz) 13,6 3,5

9. Roche (Schweiz) 12,4 3,2

10. Wyeth (USA) 11,7 3,1

11. Eli Lilly (USA) 10,3 2,6

12. Schering-Plough (USA) 8,9 2,3

13. Abbott (USA) 7,3 1,9

14. Sanofi-Synthélabo 7,0 1,8

15. Takeda (Japan) 5,9 1,5

16. Boehringer Ingelheim (D) 5,3 1,3

17. Amgen (USA) 5,0 1,2

18. Bayer 4,3 1,1

19. Sankyo (Japan) 4,2 1,1

20. Schering 3,3 0,8
Quelle: dpa

chemie.de 27.01.2004

27.01.2004 – Neue wissenschaftliche Methoden können ökologische von konventionellen Lebensmitteln aus Anbauversuchen unterscheiden. Mit ihren Ergebnissen bot eine Gruppe von Forschern der Universität Kassel in Witzenhausen und von privaten Forschungseinrichtungen, der KWALIS Qualitätsforschung Fulda GmbH, Dipperz, und der EQC GmbH, Weidenbach, auf der europäischen Wissenschaftskonferenz „New Approaches in Food Quality Analysis“ Mitte November 2003 in Berlin reichlich Diskussionsstoff. Bislang konnte die Produktqualität von Lebensmitteln der beiden Produktionsverfahren analytisch nicht unterschieden werden. Die vorhandenen Methoden waren nicht geeignet, neue und komplementäre Methoden hingegen nicht ausreichend überprüft.

In dem vorgestellten Projekt validierten die Forscher die neuen bildschaffenden, spektral-analytischen und elektro-chemischen Methoden nach der Norm ISO 17025. Es gelang ihnen bei standardisierten ökologischen und konventionellen Weizen- sowie Möhrenproben aus Anbauversuchen des schweizerischen Forschungsinstituts für biologischen Landbau (FiBL) signifikante Unterschiede der Anbausysteme zu belegen. Zentrale Rolle spielt dabei die Methode der Kupfer-chlorid-Kristallisation: In ökologischen und konventionellen Produktproben entstehen bei der Analyse signifikant unterschiedliche Kristallmuster. Diese wurden mit einem Computerprogramm ausgewertet.

Unter Anwesenheit von Staatssekretär Alexander Müller vom Bundesministerium für Verbraucherschutz, Ernährung und Landwirtschaft (BMVEL) diskutierten rund 50 Wissenschaftlerinnen und Wissenschaftler aus der universitären, freien und der Ressortforschung acht europäischer Länder die Ergebnisse der neuen Methoden. Diese können durchaus als Meilenstein in der Qualitätsforschung bezeichnet werden, so Dr. Johannes Kahl, Mitarbeiter des in Witzenhausen ansässigen Fachgebiets Ökologische Lebensmittelqualität und Ernährungskultur der Universität Kassel. Ziel ist, künftig ökologische und konventionelle Lebensmittel am Produkt zu unterscheiden. Damit würde das gegenwärtige Kontrollverfahren zur Sicherstellung der Prozesse ergänzt und die Verbrauchersicherheit sowie das Vertrauen in die Produktherkunft gestärkt.

Allerdings müssen die neuen Methoden noch verfeinert und überprüft werden, bis es möglich sein wird, generell ökologische und konventionelle Produkte auf analytischem Wege zu unterscheiden. Hier kann die Variation der Produktproben aufgrund der unterschiedlichen Wachstums- und Standortbedingungen eine Rolle spielen, so Kahl. Dieser Aufgabe stellen sich die Forscher nun in Zusammenarbeit mit Bundesforschungseinrichtungen.
Universität Kassel

NanoDrop ND-1000 UV-Vis Spectrophotometer Testimonials

Please share your own experiences in measuring 0.5 to 2.0 uL without a cuvette!

Surekha Krishnan, Human Genome Sciences, Inc.:

For a busy laboratory such as ours, which measures the concentration/purity of scores of RNA samples everyday, the time and effort alone saved through the elimination of making cumbersome dilutions, using and washing cuvettes is a valuable feature. We use it for different applications and every user has been impressed with the ease and speed of the RNA quality measurements. We plan on using it for microarray dye measurements as well in the near future. Based on our experience, the ND-1000 is an excellent cost-effective solution that will pay for itself in a relatively short time. We have no hesitation in recommending this product to other users.

Gregory E. Gonye Ph.D., Daniel Baugh Inst. for Functional Genomics/Computational. Biology, Jefferson Medical College, Thomas Jefferson University:

The NanoDrop is the only spectrophotometer our group uses for all our molecular biology-related needs ranging from simple nucleic acid quantitation to fluorescent dye incorporation assays. I enthusiastically recommend the NanoDrop to anyone seeking a small volume (1…2&myl) solution to spectrophotometric analysis.

Laboratory of Orian Shirihai, M.D., P.h.D., BioCurrents Research Center, Marine Biological Laboratory. Woods Hole, MA:

We have been very pleased with the performance and convenience of our NanoDrop spectrophotometer. We employ the machine daily for Pi, hemoglobin, total protein, and DNA spectrophotometric concentration analyses. The small sample volume greatly streamlines our experiments.

David Caldwell, BioCurrents Research Center, Marine Biological Laboratory. Woods Hole, MA:

The NanoDrop makes quantifying DNA and RNA so fast and painless that you will find yourself measuring all of your samples on it. It has definitely become one of the more popular pieces of lab equipment across the institute.

Eduardo Taboada, Ph.D., Pathogen Genomics Group; Institute for Biological Sciences, National Research Council of Canada:

I have in the past tried using standard specs with capillary cuvettes and but found that to be a near waste of time. My first readings were a series of DNA standards where I got 1-2% errors on the reads…this little gizmo has restored my faith on spectrophotometers !!! Using 1 ul samples, the instrument is quite accurate across more than 50 optical units (we have tested it with *very* concentrated samples ), so you can measure anything without having to dilute or concentrate the samples.

Our NanoDrop has become extremely popular on the floor, and naysayers of the purchase (why on earth do we need *another* spectrophotometer !?!?) have been won over by how great the unit’s performing. People come from far and wide to use the thing. Its microarray sample module alone is worth the price of admission. This has been one of the best purchases our group has made.

Steven J. Clough, Research Geneticist, USDA-ARS; Assistant Professor, U of Illinois, Crop Sciences:

The NanoDrop is great machine. Once you’ve used it, you’ll never want to go back to a cuvette-based spectrophotometer. It’s so small that when people see it for the first time they smirk and wonder what I’ve bought. But once they use it, they become hooked. It’s quick — gives a complete scan 220 to 750nm within a couple of seconds. When my NanoDrop first arrived, I let another lab use it since my lab is under construction. Several weeks later I removed it and brought it back to my lab. I heard that people screamed when they noticed that it was missing. Now people from at least 5 different labs are walking over to my lab just to use the NanoDrop. Those that come from another building and have to walk the furthest are trying to persuade their PI’s or lab directors to buy one. I’m very happy with my purchase.

Meldung vom 15.04.2004 17:52

Leitende Kunststoffe beziehungsweise Polymere sind zwar an sich nichts Neues, aber wie normale Polymere sind sie nur schwer zu verarbeiten, wenn sie nicht gel�st werden k�nnen. Anfangs waren leitende Kunststoffe �berhaupt nicht l�slich. Erst k�rzlich wurden wasserl�sliche leitende Polymere entdeckt, die so genannten Pedots (Polyethylendioxythiophen). Oligotron ist eine Abwandlung von Pedot und ist jetzt auch in organischen L�sungsmitteln wie Azeton l�slich. Da andere Kunststoffe und sonstige Materialien wie Metalle in den Bauelementen sehr empfindlich auf Wasser oder Sauerstoff reagieren, ist deren Kombination mit Pedots in der Verarbeitung schwierig zu handhaben.

Meldung vom 21.04.2004 20:02

Nanotechnologie ist die Gesamtheit aller technischen Verfahren, die Materiestrukturen von unter 100 Nanometern Ausdehnung nutzen oder herstellen. Physiker, Chemiker, Biologen, Mediziner und Informatiker forschen gleicherma�en im Nanokosmos und untersuchen die kleinsten Bausteine der Materie und des Lebens mit immer gr��erer Pr�zision. Schon heute umfasst der Nanomarkt gut 7,5 Milliarden US-Dollar, berichtet Technology Review unter Berufung auf die Studie „Nanotechnology: A Realistic Market Evaluation“

Meldung 14.04.2004

Forschungszentrum Karlsruhe entwickelt mehrschichtige fluoreszierende Nanopartikel
Im Licht einer UV-Lampe leuchten sie gr�n, violett oder blau: fluoreszierende Nanopartikel mit einer Schicht aus organischen Farbstoffen. Hergestellt werden sie mit einem im Forschungszentrum Karlsruhe entwickelten Mikrowellen-Plasmaverfahren zur Herstellung mehrschichtiger Nanopartikel. Die empfindlichen Farbstoff-Oberfl�chen werden dabei zus�tzlich mit einem Polymer beschichtet, das chemische Reaktionen verhindert und die Partikeleigenschaften stabilisiert. Die Fluoreszenz bleibt dadurch lange erhalten. Dies er�ffnet den Nanopartikeln vielf�ltige Anwendungen, vor allem in Sicherheitstechnologie und Medizintechnik.

Meldung vom 06.05.2004 13:56

Experten der Hochfrequenztechnik in der Bundesrepublik haben untersucht, mit welchen Mitteln sich die Strahlenbelastung der Bev�lkerung senken l�sst. Die nun vorgelegte Studie enth�lt manch �berraschendes Ergebnis.

Meldung vom 14.05.2004 11:09

Physikern in Wien und Toronto ist es gegl�ckt, mehr als zwei Photonen miteinander zu verschr�nken und mit diesen „Mehr-Photonen-Paketen“ sehr genaue Positionsmessungen durchzuf�hren. Damit konnten die beiden Teams die optische Beugungsgrenze geschickt umgehen. Das Verfahren lie�e sich beispielsweise f�r Hochpr�zisionsmessungen sowie zur Herstellung noch feinerer Strukturen auf Mikrochips nutzen. Die Wissenschaftler beschreiben das Experiment in der aktuellen Ausgabe des Wissenschaftsmagazins Nature (Nature Vol 429, Nr. 6988, S. 161 und 164).

An der University of Toronto versetzten die Wissenschaftler um Aephraim Steinberg dazu jeweils drei Lichtteilchen in diesen Zustand, w�hrend Anton Zeilinger und seine Kollegen, die vor kurzem die erste quantenkryptographisch gesicherte Bank�berweisung demonstriert hatten, in Wien dasselbe Kunstst�ck mit vier Photonen vollf�hrten. Sie schufen damit quantenmechanische Systeme, die eine Wellenl�nge von nur einem Drittel beziehungsweise einem Viertel der Wellenl�nge der Einzelphotonen aufwiesen. Ein optisches Gesetz, das normalerweise das Aufl�sungsverm�gen optischer Ger�te beschr�nkt, wird damit unterlaufen. Es besagt, dass nur Strukturen abgebildet oder auch geschaffen werden k�nnen, die von ihrer Gr��e her mit der Wellenl�nge des eingesetzten Lichts vergleichbar sind.

Die so genannte Verschr�nkung von Teilchen ist ein zutiefst quantenmechanisches Ph�nomen: Zwei Photonen k�nnen demnach derma�en eng miteinander verbunden werden, dass ein Physiker �ber die Messung zum Beispiel der Polarisation des einen „Zwillings“ sofort diejenige des anderen erf�hrt, auch wenn dieser Lichtjahre entfernt w�re. Solche Paare k�nnen die Forscher heute relativ bequem �ber ein Verfahren erzeugen, das als parametrische Fluoreszenz („parametric down-conversion“) bezeichnet wird. Ein Kristall mit nichtlinearen optischen Eigenschaften spielt dabei die Hauptrolle. Tritt ein Laserstrahl durch ihn hindurch, wird das eine oder andere Photon in zwei verschr�nkte Photonen mit doppelter Wellenl�nge beziehungsweise je einer H�lfte der Energie aufgespalten. Die Wellenl�nge des Paars als Gesamtsystem ist dabei wieder diejenige des Vorg�nger-Photons, sodass hier f�r eine h�here Aufl�sung „nichts gewonnen“ ist.

Anders steht es um die neuen Experimente. Paare dieser Art stellten hier das Ausgangsmaterial dar, mit dem jedes Team auf seine Weise und einigerma�en trickreich Pakete aus drei oder vier verschr�nkten Photonen in die Welt setzte. Sowohl in Toronto als auch in Wien konnten die Forscher daraufhin eine L�ngen- bzw. Positionsmessung durchf�hren, die wie erwartet drei- beziehungsweise viermal so genau ausfiel wie es mit unverschr�nkten Photonen der Fall gewesen w�re. Viel versprechend ist, dass beide Experimente nach Aussagen der Forscher „skalierbar“ sind. Es wird also m�glich sein, sie zur Erzeugung noch gr��erer „Mehr-Photonen-Pakete“ auszubauen. (Veronika Winkler)

Meldung vom 07.06.2004 17:14

Meldung vom 16.06.2004 20:55

10.12.2004
Wenn die mobilen Rechner zu lange auf dem Scho� ihres Nutzers W�rme
abgeben, kann die Temperatur der Hoden zu sehr ansteigen, haben
US-amerikanische Forscher herausgefunden.

        erstellt:
UMWELTBÜRO am Weißen See
– Die Website in Polnisch wird von Wilfried Platzek betreut.

[28.06.2005 17:38]: Das Land liegt damit bei der absoluten Anzahl der Internetnutzer an zweiter Stelle hinter den USA. 100 Millionen Nutzer bei 1.300 Millionen Einwohnern. Januar 2004: 80 Millionen. Prognose: Ende 2005: 120 Millionen.

Stichwort: elektrochrome Substanzen

idw-Meldung vom 09.10.2005

Siemens AG: Farbdisplays k�nnten k�nftig praktisch �berall Informationen anzeigen – etwa auf Lebensmittelkartons, Medikamentenschachteln oder sogar Eintrittskarten, also an Stellen, wo dies heute aus Kostengr�nden unrentabel ist. Entwickler von Siemens haben jetzt auf der Messe Plastics Electronics in Frankfurt hauchd�nne, farbige Kleindisplays gezeigt, die sich auf Papier oder Folie aufdrucken lassen. Sie k�nnen im Vergleich zu LCD-Anzeigen sehr g�nstig hergestellt werden. 2007 sollen erste Displays …

Bilder

Meldung vom 29.10.2003

Meldung vom 29.10.2003

Meldung vom 29.10.2003

Meldung vom 29.10.2003

  nach oben  

eine weitere LINK-Site, die wegen des Urheberrechtes nur für meinen persönlichen/ privaten Gebrauch bestimmt ist.

Arbeitslose nutzen Internet

Studie zu deutschen E-Learning-Lernumgebungen online

Marketingleiter beklagen falsche Kundendaten

Bürger suchen nach Formularen im virtuellen Rathaus

Index über Katastrophen-Risiko von IT-Systemen veröffentlicht

Rechts-Check für den Internet-Auftritt

Die 10 häufigsten Fehler der Online-Händler

Gesünder klicken

Fast 30 Millionen Online-Konten in Deutschland

Wissenschaftler entwickeln „sparsame“ Suchmaschine

P2P-Software Freenet 0.5.2 belegt weniger Ressourcen

Internet erobert die Europäer

Schnäppchenjagd mit Internet-Preisfindern spart Geld

68 Millionen Chinesen sind online

eGovernment: der Behördengang wird überflüssig

eLearning wächst weiter

Zerreißprobe für dünne Polymerfilme

FBI warnt vor Identitätsdiebstahl im Internet

Neue Lösung für Passwort-Management von Critical Path

Die texanische Gutenberg-Bibel im Netz

Studie: Jeder zweite Deutsche nutzt das Internet

Grundstein zur „Digitalen Bibliothek Deutschland“

Internationale Domains: Wer will schon gern müller.com?

Apache entwickelt J2EE-Implementierung

US-Behörde gibt Sicherheitstipps für Tauschbörsen-Nutzer

eco ruft Anti-Spam-Task-Force ins Leben

Wenn der eShop zur Kasse bittet

PHP 5 versus ASP.Net

Frauen legen im Internet Wert auf Übersichtlichkeit

Frauen kommt es im Web auf Usability an

Microsoft: Die Hälfte der Abstürze sind nicht die Schuld von Windows

Statistiken über Deutschland auf neuem Internet-Portal

Doch ein Zusammenhang zwischen Blackout und Windows-Wurm? [Update]

SQL-Slammer beeinträchtigte US-Kraftwerksteuerung

Studie: IP-Traffic nimmt 2003 um 67 Prozent zu

33,5 Millionen neue Handy-Nutzer in China seit Jahresbeginn

Leitfaden zur Nutzung des Webzugangs am Arbeitsplatz

Tiefseeschwamm produziert Lichtleiter

Flüssigkristalle in Bananenform könnten Computerdisplays verbessern

Der Bildschirm auf Folie rückt näher

Die Such-Zeitmaschine

Das neue Urheberrechtsgesetz

Drahtlose Kommunikation bringt auch arme Länder ans Netz

Datenschutz-Stichproben in Baden-Württemberg

Microsoft-Betriebssysteme dominieren weiter

Deutsche präsentieren sich gerne im Web

Halbzeit bei BundOnline 2005

Informationsflut nimmt dramatisch zu

Nibelungenlied erstmals komplett im Internet

Datenschützer kritisieren Kundenkarten

Ad-Ware — Spyware — Gator-Ware

Expertenstreit im Chemikalien-Prozess gegen IBM geht weiter

Web.de und Google arbeiten bei Werbung zusammen

Katalysatoren

Arsen-Abtrennung aus dem Trinkwasser: Neues Adsorptionsverfahren auch in den USA auf dem Vormarsch

Substanzen mit möglicher Antitumorwirkung in Rotwein entstehen beim Reifen in Eichenholzfässern

XML-Schemata: Relax NG ist ISO-Standard

Arsenstoffwechsel komplexer als vermutet?

Analytik an Haaren: Vorteil für Blonde

Die größten Pharmakonzerne der Welt

Neues Verfahren zur Analyse ökologischer und konventioneller Lebensmittel

Sechster Aggregatzustand entdeckt

UV/Vis Analyse kleinster Proben

Neuer elektrisch leitender Kunststoff entwickelt

Nanotech: Zwischen Revolution und Hype: Technology des 21. Jahrhunderts

Leuchtende Zwerge

Strategien gegen den Elektrosmog

Schrumpfkur f�r Lichtpakete / verschr�nkte Photonen

Nanor�hrchen f�r Gl�hbirnen

Teleportierte Atome

Studie: Laptops gef�hrden Fruchtbarkeit junger M�nner

Mehr als 100 Millionen Internetnutzer in China

Hauchd�nne Farbdisplays f�r Verpackungen

Von Leiden und Wehen
Vorteile:
Technologie
Hauptanwendungen
Spezifikationen
Neue Erkenntnisse warum und wie dünne Flüssigkeitsfilme aufbrechen Wissenschaftspreis der Stadt Ulm 2003
  • 1 microliter Probe
  • 220-750 nm Arbeitsbereich
  • 1 nm Wellenlängengenauigkeit
  • 3 nm Wellenlängenauflösung
  • 0.02-75 Absorptionsbereich
  • 0.003 Absorptionspräzision
  • 10 Sekunden Messzyklus
  • 2048-Element linear CCD Array Det.
  • Abmessung: 20 x 15 x 12 cm
  1. Fehlende oder unvollständige nachvertragliche Informationen
  2. Nicht ausreichende Hinweise zum Datenschutz
  3. Fehlender Hinweis zur Einsicht in den Vertragstext
  4. Offensichtlich unzulässige Klauseln in den AGB
  5. Fehlender Hinweis zum Widerrufsrechts im Verlauf der Bestellung
  6. Unzulässige Einzelheiten oder Einschränkungen des Widerrufsrechts
  7. Unzulässige Ausschlüsse vom Widerrufsrecht
  8. Fehlende Angaben zum Vertragschluss
  9. Zweifelhafte Einbeziehung der AGB
  10. Unvollständige Anbieterkennzeichnung, missverständlicher Verweis
Städte mit schnellen hilfreichen Antworten           ohne Antwort:
Neuss7 Minuten Braunschweig
Leverkusen8 Minuten Halle
Berlin16 Minuten Hamm
Oldenburg29 Minuten Erfurt
Hamburg35 Minuten Hannover
Freiburg51 Minuten Krefeld
Hagen54 Minuten Münster
Karlsruhe62 Minuten Saarbrücken
Frankfurt102 Minuten 
Bonn123 Minuten 
Abbildung 1
Abbildung 2
Fermionen-Kondensation als „Flugzeit-Bild“ bei drei verschieden starken Magnetfeldern

dpaMonika Ermertanwjkeresult.de/frauen_online
heise-Meldung
MeldungMeldungPhysical Review LettersFermionen-KondensationMarkus GreinerEntdeckerteamchemie.deNatureTitelseiteQuantencomputereinen Vorschlagexperimentell vorf�hrenwstUpdate für IEWikipedia