Skip to content

Intranet Identity Management (Part 1)

Das Thema Identity Management wurde besonders von den Herstellern entsprechender Lösungen immer wieder in die Fachpresse gebracht. Sicherheit ist auch ein sehr wichtiges Thema, und gerade die Innerbetrieblichen Abläufe lassen sich durch entsprechende Automatisierung nicht nur beschleunigen oder kostengünstiger machen, nein insbesondere auch die Sicherheit profitiert von einem durchdachten Ansatz. Ein typisches Beispiel ist der HR Prozess bei dem ein Mitarbeiter das Unternehmen verlässt, oder dessen Zugriffsrechte kurzfristig zurückgezogen werden sollen. Je mehr Systeme an einer Synchronisation beteiligt sind, oder direkt auf die zentrale Benutzerverwaltung zugreifen, desto schneller und vollständiger ist dieser Prozess. Aber wieder zurück zum Thema IM - ich habe den Eindruck das Risiko wird zwar verstanden, aber noch immer sind Tools in dem Umfeld "Nice-to-have", oder noch schlimmer: es werden strategische Entscheidungen "angedacht" und investiert, ein Großteil der Intranet Anwendungen bleibt aber außen vor. Hier genau setzt jetzt ein Compliance und Risk Management an. Und wie allen bekannt ist, kann sich Niemand dem Thema entziehen. Spätestens mit der neuen EU Direktive zum EuroSOX (was für ein schreckliches Schlagwort) wird es hier einen Boom geben. Entsprechend gibt es auch schon eine Analysten Meinung zu dem Thema, wie gerade bei CIO.de gefunden. Zugriffsrechte sollen hier vereinheitlicht werden (und dazu muß man natürlich Produkte kaufen). "Intranet Identity Management (Part 1)" vollständig lesen

twitter.com/eckes

Ich habe mir einen Twitter Account zugelegt, weil ich denke das ist ein gutes Tool seinen Tagesablauf zu dokumentieren. Ich werde mir neben dem öffentlichen Account den Sie gerne tracken dürft auch noch einen privaten anlegen in dem ich z.b. Projektspezifische Zeiten accounten werde. Jetzt muss ich nur noch den RSS Feed auf meiner privaten Homepage einbauen..

Internet Explorer 7 (IE7) macht Ärger mit Outlook 2003

Vor kurzem war der IE7 in der Post. Also nicht in der Briefpost, sondern verfügbar per Windows Updates. Bisher hatte ich mich damit noch nicht befasst, weil ich mit Firefox als System Browser sehr weit komme. Ich habe deswegen den IE7 Update im Hintergrund laufen lassen, wohlwissend dass ich dieses Produkt sowieso selten benutzen werde (es gibt immer noch Websites die mit dem Firefox nicht zurrechtkommen). Nun ja, was soll ich sagen, nicht nur ist der IE auch schon bei den ersten Starts mehrfach abgestürtzt, nein noch viel Schlimmer gibt es nun Instabilitäten in Outlook 2003: beim Antworten auf manche Rich Text mails stürtzt die Office Komponente ab. Eine Deinstallation des IE7 ist aber möglich, und hat mir bei dem Problem geholfen. Es gibt noch eine menge weiterer Problemschilderungen, z.B. Font Probleme beim drucken aus Outlook heraus. Ich würde aus diesem Grund zumindest als Outlook User von dem Update Abstand nehmen. Microsoft-Watch berichtet auch über Probleme und stellt die berechtigte Frage: warum ist IE7 ein kritischer Update? Auf den Update Blocker sei hiermit ausdrücklich hingewiesen. Allen die den IE7 ausprobieren wollen oder müssen, sich aber nicht das komplette System zerschiessen wollen sei der Artikel aus dem IE-Blog ans herz gelegt. Ein XP als kostenloses Image für VirtualPC ist von Microsoft verfügbar. Darin ist IE6 und ein IE7 readyness toolkit installiert. Damit läßt sich der IE7 gefahrlos parallel zum IE6 auf einem Rechner betreiben. Web Designer werden dieses Angebot von Microsoft lieben. Die VM ist nur bis zum 1. April lauffähig, aber eine neue Version wird dann sicher folgen.

Google Code Search

Google Code Search Logo Google bietet schon einige Zeit die Suche in frei zugänglichen Quelltexten an. Eines der Kriterien ist die Lizenz - damit ist die Zielgruppe kar: Entwickler die Hife suchen, und das Rad nicht immer neu erfinden wollen. Zu den Hintergründen interviewed auch David Berlind (ZDNet) den Google Product Manager Tom Stocky. Google CodeSearch geht allerdings über die üblichen Volltext und Metadaten suchen hinaus. CodeSearch erlaubt mit Reguar Expression die Formuierung von Such-Ausdrücken die komplexe Beziehungen abprüfen. Dieses ermöglicht Data Mining in Unmengen von Quellcode, sehr praktisch für Untersuchungen zu Patterns oder Bug-Patterns. Bugle Logo Mein Kollege Ulli (der hier eigentlich mal Gast-Bloggen könnte!) hat mich auf ein Projekt hingewiesen, das genau dieses versucht: häufige Fehler-Konstrukte in CodeSearch Regeln formulieren, und dann auf alle frei verfügbaren Quellen loslassen: Bugle - Google Source Code Bug Finder Da bekommt man Lust dieses mit dem eigenen Code zu tun. Aber wer diesen nicht offenlegen will muss wohl vorerst mit Alternativen Vorlieb nehmen (die gängigen Code Inspection und Style Checker Tools haben auch Regeln in denen man den Quellcode durchsuchen kann). Hier auch ein Beispiel: einige meiner Open Source Beiträge. Wie man sehen kann sind einige Duplikate dabei...

Combots und The Long Tail

Pareto Verteilung mit langem SchwanzVilfredo Pareto ein italienischer Mathematiker und Wirtschaftswissenschaftler hat 1906 das nach Ihm benannte 80-20 Prinzip entdeckt (20% der Weltbevölkerung besitzen 80% des Reichtums). In vielen Bereichen wirkt sich die Pareto Verteilung aus. Es ist sehr bestechend mit 20% des Aufwandes 80% des Ertrags zu erhalten. In der alten Ökonomie war dies auch mehr als notwendig: mit einem kleinen Artikelbestand kann man 80% der Anfrager beglücken. In der digitalen Welt, in der die Massenbedürfnisse abgedeckt sind, und auch die Distributionskosten für digitale Güter keine Rolle spielen (oder auch die Methoden und Kosten für die Pflege einer Community geringer sind) gibt es jedoch noch einen anderen Markt: The Long Tail. Die Idee dahinter ist, dass viele kleine Kategorien und Nischen existieren die für sich genommen wenige Anhänger haben, das Gesamtvolumen dieser Märkte aber nicht unerheblich ist. Es ist kein Zufall dass "The Long Tail" (ein Begriff geprägt 2004 von Chris Anderson in einem Artikel im Wired magazine) oft im Zusammenhang mit Web 2.0 genannt wird: Web 2.0 Anwendungen zeichnen sich dadurch aus, dass es Plattformen sind in denen Gazillionen von Micro-Communities sich selbst organisieren. Die Communities sorgen sogar für den Digitalen Content der konsumiert wird, und dank Mund-zu-Mund Propaganda sind die Erschließungskosten für den Markt gering. Wichtig dafür sind nur: Eine Community Agnostische Plattform, Selbstorganisation, Verknüpfung von Services (Mashups und APIs), Benutzerfreundlichkeit und Offenheit. Was übrigens ganz Un-2.0 ist sind: zentralistische Strukturen, proprietäre Protokolle, Zwangsregistrierung und vorgekauter Content. Ich denke dabei zum Beispiel an einen Sachverhalt der auch im Computerwoche Notizblog schon beschrieben wurde: ComBOTS vermarktet Herr der Ringe Avatare. ComBOTs wird das große Problem haben den Long Tail nicht besetzen zu können da es keine Plattform gibt die als Katalysator für Communities wirken wird: kein Chat, kein Verzeichnis, keine Social Networking Gemeinde, keine Foren. Und einfache Voice Kommunikation über IP waren zu Zeiten von Skype noch genug, dass sich alle Communities danach gerissen haben, eine Online Gemeinschaft irgendwo wird sich nur selten ohne Not für ComBOTs entscheiden. Zumindest nicht wegen den bisher existierenden Features. Von daher hoffe ich (ganz im Sinne der klassischen lokalen Wirtschaft 1.0) dass sich hier noch etwas tun wird. z.B. URLs zum Direktanruf und Flash Status Applets die man auch in Foren nutzen darf. Und dazu eine hosted Foren-Lösung - für Micro Communities. Ich denke auch Google Apps for Domains wird sich dahingehend entwickeln.

Hey Pssst!! Möchtest du ein 'G' kaufen?

Pssst! Bei Google kannst Du Wörter kaufen! Jedenfalls denkt Google darüber nach der Forschergemeinde Wortkombinationen (sogenannte N-Gramme) zur Verfügung zu stellen. Diese werden bei Forschungen wie z.B. Text-Erkennung oder automatisierte Übersetzungen benötigt. Als Ergebniss einer umfangreichen Auswertung in den Google Rechenzentren wurden 1.011.582.453.213 Wörter verarbeitet und dabei eine Liste mit 1.146.580.664 5-Wort-Kombinationen erstellt. Hintergrund der Aktion kann im offiziellen Google Research Blog nachgelesen werden. Das Ergebnis steht auf 6 DVDs zur Verfügung.

Der Angriff der Bot Krieger

Robot
Chatter Bots, oder kurz Bots sind die Widerauferstehung des altbekannten Eliza Versuchs von Joseph Weizenbaum. Es sind hilfreiche oder lustige Programme für Chat Systeme oder Instant Messengers die nützliche Aufgaben ausfühen können (Anfragen beantworten) oder gar das Verhalten von Menschen nachahmen können. Via Channel 9.msdn.com habe ich den Programmierwettbewerb von Microsoft gefunden, bei dem es darum geht einen Bot für den MSN Messenger zu schreiben. Immerhin unterstützen die Angebotenen SDKs auch Java (Akonix SDK), aber eigentlich will man so was ja eher auf einem Framework aufsetzen, das mehrere IM Protokolle unterstützt. (oder zumindest XMPP verwendet und damit über Jabber Server transports sich auch an andere Netze anmelden kann)

(Heil)Kostentreiber IT?

Im Gesundheitsbereich ist für IT Software Hersteller und Dienstleister weltweit ein lukrativer Markt vorhanden. Trotz knappen Budgets - wie kann das sein? Nun das liegt zum Großteil an der Gesetzgebung und behördlichen Auflagen. Großangelegte Programme der Regierungen wie HIPAA/HL7 in den USA oder diverse Europäische Verordnungen und Deutsche ("Modernisierungs")-Gesetze haben zu einer komplexen Landschaft geführt. Behörden, Leistungserbringer, Dienste und Clearingstellen müssen aus einem sehr kleinen Angebot von hochpreisigen und altertümlichen Lösungen das richtige Produkt finden. Dabei kann man weder den Lösungsanbietern böse sein (da die ein riessigen Aufwand treiben müssen um die Regulierungen zu verstehen) wenn sie Ihre Marktposition ausnutzen, noch kann man die Regulation per-se verteufeln. Denn Arzneimittelsicherheit, Rohstoffüberwachung, Pharma-Zulassungsverfahren, Geräteüberwachungen oder auch nur Datenaustausch-Vereinheitlichung sind ja durchaus Bereiche in denen Vorgaben sinnvoll und notwendig sind. Immerhin geht es hier um Menschenleben. Und ganz nebenbei auch um riesige Goldtöpfe die es zwischen den Interessengruppen aufzuteilen gilt. Allen vorweg(?) an die "Leistungsbezieher". "(Heil)Kostentreiber IT?" vollständig lesen

SSH Probleme

Bei InformIT gibt es einen Artikel von John Tränkenschuh über die Sicherheitsprobleme die man sich mit SSH einfangen kann: SSH Issues: Does Installing SSH Enable More Exploits Than it Solves? (26. Mai) Natürlich ist ein verschlüsselter Shell Zugang auf jeden Fall vorzuziehen, aber es gibt eine ganz erschreckende Anzahl von Fehlern und Fallen die unbedarfte Administratoren beim SSH Einsatz machen, so dass es durchaus schon fast zu einem "würdigen" rsh nachfolger (was die Unsicherheit angeht) geworden ist. Ein Must Read für Nachwuchsadministratoren, die alten Hasen wollen den Link unbedingt abspeichern zum weitergeben.

Wandschmuck (Telefonie)

Leider nicht kostenlos, dafür aber interessant, die Global Communications Traffic Map 2005 von TeleGeography.com für $225 die den Internationalen Telefon-Traffic nach Gesprächsminuten zeigt. Interessant an der Sache ist die Frage, wann TeleGeo Research wohl im 21sten Jahrhundert ankommt, und ganz Web 2.0-like das Poster zum Download anbietet, um damit mehr für sich zu werben, als sie mit 100 verkauften Kopien jemals verdienen können. Angekündigt sind auch die aktualisierten Karten für IP-Traffic und Untersehkabel Kapazitäten. Persönlich fänd ich ein Diagramm spassig, dass den Rückgang der internationalen Telefonminuten (durch VoIP) zeigt.

IP-Addressen - Schreibweise

In meiner Freizeit pflege ich die net-tools für Linux. Das ist eine Sammlung der grundlegenden Netzwerk Konfigurationsbefehle wie netstat, arp und ifconfig. Deswegen bekomme ich öfters Anfragen und Fehlermeldungen wegen unerwartetem Verhalten dieser (und anderer) Netzwerk Programme, bei der Eingabe von IPv4-Addressen mit führenden Nullen, wie zum Beispiel: 010.010.010.010 oder 120.130.130.099. In der Literatur (RFC790 macht dies falsch), und vor allem beim Umgang mit dem Rechner sollte man diese formatierungen vermeiden (besonders fatal ist es, wenn Programme diese Art von formatierung selbst verwenden!). Der Grund: eine Reihe von Implementierungen erlauben traditionell eine gaze Reihe von Schreibweisen für IPv4 Addressen. Darunter fällt auch die Interpretation der einzelnen Punkt-getrennten Nummern als Octalzahlen (statt Decimal), wenn diese eine führende null besitzen (oder hexadezimale Interpretation bei einem 0x Prefix, wie in C üblich). Nicht alle Programme erlauben diese Schreibweise, und noch weniger Menschen ist diese geläufig. Das ist wohl auch ein guter Grund, warum man diese nicht verwenden sollte. Allerdings sollte man sich bewusst sein, dass manche Software die Zahlen anders interpretiert (oder sogar abweist, weil 100.100.100.09 keine gültige Octal-Zahl ist)
# ifconfig lo 010.010.010.010
# ifconfig lo | grep inet
inet addr:8.8.8.8 Mask:255.0.0.0
# ping -c 1 010.010.010.010
PING 010.010.010.010 (8.8.8.8) 56(84) bytes of data.
64 bytes from 8.8.8.8: icmp_seq=1 ttl=64 time=0.070 ms
# ping -c 1 0x08080808
PING 0x08080808 (8.8.8.8) 56(84) bytes of data.
64 bytes from 8.8.8.8: icmp_seq=1 ttl=64 time=0.078 ms
(Das Windows XP Ping.exe verhält sich übrigens genauso). Für Techniker: traditionell wird in der Unix Welt die Umsetzung von Strings in IPV4 Addressen mit der C-Library Funtion inet_aton(3) gemacht, die diese Interpretation vornimmt. Diese Function erlaubt auch die Angabe einer IP Addresse in Hexadezimalschreibweise 0x08080808 oder mit einer 16bit Komponente: 8.8.2056 oder eben mit Octal/Hexadecimal Prefix. Übrigens erlaubt RFC3986 (der den Syntax für URLs angibt) diese Schreibweise nicht, und definiert nur Decimal-Zahlen. Das ist auch eine Konsequenz aus den Angriffen auf String-basierende URL Fillter die sich zu leicht durch die vielen unterschiedlichen Schreibweisen haben auf das Kreuz legen lassen. Im Zuge der Umstellung auf IPv6 wurde die Fähigkeit der alternativen Schreibweisen übrigens in den meisten Implementierungen entfernt, z.b. inet_ntop weist diese Funktion nicht auf. Die IPv6 RFCs (RFC3531) haben den selben Fehler wie die IPv4 RFCs gemacht, und vergessen die IPv6 Literale formal zu definieren (keine BNF Definition), auch dies wurde in RFC3986 nachgeholt.

Co-Location und Analysten

Tekrati ist immer wieder interessant. Analysten veröffentichen Ihre Arbeiten und Tekrati berichtet darüber. Leider wollen die Analysten nicht für Freiheit und Bier arbeiten. So muß man sich mit dem Vorschau-Content zufrieden geben. Manchmal frage ich mich aber wirklich, wer würde $3.995 (oder $12.995) zahlen für eine Untersuchung der größten Colocation Facilities und Anbieter der Welt? Ist das die Art, wie man eine strategische Entscheidung vorbereitet? Anyway, TeleGeography bietet auch einige freie Ressourcen an. Wer Karten und Bilder mag kann sich dort ja mal umsehen (Registrierung notwendig). Statistik: Rackspace und Bandbreitenpreise in Europa

Netzwerk Tuning

Gerade kam über die Linux-Kernel Mailingliste ein interessanter Link: http://www.psc.edu/networking/projects/tcptune/ TCP Tuning auf unterschiedlichen Systeme. Ein Must-Read für Admins von stark belasteten Servern und für alle die effiziente Datentransfers über schnelle Netzwerke suchen. Die Bandbreiteninflation bei DSL Zugänge (zusammen mit der typischerweise hohen Latenz) erfodert auch immer mehr das Anpassen der konservativen Defaults bei den gängigen Betriebsystemen. Auch dafür ist der Link gut geeignet, wenn auch sehr technisch. Powersauger sollten besser auf einfach zu bedienende Speed Tuning Tools ausweichen.