Wolfgang Sommergut stellt
Überlegungen an, welche Faktoren den Erfolg von neuen Collaboration Tools(Wikis, Blogs, KM) oder bestehenden Groupware Lösungen im Unternehmen beeinträchtigen können. Das sind natürlich weniger technische Probleme als mehr die altbekannten Probleme in der Unternehmenskommunikation.
Zur Zeit scheinen US Unternehmen auf Einkaufstour zu sein. ebay
bietet für Skype 3.3Mrd USD und Oracle
schluckt Siebel für 3.61Mrd USD.
Den Siebel/Oracle Merger kann ich ja nocht verstehen, auch wenn die Kaufsumme doch recht happig ist (zumal Oracle diese aus Krediten finanzieren muss!). Der Kauf macht für Oracle Sinn: ein Unternehmen das Gewinne macht. Das teilweise ein direkter Mitbewerber ist und teilweise auch das Software Portfolie des Software Giganten erweitern kann. Zudem dürften es auch einige Oracle Bestandskunden unter den Siebel Anwendern geben, was diese nur freuen wird alles aus einer Hand zu bekommen.
Der Skype Kauf hingegen ist für micht absolut unverständlich. Weder ist Skype ein Mitbewerber zu eBay, noch ist die Skype Technologie besonders fortschrittich (immerhin haben sie die Codecs auch nur lizensiert). Klast hat Skype eine große Benutzerbasis, aber zum einen sind das keine zahlenden Kunden, und zum anderen kann man ja überall lesen, dass Skype viel seltener benutzt wird, als die Download Zahlen schliessen lassen.
Man kann ganz deutlich sehen, dass ebay nicht weiss, was es mit seinen Aktien tun soll...
Update: auch die
Analysten bestätigen, dass die Technologie sicherlich nicht schlecht für ebay ist, aber doch vermutlich überteuert. Trotz den 54Millionen angeblichen Skype Kunden.
Computer sind kein Selbstzweck. Auch wenn diese aus den Geschäftsprozessen moderner Unternehmen und Organisationen nicht wegzuddenken sind, so ist die Hardware nur ein Betriebsmittel. Noch dazu ein Hilfsmittel das viele Kosten verursacht und Manpower bei der Wartung verschlingt. Dabei behindert das Thema Skalierbarkeit erheblich die Flexibilität eines Unternehmens. Rechner sind entweder überdimensioniert oder an den Kapazitätsgrenzen.
Dabei wäre es ganz einfach, wenn man einen Pool von Ressourcen (Rechenzeit, Speicherplatz) hätte der alle IT-Systeme überspannt, dem man die Aufgaben flexibel zuweisen kann. Solche Ansätze kennt man aus den Storage Area Netzweren (SAN) mit entsprechenden Virtualisierungslösungen. Das Hinzufügen von Festplatten erweitert die Kapazität des Netzes, einzelne Anwendungen können den Platz dann dynamisch per Software hinzugefügt bekommen.
Als vor 2 Jahren Oracle die erste Release ihrer Datenbank 10g angekündigt hat konnte noch nicht jeder etwas mit dem Begriff
Grid anfangen. Im Moment bewirbt Oracle die Release 2 seiner Datenbank, und man kann sagen, dass sich der Begriff Enterprise Grid Computing deutlich weiter verbreitet hat.
Nicht immer ist die Umsetzung von virtuellen Ressourcen zu physikalsichen so einfach wie bei einem SAN (und noch lange nicht jedes SAN ist so flexibel!). Im Bereich Rechenkapazität gibt es hier 3 Ansatzpukte:
- Virtualisierung/Partitionierung
Bei diesem Ansatz werden leistungsfähige Server in kleinere unterteilt. Die zugeteilten Ressourcen lassen sich dynamisch ändern. Alle Server und Betriebsystem Anbieter haben entsprechende Virtualisierungs und Partitionierungslösungen im Angebot. Interessant dabei ist auch, dass die virtuellen Instanzen meist Problemlos auf mehrere Rechner im Netzwerk verteilt werden können. - Verteilung/Multi-Tier
Aus dem Bereich der technischen Forchung sind die Anwendungen bekannt, die numerische oder simmulations Probleme massiv Parallel auf einem Cluster von (Low Cost) Servern berechnen. Auch im Bereich der Enterprise Anwendungen gibt es Systeme die durch eine mehrschichtige Architektur sich einfach nach dem Scale-Out Ansatz installieren lassen. SAP nennt dies Agility Computing. - Netzwerktransparente Betriebsysteme
Mit zunehmend schnelleren Netzwerkverbindungen und leistungsfähigeren Prozessor Interconnects (Hypertransport, etc) ist die Grenze zwischen vernetzten Rechnern und Multi-Prozessor Rechnern nicht mehr so strickt. Viele Betriebsysteme sind bereits darauf optimiert mit einer NUMA Architektur zurechtzukommen: dabei hat jeder Prozessor Hauptspeicher den er besonders schnell oder eher langsam erreichen kann. Entsprechend werden die Prozesse verteilt. Letzteres ist noch ein wenig die Domäne von Akademisch/Technischen Systemen.
Continue reading "Hinter Gittern"
Aktuell geht das Thema Cluster Filesysteme durch die Presse. Oracle
erwartet die Aufnahme seines
OCFS2 in den Linux Kernel und RedHat
bewirbt sein
GFS in Fedora Core 4.
Typischer Einsatzzweck eines Cluster Filesystems ist das Number Crunching (High Performance Computing) für die Lösung von Simulationen oder Mathematischen Berechnungen im Bereich Forschung oder Engeneering. Dabei teilen sich viele Rechner-Knoten die Eingangsdaten und Berechnungsergebnisse. Jedoch auch kommerzielle Enterprise Systeme skalieren zunehmend in die Horizontale. Datenbanken, Fileserver und Application Server Cluster benötigen den Zugriff auf gemeinsame Datenbestände.
Ein Cluster Filesystem soll den gleichzeitigen direkten Zugriff von mehren Knoten eines Clusters auf die selben Files ermöglichen. Im Gegensatz zu Netzwerk Filesystemen erfolgt dabei der Datenfluss direkt zwischen den Knoten um Cluster und der Storage Hardware. Zum Einsatz kommen FC SANs. Kleinere Installationen können auch mit SCSI Storage Enclosures realisiert werden die mehrere Host Adapter erlauben. Für Test und Entwicklung lassen sich auch Firewire Lösungen einsetzen. Ganz aktuell boomt auch der IP basierende Block Zugriff. Mit iSCSI oder diversen Linux Netzwerk Block Devices kann hier eine Gigabit Ethernet eingesetzt werden.
Continue reading "Cluster Filesysteme [updated]"
Wie alle Top-X Problem Listen sind diese keine allumfassende Analyse eines Problemfeldes, aber wichtige Punkte über die man sich gedanken machen muss. Wie bei
Tekrati zu lesen ist hat
Nucleus Research IT Implementierungsprojekte analysiert , und kam dabei zu folgenden Punkten die beachtenswert sind:
- Customization - zu viel davon bringt keine bessere Benutzbareit aber erhebliche zusätzliche Kosten bei der Einrichtung und dem Betrieb
- Nicht bei den Schulungen sparen, sonst ist die Akzeptanz gefährdet
- Anfängliche Unterstützung des Managements ist wichtig, aber besser ist es, wenn das Management die Lösung auch nutzt und promoted
- Genau die Kosten für das Consulting im Auge behalten
- Ein Projekt kann erst als erfolgreich bewertet werden, wenn es benutzt wird. Dies kann Monate bis Jahre nach der Inbetriebnahme sein
Die komplette Research Note "f88 - Avoiding the top five IT mistakes" gibt es bei Nucleus für $700, vermutlich reicht aber die
Zusammenfassung bei Tekrati aus, um sich selbst Gedanken zu machen über die Umsetzung der IT-Projekte im eigenen Unternehmen.