Grundlagen der Computertechnik


Übersicht

In diesem Bereich möchte ich euch grundlegend Informationen geben, die man beim Kauf oder bei der Zusammenstellung eines PCs beachten sollte, welche Hardware zusammen passt und welche Hardware sinnvoll ist.
Weiterhin sollen Tipps gegeben werden, wie empfindliche Daten gegen Verlust geschützt werden können.
Und ein Teil wird sich um Windows und seine schier unendlichen Probleme drehen und einige grundlegende Optimierungen von Windows Vista und Windows XP zeigen.


01: der richtige PC für den richtigen Zweck
02: Backup-Strategien
03: Windows Optimierung


der richtige PC für den richtigen Zweck


Im Computerbereich ist es mittlerweile so, dass die Auswahl an Hardware und Geräten schier unüberblickbar groß geworden ist und die Akutalität der Hardware sehr schnell vorrüber ist. In den meisten Bereich dauert es teilweise nur noch maximal ein halbes Jahr, bis eine neue Generation auf den Markt kommt. So z.B. im Grafikkartenmarkt der Hersteller nVidia. Seit 2001 die GeForce Serie erschienen ist, hat sich der Hersteller zum Ziel gesetzt, jedes halbe Jahr eine neue Generation auf den Markt zu bringen. Naja, ganz haben sie es nicht geschafft, aber immerhin 10 Generationen von GeForce Chips gibt es mittlerweile und das in lediglich 7 Jahren.
Auf dem CPU Sektor ist es sogar noch wesentlich schlimmer, gerade beim Hersteller Intel gibt es schon fast alle paar Monate einen neuen Kern.

Doch braucht man überhaupt für jeden Zweck gleich das aktuellste Gerät? Hier möchte ich so grundlegend die verschiedenen Zielfelder umschreiben, die es gibt und in welche Richtung man beim PC Kauf schauen sollte. Genaue Hardware-Empfehlungen werde ich hier nicht geben, da es sonst schwer wäre, diese Seite aktuell zu halten. Aber eine grobe Richtung werde ich zeigen.


Welche Anwendungsgebiete kann man grob unterscheiden?

1. Pro-Gaming
2. Gelegenheitsspieler
3. HomeOffice
4. Video-/Photo-/Musikbearbeitung
5. CAD/Rendering
6. HTPC
7. Homeserver



1. Pro-Gaming
Dieser Zweck stellt vorallem im Bereich Grafik und Single-Thread Leistung die höchsten Ansprüche. Hier zählt vorallem eins: Grafikperformance und mehr oder weniger die reine Taktrate der CPU. Mehrere CPU Kerne sind (noch) nicht so wichtig, da in einem Spiel eh sehr viele Sachen linear ablaufen, also die Berechnungen bauen großteils aufeinander auf und eine Parallelisierung ist nur schwer im großen Umfang möglich.
Es ist daher sinnvoller, hier in dem Bereich nach einer CPU Ausschau zu halten, die vorallem bei Single-Thread Anwendungen (wie z.B. Encoding) sehr hohe Leistungen bei Vergleichsbenchmarks bringt. Dies sind vorallem die DualCore CPUs mit hohen Taktraten, die hier Vorteile bringen.

Weiterhin ist natürlich die Grafik von entscheidender Bedeutung. Hier gibt es eigentlich keine große Auswahlmöglichkeit, man hat die beiden Hersteller ATI und nVidia, die sich regelmäßig gegenseitig von den Spitzenpositionen ablösen und wo man dann eigentlich schon fast eine Glaubensfrage draus machen kann. Die Entscheidung nach der Grafikkarte fließt dann aber auch auf die Entscheidung nach dem Mainboard ein, weil es sinnvoll sein kann, zwei Grafikkarte im SLI oder Crossfire Verbund arbeiten zu lassen. Nur welches von beiden ist dann abhängig von der Grafikkarte und dementsprechend muss dann das Mainboard gewählt werden, weil nur einer von beiden Standards unterstützt wird.
Der Vorteil von SLI ist teilweise fast schon eine Verdoppelung der Grafikleistung, allerdings halt auch zum doppelten Preis. Hier gilt es abzuwägen, ob es besser wäre, lieber die größte Grafikkarte einer Serie zu nehmen oder zwei Stück von einem kleineren Modell. Bei dem rasanten Generationswechsel ist dies gar nicht pauschal beantwortbar, da muss man immer aktuelle Bechnmarks von Seiten wie z.B. www.tomshardware.de anschauen und mit den Marktpreisen vergleichen. Es kann aber durchaus schon sinnvoller sein, lieber nicht den größten Chip zu nehmen, weil die recht viel Geld kosten und noch einen hohen Wertverlust haben.
Bei den Grafikkarten muss zudem beachtet werden: die Speichermenge ist nicht so wichtig! Lieber einer Grafikkarte mit weniger, dafür schnellerem Speicher und vorallem Speicher mit einem breiteren Speicherinterface den Vorzug geben. Insbesondere die Breite des Interfaces ist von starkter Bedeutung, weil es schon ein Unterschied ist, ob pro Takt 128bit, 256bit oder gar 384bit und mehr übertragen werden können. Das ist immerhin eine Verdreifachung der Speicherbandbreite bei gleicher Taktung. Und was bringt ein extrem großer Speicher, wenn dieser einfach zu langsam ist und damit nicht sinnvoll genutzt werden kann.

Ebenfalls nicht unwichtig ist der Arbeitsspeicher. Hier aber auch weniger die Menge vom RAM. Es ist nicht nötig, die volle Ausbaustufe zu wählen, 4GB sind derzeit noch mehr als ausreichend für sämtliche Spiele, dafür aber ist die Taktung und die Anbindung interessanter. Wobei die höchsten Taktuungen mit DDR3 Speicher erzielt werden, nur dieser ist erstens sehr teuer, inkompatibel zu DDR2, und wird von nicht so vielen Mainboards unterstützt.
und der Vorteil von DDR3 ist eh nur sehr marginal gegenüber DDR2 Speicher mit einer guten Latenz. Denn die Latenz, die man in Form von einer 3er oder 4er Zahlengruppe in den Daten vorfinden, entscheidet mehr über die Leistung des RAMs. Hier gilt: kleinere Werte sind grundsätzlich besser, aber zu kleine Werte können auch wieder Nachteile haben.
Die Zahlen geben nichts weiter an, wie viele Taktzyklen benötigt werden, um eine Information aus dem Arbeitsspeicher zu übertragen. Ideal wäre z.B. eine 1-1-1-2 oder so. Das heißt, dass bei jedem Taktzyklus ein Schritt ausgeführt wird. Nur dies ist kaum möglich, weil es dabei zu massiven Problemen kommt und die Informationen nicht sauber gelesen werden und damit ist die Fehlerrate sehr hoch und die Informationen müssen öfter gelesen werden.
Man muss also schauen, dass man einen Arbeitsspeicher nimmt, der einerseits eine sehr hohe Taktung hat, aber andererseits keine zu hohen Latenzwerte. Bei DDR2 Speicher ist es aktuell so, dass diese besser mit einer niedrigen Latenz arbeiten können und so der Vorteil der hohen Taktung bei DDR3 recht klein wird.

Damit die Spiele auch einigermaßen schnell geladen werden, würde sich auch ein schnelles Festplattensystem anbieten. Vorzugsweise ein RAID0 System für Windows und die Spiele und eine dritte Festplatte für Daten. Bei den beiden Festplatten für das RAID0 sind z.B. Festplatten wie die WD Raptor 15k gut geeignet, durch ihre hohe Umdrehungsgeschwindigkeit und von Haus aus hohe Transferrate und gute Zugriffszeit.
Ein extra RAID Controller muss es aber nicht sein, die onBoard Lösungen für SATA reichen normalerweise aus und lasten die CPU nur sehr gering aus. Selbst bei maximaler Zugriffslast auf die Festplatte hat eine 3GHz CPU vllt 2-4% zusätzliche Auslastung und da bei einer DualCore CPU eh immer viele Reservern beim Spielen frei sind, stellt das kein Problem dar. Für den Enthusiasten, wo das Geld keine Rolle spielt und 2 FPS mehr wichtiger sind, der kann dann natürlich auch einen HardwareRAID Controller nehmen, die allerdings erst ab ein paar hundert Euro anfangen.



2. Gelegenheitsspieler
Wenn es nicht gerade das neueste Spiel sein muss mit der höchsten Grafikeinstellung, dann reichen auch weit weniger teure und leistungsfähige Komponenten.
Bei so einem PC ist man eigentlich im Mittelsegment von den jeweiligen Klassen gut angesiedelt. Es gelten aber abgeschwächt noch die gleichen Regeln wie oben:
also eher hohe Taktrate statt vieler Cores bei der CPU, bei den Grafikkarten ebenfalls auf eine gute Speicherbandbreite achten, SLI oder Crossfire sind hier aber nicht so wirklich sinnvoll. Auch der RAM muss nicht das schnellste vom schnellsten sein, hier bietet sich eher ein guter Mix aus Taktrate und Latenz an.
Auch bei den Festplatten reicht eine normale HDD für das System und am besten noch eine zweite für die Daten, da die erste Festplatte durch die dauernden Zugriffe vom Spiel schon recht stark belastet wird und daher schneller ausfallen kann.



3. HomeOffice
Diese Kategorie stellt fast die niedrigsten Anforderungen an die Hardware. Hier sollte man statt auf Leistung aber auf eins schauen: Zuverlässigkeit und möglichst geräuscharmer Betrieb.
Zum Betrieb reicht eine einfache DualCore CPU (eine SingleCore sollte es nicht sein, weil es kommt schon vor, dass man zwei Sachen gleichzeitig macht und preislich tut es nicht viel). Es reicht aber zudem eine DualCore CPU vom unteren Leistungsspektrum, hier sollte man möglichst eine CPU aussuchen, die eine sehr geringe Wärmeabgabe hat (oft wird die maximale Verlustleistung angeben, da nach dem geringsten Wert Ausschau halten, so 20-40W sollten die Obergrenze sein).
Die Leistungsfähigkeit vom RAM spielt auch keine wirkliche Rolle, es sollte nur möglichst wenig Module verwendet werden, um am Stromverbrauch noch etwas zu sparen. Ein einzelnes 2GB Modul sollte ausreichend sein.
Grafikkarte braucht auch keine extra gekauft werden, da die meisten onBoard-Chipsätze bereits eine Grafik integriert haben und diese wesentlich weniger Leistung benötigen wie eine zusätzliche Grafikkarte und weniger Wärme wird dadurch auch erzeugt.

Bei der Festplatte sollte man sich möglichst eine aussuchen, die eine geringe Umdrehungszahl aufweist. 5400 oder gar 4200 UPM sind vollkommen ausreichend und das senkt vorallem den Geräuschpegel. Um das ganze noch zu verbessern, kann sich ein kleiner Antivibrationsrahmen lohnen, in den die Festplatte eingespannt wird.
Zur Kühlung sollte man dann nicht unbedingt den vom Hersteller mitgelieferten Lüfter verwenden, weil die selten leise sind. Ein Modell mit großer Kühlfläche und einem 80er, 92er oder gar 120er Lüfter, die langsam rotieren, bietet sich hier an. Noch besser, wenn der Lüfter auch manuell in der Geschwindigkeit geregelt werden kann, insoferm das Mainboard nicht das automatisch macht (da dann am besten im BIOS des Rechners nachschauen, dort kann man teilweise einstellen, ob die Lüfter mit voller Leistung oder angepasster Leistung z.B. laufen sollen).

Beim Netzteil reicht ein Netzteil mit wenigen hundert Watt, 300-350W sind weit mehr als genug, nur auf das Siegel "80Plus" achten, weil so ein Rechner mit wenigen Komponenten verbraucht selten mehr als 60 bis 80Watt und auch bei den Leistungen sollte das Netzteil einen guten Wirkungsgrda haben.
Und es sollte wenn möglich nur einen 120er oder besser einen 140er Lüfter haben, und auf der Rückseite nur ein Metallgitter, wo die Luft ausgeblasen wird. Coolermaster, bequiet, SlientPower usw sind Hersteller, wo man leise Netzteile findet.
Das gehäuse selbst benötigt keinen Lüfter für so ein System, es reicht ein gängiges ATX Gehäuse. Eventuell kann man nach einem Gehäuse mit fertig integrierter Schalldämmung achten, wo an den Seitenteilen usw Schaummattern angebracht sind. Diese Dämmung bringt schon enorm viel, wenn sie richtig verarbeitet wurde.



4. Video-/Photo-/Musikbearbeitung
Je nachdem, wie umfangreich man vor hat, an Videos, Photos oder Musik zu arbeiten, geht die Anforderung an solche Rechner schon stark nach oben.
Insbesondere der Speicher und die Festplatten sind hier stark gefragt, aber auch Mehrkern CPUs bieten sich hier an, da in diesem Bereich stark parallelisiert gearbeitet wird.
Das wichtigste hier in dem Bereich ist aber vorallem ein extrem großer Arbeitsspeicher, damit Photos mit hoher Auflösung auf mehreren Ebenen z.B. bearbeitet werden können, oder mehrere Videosquenzen mit FullHD Auflösung geschnitten werden können, oder beim Arbeiten mit mehren PCM 24/96 Tonspuren. Überall wird sehr viel RAM und Festplattenspeicher benötigt.
Je nach Effekten muss die CPU hier gar nicht soo extrem leistungsfähig sein, aber ein Quad- oder gar Octacore bietet sich an, jenachdem, wie umfangreich man vor hat, zu arbeiten (je mehr parallele Tonspuren/Videos/Photos, desto mehr Kerne machen sich bezahlt, vorrausgesetzt man nutzt eine Software, die diese auch sinnvoll ausnutzen kann.
Wichtig ist aber vorallem die hohe Speichermenge. Es kann daher sinnvoll sein, ein Workstation-Mainboard zu nehmen, welches eine größere Menge an Arbeitsspeicher unterstützt und eventuell sogar zwei CPU Sockel hat. Dabei kann es durchaus sinnvoll sein min. 4GB bei kleinen Projekten und bis zu 32GB RAM für sehr umfangreiche und große Projekte im Rechner zu haben. Bei 32GB ist man dann aber schon an einer Stelle, wo man dann parallel 64 PC Tonspuren z.B. offen hat, oder 10-15 Bild- und Effektspuren bei FullHD oder gar 4K auflösung. Im Photobereich ist so eine Speichermenge nicht nötig, da sollte man mit 4GB locker auskommen.
Da die großen Datenmengen in Echtzeit verfügbar sein sollen, müssen die Festplatten eine enorme Bandbreite bereitstellen können von teileweise einigen hundert MB/s, wenn Rohmaterial zwischengespeichert werden soll oder abgerufen werden soll.
Sinnvoll sind dabei mehrere Laufwerke. eine kleine Festplatte für das reine System und die Programmdaten, die aber nicht so schnell sein muss, dann am besten ein RAID0 aus 2 bis 4 schnellen Festplatten, auf dem aber nur temporäre Dateien abgelegt werden, damit diese schnell verarbeitet werden können und dann ein RAID5 aus 3-4 Festplatten, für die entgültige Speicherung der Daten. Ein Hardware-RAID Controller ist hier sinnvoll aber nicht unbedingt nötig, da vorallem bei Workstation-Mainboards die onBoard RAID Controller eine gute Funktionalität bieten und die CPU nur marginal belastet wird.




5. CAD/Rendering
Dieser Bereich braucht die mit Abstand höchste Leistung von allen und übersteigt vom Anforderungsprofil sogar den Pro-Gaming Bereich.
Extrem wichtig ist aufjedenfall massiv CPU Leistung, wobei vorallem im Renderingbereich davon definitiv nie genug vorhanden ist (große Rendercluster haben Rechenleistungen von 10THz und mehr).
Und insbesondere bei CAD ist auch eine gute Grafikkarte nötig, die weniger viele Effekte darstellen kann, sondern auf hohe Polygonleistungen optimiert ist. Sehr gut sind z.B. die nvidia Quadro Grafikkarten, die sind allerdings auch sehr teuer. Aber auch mit guten Konsumergrafikkarten sind die meisten Projekte auch schon sehr gut realisierbar, aber je nach Umfang der Modelle kommt man bei der Darstellung sehr schnell an die Grenzen der Konsumerhardware. Da der Preis für die professionellen Grafikkarten aber extrem hoch ist, sollte man vorher ungefähr wissen, wie hoch das eigene Anforderungprofil ist, ob man selbst sehr komplexe Modell erstellt und diese im vollen Umfang ruckelfrei betrachten möchte, oder ob es einem nix ausmacht, die Modelle auch mit verringerter Qualität oder so zu betrachten, das man dafür dann aber ein paar tausend Euro für die Grafikkarte spart.
Um für das Rendering die oben genannte Rechenleistung bereit zu stellen, sind Mainboards mit mehrern CPU Sockeln sinnvoll. Beim Rendering ist dabei dann ein Kompromiss aus Taktrate und Kernzahl wichtig, denn nicht alle Aufgaben lassen die parallel abarbeiten. So kann z.B. das PreProcessing einer Szene oft nur auf einem Kern ausgeführt werden, da hier viele lineare Rechungen nötig sind. Das reine Rendering aber hingegen kann bei fast 100% Skalierbarkeit auf allen Kernen ausgeführt werden. Wenn also vorher klar ist, dass die eigenen Szenen nur wenig PreProcessing benötigen, dann sollte die Kernzahl so hoch wie möglich ausfallen. Ansonsten lieber ein paar Kerne weniger, dafür aber eine höhere Taktrate.
Der Arbeitsspeicher ist nicht soo extrem wichtig beim Rendering. Es kann zwar durchaus vorkommen, dass man Szenen hat, die etliche GB Arbeitspeicher benötigen, aber im Normalfall sind die meisten Szenenobjekte Parameterbasiert und verbraucht nur wenig Speicher, weshalb auch die Geschwindigkeit vom RAM nur sekundär ist, da nur geringe Datenmengen abgerufen werden müssen.
Ausgenommen man weiß vorher schon, dass die eigenen Szenen entweder extrem viele Objekte enthalten (Generatoren) oder dass extrem komplexe Bool oder Polygonobjekte in der Szene sind. Es ist aber schwer zu sagen, wieviel RAM sinnvoll ist. Normalerweise ist man mit 4GB mehr als gut bedient, aber ich habe für das Video vom Rechenzentrum eine Arbeitspeicherauslastung von satten 36GB gehabt, wodurch die Swapfile mehr als nur überlastet war.
Von den Festplatten ist normalerweise eigentlich nichts großartig nötig. Normale Projektdateien bleiben im Rahmen von einigen MB und nur die Ausgabedaten können je nach Ausgabeformat schnell anwachsen. Aber auch da ist selten eine hohe Geschwindigkeit nötig, weil die Berechnung der Rohdaten trotzdem noch wesentlich länger dauert wie das Abspeichern. Ein RAID5 sollte aber dennoch bedacht werden, wenn ein Renderingprojekt ein paar Wochen am Stück eine Szene rendert wäre es blöd, wenn nach ein paar Wochen aufeinmal eine HDD ausfällt.




6. HTPC - Hometheater PC
Diese Kategorie von Computern ist noch nicht so alt und ist ein sehr interessantes Feld. Weil hier wird eigentlich alles benötigt:
hohe Rechenleistung, viel Speicherkapazität, gute Grafikleistung, geräuscharmer und stromsparender Betrieb

Diese PCs sind daher immer ein Kompromiss, meist ist es ein Kompromiss, wieviel Lautstärke man ertragen kann, weil von der Leistung her kann man leider nicht sehr weit runtergehen, zumindest nicht, wenn die aktuellen Formate unterstütz werden sollen.
Was sollte so ein PC alles können? Zur Wiedergabe von BluRay Filmen wird schonmal eine gute CPU und Grafikkarte benötigt, die die Daten in Echtzeit decodieren und Wiedergeben können. Eine Mittelklasse DualCore CPU und eine Grafikkarte mit hardware basiertem H.264 Decoding reicht hier aus.
Weiterhin muss der Sound entweder als Bitstream über HDMI weitergegeben werden oder im Rechner decodiert werden. Da sieht es mit Lösungen noch recht spärlich aus. Die Asus Xonar ist derzeit die einzige Soundkarte, mit der das überhaupt geht. Alle anderen Soundkarte können nur die alten Tonformate ausgeben. Es sei denn sie werden von der Software über die CPU dekodiert. Dann sollte allerdings die CPU etwas mehr Leistung mitbringen und es könnte sich sogar ein QuadCore lohnen.
Bei der Grafikkarte ist wichtig, dass sie einen DVI Ausgang mit HDCP Verschlüsselung hat, damit dieser über einen Adapter mit einem HDMI Eingang verbunden werden kann. Noch besser, wenn die Grafikkarte direkt einen HDMI Ausgang hat.
Vom Arbeitsspeicher ist nicht viel nötig, die Daten von den Filmen werden direkt ausgegeben, daher reichten 2GB mehr als locker aus. Auch muss der RAM nicht besonders schnell oder so sein.

Bei den Fesplatten sollte man aber schon etwas mehr investieren. Vorallem sollten sie schön groß sein, wenn Filme in FullHD Auflösung auf dem PC speichern möchte, oder diese über eine DVB-S/T Karte aufzeichen möchte. Und ein RAID5 oder zumindest RAID1 sollte auch gemacht werden, weil das ja auch einiges an Arbeit ist, soviele Filme abzuspeichern. Da reicht aber locker eine onBoard-RAID Lösung.

Das größte Problem bei einem HTPC ist nun eher, diesen angenehm leise zu bekommen. Eine Wasserkühlung scheidet aufgrund der Größe meist aus, da sie vorzugsweise liegend in einem HiFi Rack zu Einsatz kommen. Daher gelten hier ähnliche Kriterien wie oben beim HomeOffice PC. Also möglichst ein großer CPU Kühler mit 80er, 92er oder gar 120er, regelbaren Lüftern. Wenn möglich sollte die Grafikkarte in einer passiv gekühlten Version sein, da die kleinen Grafikkarten-Lüfter meist die erste Lärmquelle nach einer Zeit werden.
Beim Netzteil sollte ebenfalls wieder eins mit einem einzelnen Lüfter zum Einsatz kommen, möglichst ein 140er, um möglichst viel Luft im Gehäuse umzuwälzen.
Von Gehäuse mit integrierten Lüftern rate ich aber trotzdem ab.



7. Homeserver
Was ist ein Homeserver überhaupt?
Dieser Rechner wird nicht direkt genutzt und normalerweise ist nichtmal ein Monitor oder eine Tastatur angeschlossen. So ein Rechner steht an einer Stelle im Haus, wo er keinen stört und wo einfach nur Strom und ein Netzwerkkabel hingelegt werden kann.
Wozu so ein Server?
Im einfachsten Falle nutzt man ihn als zentralen Speicherplatz. Alle PCs, die am Netzwerk angeschlossen sind, haben dann z.B. ein Netzlaufwerk und können dann ihre Daten dort speichern und diese Daten sind von allen PCs im Netzwerk abrufbar.
So kann man z.B. am Arbeitsplatzrechner einen Brief anfangen zu schreiben und weil das Wetter gerade so schön ist, schnapp man sich einfach den Laptop, geht raus auf die Terasse und über WLAN kann man unmittelbar mit der Bearbeitung weitermachen, ohne dass man erst die Datei über einen USB Stick oder so auf den Laptop kopieren muss. Es könnten sogar theoretisch zwei Leute parallel arbeiten...aber dann bitte nicht an der gleichen Datei. Z.B. wenn man eine Bildersammlung hat, kann diese von allen Rechnern im Netzwerk gleichzeitig genutzt werden, und wenn man im Arbeitszimmer gerade Aktualisierungen hinzufügt oder so, sieht diese die Familie im Wohnzimmer auch sofort.
Wenn man zuhause dann doch mal ein paar PCs mehr hat und nicht jeder in der Familie vollen Zugriff auf seinen PC oder das Netzwerk haben soll, dann kann man z.B. auch ein Active Directory (AD) mit Windows Server realisieren. In so einem AD kann man dann Benutzerprofile anlegen, diesen Berechtigungen zuweisen und auch Freigaben einrichten und festlegen, wer was im Netzwerk machen darf. Wenn man auf jeden Rechner einstellt, dass dieser sich über AD anmelden muss, dann loggen sich diese Rechner nur noch mit den Benuzterprofilen auf dem Server ein.
Da das ganze Profil auf dem Server ist, kann sich sogar jeder an jeden Rechner anmelden und hat trotzdem da nur seine festgelegten Rechte, ohne dass man auf jedem Rechner erstmal umständlich alle Rechte für jeden vergeben muss.
Diese Lösung lohnt allerdings nur, wenn man schon so 8-10 und mehr Rechner im Haushalt hat und auch entsprechend 6-10 Nutzer unterwegs sind. Denn ein Windows Server mit AD kostet entsprechend ein paar hundert Euro.
Weiterhin kann man aber auch kostenfrei einen HTTP Server installieren. Mit einem HTTP Server kann man z.B. eine kleine Homepage erstellen, die nur intern verfügbar ist. Darüber ergeben sich dann unzähliche Möglichkeiten. Angefangen von einer einfachen Seite bis hin zu interaktiven Inhalten,, bei denen man auch die Steuerung von verschiedenen Sachen übernehmen kann. Oder einfach nur zum Austausch im Haus, wenn man im Haus ist und zig Räume voneinander entfernt, kann man über so eine interne Seite eine instantane Kommunikation ermöglichen. Oder wer wie ich eine eigene Homepage hat und diese nicht "live" bearbeiten möchte, sondern erstmal alle Änderungen "im Hintergrund" machen will, da bietet sich so ein Server auch an. Obwohl das natürlich auch auf dem eigenen PC machbar ist, aber so kann man von jedem Rechner aus daran arbeiten.
Neben einem reinen Datenspeicher für zentrale Dateispeicherung kann man so einen Server auch als Streaming-Server nutzen und damit z.B. an kompatible Radio/TV Geräte oder andere PCs dann z.B. Musik oder Filme verteilen, als wenn es ein Radio/TV Sender wäre.
Oder man realisiert einen kontrollierten Internetzugang durch eine Firewall und Proxyfunkionalität.
So kann z.B. der gesamte Datenverkehr des Heimnetzwerkes über diesen Server geleitet werden und er filtert und sperrt dann bestimmte Inhalte und bei einer langsamen Internetanbindung kann er durch einen Proxy auch die Performance verbessern, indem die aufgerufenden Seiten zwischengespeichert werden und wenn mehrere PCs diese Inhalte abrufen, dann wird die Leitung weniger belastet. Oder man legt einfach fest, welcher PC zu welcher Zeit online gehen darf und welcher nicht. Nur das bitte am besten auf Layer 2 (MAC Adressen realisieren), weil bei Layer 3 (IP) wäre es zu einfach möglich, dass der Sohnemann z.B. dann einfach seine IP ändert.
Für eine kleine LAN Party im Haus kann so ein Server auch ganz praktisch sein, weil man auf ihm dann auch einen dedizierten Server für ein Spiel laufen lassen kann, ohne dass dieser auf dem eigenen Server läuft und so entfällt dann auch die Streitfrage "wer macht den Server auf?".

Was braucht so ein Server nun eigentlich?
Rein von der Leistung her muss so ein Server nicht viel können, zumindest für die meisten der oben geschilderten aufgaben. Wenn er als dedizierter Spieleserver z.B. laufen soll und das Spiel keine reine Kommandozeile anbietet, sonder erstmal in den Grafikmodus starten will, dann muss der Server leider auch etwas mehr Leistung haben, damit die Grafikoberläche starten kann.
Ansonsten reicht aber sehr einfach Hardware. Mein Homeserver ist z.B. auf Basis von den stromsparendenden VIA C3 CPUs realisiert, die auf den sehr kleinen MiniITX Mainboards verbaut werden. Diese kleinen Mainboards haben den großen Vorteil, dass sie nicht viel Platz verbrauchen, wenig Strom brauchen und vorallem wenig Wärme erzeugen. Dadurch ist z.T. sogar eine absolut passive Kühllösung möglich, bei der nur noch die Festplatte hörbar bleiben würde. Die Leistung reicht aber trotzdem locker aus, um alles damit zu machen, angefangen von Dateifreigaben, über Webdienste, AD, Streaming usw.
Wichtig ist vorallem, dass bei den Festplatten auf Redundanz geachtet wird, also ein RAID1 oder RAID5 sollte schon Pflicht sein, wenn man zentral die Daten ablegt. Aber dazu im nächsten Kapitel mehr.
Grafik und RAM ist bei solchen Servern für den Heimgebrauch eigentlich völlig nebensächlich. Ich habe 256MB SD-RAM drin und sogar Streaming ist damit ohne Probleme möglich. Nur als Spieleserver wäre er weniger geeignet.
Nur eine zweite Netzwerkkarte kann sinnvoll sein, vorallem wenn der Server als Firewall und Proxy arbeiten soll. Weil dnan kommt eine Netzwerkkarte direkt an das DSL Modem und die zweite Netzwerkkarte geht in das Netzwerk. So spart man sich dann auch gleich den DSL Router.





Backup-Strategien


Eigene fragen sich jetzt wahrscheinlich: Was ist ein Backup überhaupt? Oder wozu brauche ich das?
Dazu ein kleiner Bericht, wie es mir mal ergangen ist:
Als ich 2001 meinen ersten Computer hatte und nach und nach halt alles erlernte und auch eben viele Dateien anlegte usw (damals schon sehr simples 3D mit einer kostenfreien 3D Software, die eigentlich gar nix konnte) hatte ich auch noch so gedacht, bzw ich wusste selbst auch nicht so recht, was ein Backup ist. Naja, meine Datensammlung wurde größer, ich kopierte mir auch die ganzen MusikCDs bei mir zuhause und inventarisierte sie schön usw, also es war dann schon eine respaktable Sammlung geworden. Und eines Tages will ich da auf meine Sammlung zugreifen und höre nur ein ein "Klack klack klack" und in Windows lief die Sanduhr........ neeeeein.
Und da half dann gar nix mehr. Festplatte an anderen Port, ging nich...in anderen PC eingebaut, auch nix...ich war halt der Hoffnung, es ließe sich noch irgendwie was retten. Aber die Festplatte wollte einfach nicht mehr. Nach dem Aufschrauben hatte man da auch schön gesehen, wie der Lesekopf von links nach rechts huschte und durch das auftreffen der Parkfixierung klackte es eben so schön und da war dann halt entweder der Sensor im lesekopf hinüber oder die Magnetscheibe nicht mehr eindeutig lesbar oder so. Gibt ja mannigfalitig Ursachen für den Defekt einer HDD.
Zumindest waren meine jahrelang angesammelten und sortierten Daten weg. Ganz schön harter Schlag, weil es waren etliche tausend Stunden Arbeit, die einfach weg waren.

Seit dem hab ich mir zu Ziel gesetzt, dass meine Datensammlung nie mehr verloren gehen kann, bzw es schon richtig was schlimmes passieren müsste, damit alles weg ist. Atomschlag oder so.

Hier möchte ich euch also nun die Möglichkeiten aufzeigen, die es gibt, seine Daten zu sichern, damit sie eben nicht durch einen einfachen Fehler weg sind.
Welche Möglichkeiten gibt es überhaupt alles:

1. allgemeine Hinweise zum Umgang mit wertvollen Daten
2. redundante Festplattensystem (RAID)
3. Backup auf optische oder magnetische Medien
4. Backup via Netzwerk




allgemeine Hinweise zum Umgang mit wertvollen Daten
Wenn man eigene Daten hat, bei denen ein Verlust nicht wünschenswert ist, dann sollte man auch entsprechend mit diesen Daten umgehen.
Grundlegend sollte man alle wichtigen Daten nicht verteilt speichern, sondern so speichern, dass man sie immer im Überblick hat und Backuplösungen einfach zu realisieren sind. D.h. bei Windows bietet es sich z.B. an, einfach die Ordnerstruktur der "Eigenen Dateien" zu nutzen, um dort alle wertvollen Daten unterzubringen. Weil diese Ordnerstruktur ist dann sauber zu überblicken und man kann sie flexibel auf dem Datenträger abspeichern (über Rechtsklick - Eigenschaften auf die Eigenen Dateien kann man z.B. einen anderen Speicherort auswählen und kann eine komplette eigene Festplatte nur für die eigenen Dateien hernehmen.
Und dies gilt auch allgemein, man sollte diese Daten niemals auf die systempartition packen, und wenn möglich auch nicht auf die ganze Festplatte, auf der Windows drauf ist. Weil wenn Windows ausfallen sollte und eine Neuinstallation ansteht, kann es im schlimmsten Fall passieren, dass Windows die Partitionen falsch erkennt und dann einfach die Partition gelöscht wird mit den ganzen Daten. Zudem man bei einer Neuinstallation eh immer die Partition leer machen sollte, damit Windows in eine leere Partiton kann.
Weiterhin sollten die Daten auch deswegen auf eine zweite Festplatte, weil Windows die Systemplatte mit seinen ganzen Auslagerungssachen und den vielen zehntausend Systemdateien schon ganz schön belastet. Weil eine Festplatte hat eben auch Verschleißerscheinungen, auch wenn diese normalerweise nicht so hoch sind. Aber durch massiv viele Schreib und Leseoperationen sinkt ihre Lebenserwartung auch, und wenn die Daten auf einer zweiten Festplatte sind, dann hat man damit schonmal einen weiteren Vorteil.



redundante Festplattensystem (RAID)
Was ist RAID überhaupt? Es ist ein "redundant array of independent discs", also ein redundanter Verbund von unabhängigen Festplatten.
Es sind also mehrere Festplatten, die zu einer Festplatte zusammengeschaltet werden und durch bestimmte Algorithmen wird dann dann sichergestellt, dass die Daten auf den Festplatten auch dann noch vorhanden sind, wenn eine oder mehrere Festplatten ausfallen. D.h. für Windows ist da z.B. eine ganz normale Festplatte im System, diese besteht aber real z.B. aus 4 einzelnen Festplatten. Sollte nun eine dieser Festplatten ausfallen, dann merkt Windows das selbst nicht, es wird sich dann nur die Software vom dem RAID Controller zu Wort melden, dass da was nicht in Ordnung ist und man bitte eine neue Festplatte einbauen sollte, damit der Controller den Verlust wieder ausgleichen kann.

Wieviele Festplatten jetzt ausfallen können, hängt von dem Level des RAID ab. Dabei wurden mehrere verschiedene Stufen definiert, die sich nach der Anzahl der Festplatten richtet und die die mögliche Sicherheit wiedergibt.

Grundsätzlich gibt es diese RAID Level:
RAID1
RAID5
RAID6

Es ist zwar noch ein RAID Level 0 definiert, aber dieser hat rein gar nix mit dem Hintergedanken von Datensicherheit zu tun, es ist einfach ein Verbund von mehreren Festplatten, die symmetrisch zu einer Festplatte verbunden werden, wobei es hier um eine reine Leistungsteigerung geht, da keinerlei Sicherheit besteht, im Gegenteil nimmt hier die Datensicherheit sogar ab. Denn im RAID0 werden 2 oder mehr Festplatten zu einer Festplatte verbunden, wobei die Datenblöcke abwechselnd auf alle Laufwerke geschrieben werden. Dadurch ist die Gesamtgröße gleich der Größe der kleinsten Platte multipliziert mit der Anzahl. Und die Geschwindigkeit nimmt auch fast linear um die Anzahl der Festplatten zu, wenn der Controller das mitmacht. Sollte aber eine der Festplatten ausfallen sind ALLE Daten verloren.

Die erste richtig Stufe ist RAID Level 1. Hierbei werden genau zwei Festplatten benötigt. Dabei werden die Daten auf beide Festplatten gleichzeitig geschrieben, also gespiegelt. Sollte eine Festplatte ausfallen, sind sämtliche Daten auf der zweiten Festplatte noch erhalten. Bei diesem Level hat man als Gesamtkapazität die Größe der kleinsten Festplatte zur Verfügung und von der Geschwindigkeit her ist es genauso schnell wie eine Festplatte alleine.

Als nächstes kommt RAID Level 5 Bei diesem Level werden mindestens 3 Festplatten benötigt. Hier ist es so, dass die Datenblöcke zuerst wie beim RAID0 abwechselnd auf die Festplatten geschrieben werden, aber bei einer Festplatte wird statt eines Datenblocks ein Paritätsblock geschrieben. Dieser Block enthält sowas wie eine Quersumme aus den anderen Blöcken.
Diese Paritätsinformation werden dann immer abwechseln geschrieben. Also bei 3 Festplatten wird beim ersten Durchgang auf die ersten zwei Platten ein Datenblock geschrieben und auf die letzte die Paraität aus den zwei Blöcken. Beim nächsten Durchgang werden die Datenblöcke auf Platte 1 und 3 geschrieben und die Parität aus den beiden kommt auf Platte 2 und so weiter.
Dadurch hat man dann von der Anzahl der Festplatte immer eine Festplatte Verlust an Kapazität. Sollte nun aber irgendeine der Festplatten ausfallen, dann kann der Controller über die Paritäten ausrechnen, welche Datenblöcke fehlen. Dabei ist beim Schreiben die Geschwindigkeit meist nicht so hoch, weil die Paritäten berechnet werden müssen, dafür erreicht ein RAID5 beim Lesen aber eine gute Gschwindigkeit, da es ähnlich wie RAID0 verfahren kann.

Der RAID Level 6 ist ähnlich wie RAID Level 5, nur hier werden zwei Paritätsblöcke geschrieben. Es werden also mindestens 4 Festplatten benötigt. Dieser Modus ist aber für große RAID Systeme mit 8 bis 24 Festplatte gedacht. Weil es kann bei großen RAID Systemem vorkommen, wenn eine Festplatte ausgebaut wird und die Ersatzfestplatte eingebaut wurde zur Rückspielung, dass beim Rückspielen noch eine weitere Festplatte ausfällt und bei einem RAID5 ist dass das Ende. Daher hat RAID6 eine weitere Sicherheit drin, damit auch mal zwei Festplatten ausfallen können.

Es gibt jetzt natürlich noch einige Mischformen. So gibt es von einigen Herstellern im Kosumerbereich den RAID Level 1,5. Bei diesem Level werden die Daten wie bei einem RAID1 geschrieben, man hat also eine reine Spiegelung der Daten und eine Festplatte ist von der Kapazität nicht nutzbar. Beim Lesen werden die Blöcke nun aber wechselweise gelesen, wie bei einem RAID0, sodass man die Lesegeschwindigkeit von einem RAID0 hat.

Der RAID Level 10 ist eine Mischung aus RAID0 und RAID1, hierbei werden mindestens 4 Festplatten benötigt. Je zwei Festplatten werden zu einem RAID 1 verbunden und diese beiden RAID 1 werden dann nochmal zu einem RAID0 verbunden. Dies hat den Vorteil, dass man den RAID Level 0 nutzen kann, ohne ein allzugroßes Risiko zu haben. Aber die Hälfte der Kapaziät ist trotzdem nicht nutzbar.

Beim RAID Level 11 werden 4 Festplatten zu einem doppelten RAID 1 verbunden...also hier könnten von 4 Festplatten 3 ausfallen. Aber dieser Modus ist doch sehr unrentabel, wenn man nicht gerade die ultimative Datensicherheit im Auge hat.

RAID Level 50 ist wie der RAID Level 10, nur halt mit zwei RAID5, die zu einem RAID 0 verbunden werden. Hier werden mindestens 6 Festplatten benötigt. Das gleiche auch beim RAID Level 55, hier braucht man aber sogar 9 Festplatten. Es können aber theoretisch bis zu 5 Festplatten ausfallen von 9.

Da man bei Serversystemen nicht immer vor Ort sein kann, um schnell eine Festplatte zu tauschen, gibt es bei den guten RAID Controllern auch noch die Möglichkeit, ein Hot Spare einzurichten. Dies ist eine weitere Festplatte, die an den Controller angeschlossen ist, die aber nicht genutzt wird und im Standby ist. Sollte nun eine Festplatte ausfallen, dann schaltet der Controller diesen Hot Spare sofort ein und spielt alle Daten auf diese Festplatte auf, um das RAID einsatzbereit zu halten. Je nach Größe des Controllers kann man dabei auch ein paar mehr Festplatten als Hot Spare definieren.
Vorallem bei Storage Area Networks, bei denen über FibreChannel eine Vielzahl von Festplatten an einem (redundanten) Controller hängen, ist sowas gut möglich und auch sinnvoll. Dadurch können solche Festplattensysteme relativ unbeaufsichtigt arbeiten und man muss nur ab und an mal vorbeikommen und die ausgefallenen Festplatte gegen neue tauschen.


Ich persönlich habe für mich in den letzten Jahren die Strategie gewählt, dass ich für meine Systemdaten (Windows, Programme) ein RAID Level 0 nutze, damit eben das Starten von Windows und das Laden der Programme schön schnell geht und da man Windows eh alle paar Monate neu installieren muss fällt es nicht ins Gewicht, wenn man mal eine Festplatte im RAID0 tauschen muss.
Für meine Daten nehm ich dann aber ein RAID Level 5, derzeit mit 3x 750GB, vorher hatte ich 4x 80GB. So kann ruhig mal eine HDD ausfallen und man bekommt dann vom System eine Warnmeldung man möge doch bitte eine neue Festplatte einbauen. Bei Hardware Controllern wie 3Ware oder Adaptec ist dies sogar im laufenden Betrieb möglich, da SATA und SAS HotPlug fähgig sind.





Backup auf optische oder magnetische Medien
Auch wenn ein RAID System eine hohe Sicherheit bieten kann, es gibt keine absolute Sicherheit. Durch eine Überspannung kann z.B. die Elektronik aller Festplatten durchbrennen, oder ein Wasserschaden tritt ein, oder Feuer usw.
Aus diesem Grund sollten wichtigen Daten auch immer nochmal extra gesichert werden.
Da die Datenmengen in der heutigen Zeit schon locker etliche GB bis einige hunder GB umfassen können, sind DVDs als Backupmedium aber nicht immer geeignet. Vorallem haben sie den Nachteil, dass das Brennen relativ lange dauert und bei einer Änderung des Datenbestandes kann man einen neuen Rohling nehmen.
Zudem lässt die Haltbarkeit der reflektivne Schicht in der DVD zu wünschen übrig. Wenn diese 10 Jahre halten, sind sie schon gut.
Auch bei BluRay ist dies nicht sehr viel besser, weil hier passen zwar mehr Daten drauf als bei der DVD, aber auch hier dauert das Brennen recht lange und die Haltbarkeit ist ähnlich.
Für große Datenmengen und ein langfristiges Backup kommen daher eigentlich nur magentische Speicher in Frage, wie z.B. Streamer, welche heute schon pro Band eine Kapazität von einigen hunder GB haben können. Aber auch hier ist das Problem, dass sie nur relativ langsam beschrieben werden können und man muss alles komplett neu schreiben, wenn Änderungen eintreten. Aber für ein langfristiges Backup von sensiblen Daten ist dies immernoch mit die beste Strategie.

Die sinnvollste und beste Variante ist aber an sich das Backup auf eine externe Festplatte, über USB oder Firewire.
Denn hier hat man den Vorteil dass die Daten schnell kopiert werden können und das vorallem nicht immer alles kopiert werden muss, sonder einfach nur die Aktualisierungen übertragen werden müssen (inkrementelles Backup). Zudem haben auch die Magnetscheiben von Festplatten eine relativ lange Lebenserwartung von einigen Jahrzehnten...wobei nach der Zeit eher die Frage nach dem Übertragungsstandard ist, ob in 20 Jahren noch ein PC USB2 kompatibel sein wird, bzw ob die Datenmengen und Geschwindigkeiten da nicht schon so wahnsinnig sind, dass es überhaupt nicht mehr nötig ist, eine so kleine Festplatte zu nutzen.
Wenn man zumindest eine externe Festplatte verwendet, dann sollte man auch eins machen und diese möglichst nicht die ganze Zeit mit dem PC verbunden lassen, sonder sie extra lagern. Weil bei einer Überspannung trifft es die auch und Wasserschaden und Feuer sind für sie ebenfalls nicht so praktisch.
Daher sollte man den externen Datenträger an einer Ort aufbewahren, wo möglichst nicht so viel passieren kann. Dann kann mit dem PC wirklich passiern was will, seine Daten hat man aufjedenfall noch einmal in Sicherheit. Ich persönlich habe sogar zwei externe Festplatten an zwei Orten, weil sicher ist sicher, weil kann doch mal passieren, dass eine externe Festplatte beim zurückkopieren ausfällt :D




Backup via Netzwerk
Noch besser als eine externe Festplatte ist allerdings, wenn man die Daten auf einem eigenen Server abspeichert. Entweder man hat im eigenen Heimnetzwerk einen kleinen Server, auf dem ein RAID System läuft, dann würde es sich anbieten, diesen als zentralen Speicher für das Haus zu nutzen, weil so kann man erstens auf alle Daten zugreifen und sie sind dort relativ in Sicherheit. Und das ganze kann man halt auch parallel zu einem RAID auf dem eigenen Rechner laufen lassen.
Es gibt Sofware wie z.B. Rsync, mit der kann man dann über Netzwerk den Datenbestand immer synchron halten. So kann man entweder über netzwerk direkt auf dem Server an den Dateien arbeiten und sie werden mit dem zweiten Rechner aktuell gehalten, oder man arbeitet an seinem Rechner und dieser schickt die Aktualisierungen an den Server.

Statt mit einem Server im Heimnetzwerk kann man aber auch einen Server in einem Rechenzentrum mieten, bzw einen eigenen dorthinstellen. Dies hat den Vorteil, dass eine große räumliche Trennung besteht und die Server dort unter optimalen Bedingungen laufen. Weiterhin hat man dann so sogar weltweit Zugriff auf seine Daten, aber abhängig von der eigenen Internetanbindung kann das Backup dann mehr oder weniger lange dauern.

Noch extremer ist es bei den so genannten "HA-Clustern", also ein Hochverfügbarkeits-Cluster, oder komplett Deutsch "Hochverfügbarkeits - Rechnerverbund". Ein Cluster selbst ist erstmal nichts weiter wie ein Verbund von vielen Rechner, die zusammen eine Aufgabe erledigen. Dabei gibt es dann halt HPC- (High Performance Computing), LB- (Load Balancing) und die genanngen HA-Cluster. Bei letzteren ist der grundsätzliche Gedanke der gleiche wie bei einem RAID. Nur dass es hier dann nur den "RAID Level 1" gibt, also mindestens zwei Server haben immer eine identische Version aller Daten, die in Echtzeit ausgetauscht werden. Sollte nun ein Server ausfallen, ist der zweite immernoch weiter verfügbar (und übernimmt auch die gesamten Aufgaben von dem ausgefallenen Server).
Solche System sind dann aber eher für Firnen gedacht, die einen zentralen Datenbestand haben, der immer online verfügbar sein muss.





Windows Optimierung


Wer kenn nicht dieses unausgereifte Betriebsystem mit den Massen an Fehlern und Problemen usw. Vorallem die extrem hohe Speicherauslastung und die teilweise lange Startzeit ist selten angenehm.
Aber es geht auch besser. Das Windows XP SP2 auf meinem Zweitrechner z.B. braucht nach dem Start lediglich 80MB Arbeitspeicher und bootet in lediglich 15sek (das Windows XP Logo beim Start ist für gerade mal 1sek zu sehen).

Was muss man alles machen, damit es so schnell läuft und vorallem auch auf einem Rechner mit weniger RAM läuft? Diese Anleitung bezieht sich jetzt auf Windows XP. Ich gehe danach auch auf das aktuelle Windows Vista ein, aber das wird man leider nichtmal ansatzweise so abspecken können, ohne dabei massiv Probleme zu bekommen.



Windows XP SP2
Das wichtigste bei Windows allgemein ist eigentlich, dass so wenig wie möglich im Hintergrund läuft, vorallem beim Start. Es sollte nur das laufen, was man wirklich dringend benötigt und mehr nicht.

Fangen wir mit dem Autostart von Software an. Das einfachste ist noch das Startmenü:

Start - Programme - Autostart

da sollte wirklich nur die Software drin stehen, die man auch wirklich beim Starten haben will. Merke: Windows braucht dort nichts! Alles was da drin gelistet ist, kann man gefahrlos entfernen.
Als nächstes kommt ein schon etwas schwerer zu findender Autostart Ordner. Diesen findet man in der Registrierung. Dieser erreicht man, indem man auf "Start - Ausführen" klickt und dann "regedit" eingibt und Enter drückt. In dem Fenster, das wie der Explorer aussieht, geht man nun auf der Linken Seite in folgende Schlüssel (die heißte hier Schlüssel und nicht Ordner):

HKEY_Local_Machine\Software\Microsoft\Windows\CurrentVersion\Run

Bis auf den Schlüssel "Standard" ist jeder Eintrag in diesem Ordner von irgendeiner installierten Software. Messenger, Antivirensoftware, Office usw. Auch hier ist es so, das Windows definitiv keinen einzigen dieser Einträge benötigt. Nur im Fall von Antivieren Programmen oder einer Firewall sollte man schauen, welche dieser Einträge dazu gehören.
Das gleiche ist dann nochmal für den jeweiligen angemeldeten Nutzer vorhanden, der hat nämlich auch so einen Ordner in der Registrierung...also im gleichen Fenster in den folgenden Ordner gehen:

HKEY_Current_User\Software\Microsoft\Windows\CurrentVersion\Run

Wenn man diese Schlüssel dann mehr oder weniger entleert hat, geht es weiter zu den Diensten. Dienste sind die eigentliche Struktur von Windows. Es sind im Hintergrund laufenden Programme, die die Funktionalität von Windows sicherstellen, oder halt auch Zusatzfunktionen bereitstellen. Es gibt aber auch Software, die als Dienst im Hintergrund läuft.
Das markante Merkmal von einem Dienst in Windows ist: er läuft, aber man sieht nichts von ihm. Lediglich im Taskmanager sieht man die laufenden Dienste, aber bei Windows XP sieht man da leider nur die, die nicht von Windows sind.
Windows packt seine Dienste nämlich zu einem großen Teil in den ContainerProzess "svchost.exe" (steht für "Service-Host"). Davon laufen meist ein paar mehr und dort sind fast alle Dienste von Windows drin. Beendet man einen dieser Containerprozesse wird fast immer Windows mit einer Fehlermeldung den Dienst quittieren (automatisches Herunterfahren des PCs).
Um jetzt gefahrlos die unnötigen Dienste zu beenden, geht man zu folgender MMC Konsole (MMC ist ein allgemeines Konsolenprogramm von Windows, in das mehrere Verwaltungskonsolen geladen werden können):

Rechtsklick auf Arbeitsplatz - Verwalten - Dienste und Anwendungen - Dienste

Dort findet man eine Liste von allen Diensten, die bei Windows installiert sind. Name und Beschreibung sollte klar sein und in der dritten Spalte steht der Laufstatus, also ob der Dienst läuft, oder gerade gestartet wird oder beendet wird oder ob der nicht läuft. Die Liste der gestarteten Dienste (dazu auf den Spaltenkopf klicken und es wird danach sortiert) sollte normalerweise auf eine halbe Bildschirmseite bei 1280*960 passen.
Wenn man nun einen Dienst für immer beenden will, doppelklickt man ihn und wählt dann im Fenster bei "Startmodus -> Deaktiviert" aus. Beim nächsten Neustart wird dieser Dienst nicht mehr gestartet.
Welche Dienste werden jetzt aufjedenfall benötigt?

Arbeitsstationsdienst
COM+ Ereignissystem
DCOM-Server-Prozessstart
DHCP-Client (auch bei festen IPs notwendig!)
DNS-Client
Ereignisprotokoll
Geschützer Speicher
Kryptografiedienste
Netzwerkverbindungen
Plug&Play
Remoteprozeduraufruf (RPC)
Server
Shellhardwareerkennung
Sicherheitskontenverwaltung
Windows Audio
Windows-Verwaltungsinstrumentation


Wobei hier einige der Dienst nur für Netzwerk benötigt werden.
Welche Dienste sind optional sollten aber je nach Anwendungsgebiet laufen?

Designs (damit Windows gut aussieht)
Druckerwarteschlange (für Nutzung eines Druckers)
Gatewaydienst auf Anwendungsebene (für ICS oder Windows Firewall)
HID Input Service (für Nuztung von Multimediatasten)
Konfigurationsfreie 802.11x-Verbindungen (WLAN ohne Herstellersoftware)
RAS-Verbindungsverwaltung (UMTS oder andere Modems)
Telefonie (UMTS oder andere Modems)
Terminaldienste (RemoteDesktop)
Verwaltung logischer Datenträger (wenn man mal die Festplatten in Windows formatieren will oder Laufwerksbuchstaben neu zuweisen will)
Windows Installer (bei der Installation von Software benötigt)
Windows-Bilderfassung (WebCams, Scanner usw)


Was kann man noch alles optimieren?
Wer nicht so sehr auf die grafischen Effekt steht, kann diese auch komplett abschalten (neben dem Design Dienst, der für die bunten und runden Schaltflächen da ist):

Rechtsklickt Arbeitsplatz (alternativ WindowsTaste + Pause) -> Erweitert -> Systemleistung
-> "für optimale Leistung anpassen"
-> Erweitert -> Virtueller Speicher -> Ändern -> Benutzerdefinierte Größe


Hier muss man jetzt sehen, was man einstellt. Wenn man sehr viel RAM drin hat und dieser sicher nie voll wird, dann deaktiviert man die Auslagerungsdatei über "Keine Auslagerungsdatei". Anderfalls stellt man bei Benutzerdefinierte Größe eine feste Größe ein, d.h. z.B. von 2048MB bis 2048MB. Damit Windows also nicht zwischendurch einfach mal die Größe der Datei verändert, was nämlicht auch Leistung kostet, da dabei die Datei fragmentiert wird.


Jetzt noch einige Optimierungen an der Funktionalität:

Start - Ausführen - "gpedit.msc" - Benuterzkonfiguration - Administrative Vorlagen

-> Windows-Komoneten - Anlagenmanger - Aufnahmeliste für Dateitypen mit niedrigem Risiko
wenn man in diese Liste Dateiendungen wie z.B. ".exe; .txt;" einträgt, dann wird Windows nicht mehr die Frage stellen, ob bei heruntergeladenen Dateien mit dieser Endung diese wirklich geöffnet werden sollen, weil sie ja ein Sicherheitsrisiko darstellen könnten. Wer sich diesen Schwachsinn bloß beim MS ausgedacht hat.

-> System - Autoplay Deaktivieren
sollte wohl klar sein, sehr praktisch, vorallem beim Anschluss von externen Festplatten, die gut gefüllt sind.

-> Windows-Komponenten - Windows Explorer - Gemeinsame Dokumente vom ARbeitsplatz entfernen
endlich weg dieser Mist

-> Windows-Komponenten - Windows Explorer - Standarddialog Datei öffnen - Elemten die in der Ortsleiste angezeigt werden sollen
sehr praktisch, wer findet bei dem Datei öffnen Dialog diese Schalflächen links (Desktop, Netzwerkumgebung usw) nicht unpassend? Hier kann man selbst die Orte eingeben, zu denen man schnell wechweln möchte

-> Desktop - Papierkorbsymbol vom Desktop entfernen
sehr praktisch, wenn man einen komplett leern Desktop haben will, nur vorher sollte man den Papierkorb ins Startmenü schieben, sonst isser wirklich weg.


Und für den Explorer noch einige Sachen:
Windows Explorer - Extras - Ordneroptionen - Ansicht
- Automatisch nach Netzwerkordnern und Druckern suchen -> ja nicht...wenn man nicht öfter mal eine Sanduhr sehen will bei einem angeschlossenen Netzwerk
- Dateigrößeninformationen in Ordnertips anzeigen -> nein...ansonsten kramt der dauernd auf der Festplatte, wenn man mit der Maus über einen Ordner fährt
- Einfache Dateifreigabe verwenden -> sicher nicht, ich will schon festlegen, wer was machen darf

der Rest dort ist eigentlich selbsterklärend.

So, jetzt sollte euer WindowsXP zumindest einigermaßen gut laufen. Wenn es frisch installiert war, dann sollte nach dem nächsten Neustart die Speicherauslastung zu 100MB und weniger tendieren und der Start sollte eigentlich auch schneller gehen. Falls nicht, dann am besten im Forum nachfragen, da werden wir dem dann auf dem Grund gehen...weil Windows ist so komplex, das da noch viele anderen Sachen reinspielen können (Treiber z.B.)




Windows Vista
kommen wir zu dem derzeit unausgereiftesten und undurchdachtestem Betriebsystem von allen...
Meine ganz ehrliche Meinung zu dem OS: es ist die größte Darstellung von Inkompetenz, wie nur geht. Wäre ich einer der Programmierer von Vista, ich würde mich freiwillig an den Galgen hängen für so eine absolut unterirdisch schlechte Leistung. Gerade bei einem Unternehmen mit dem Budget wäre eine richtige Lösung doch kein Problem gewesen. Aber bei zuviel Geld schalten scheinbar die geistigen Leistung zurück.

Egal, versuchen wir uns dem Kampf, Vista zu optimieren. Grundsätzlich kann man schonmal eins sagen, das es schwer wird. Allein die Installation läuft auf Rechnern mit weniger als 4GB Arbeitsspeicher quälend langsam. Und auch im Betrieb benötigt Vista so extrem viele und sinnlose Dienste usw, dass man nicht so viel Freiheit hat, daran etwas zu optimieren. Daher auch meine Meinung:
wer nicht gerade mehr als 4GB RAM und einen Quadcore oder mehr sein eigen nennt, sollte eh die Finger von dem Betriebsystem lassen.

Grundlegend kann man bei Windows Vista eigentlich alles genauso machen wie bei Windows XP, nur bei den Diensten und bei einigen anderen Sachen gibt es noch mehr zu beachten. Vorallem bei den Diensten kann man leider nichtmal ansatzweise so viel beenden wie bei Windows XP, weil hier extrem viele Dienste essentiell geamcht wurden, ohne sie läuft rein gar nix mehr.

Welche Dienste müssen laufen?

Arbeitsstationsdienst
Aufgabenplanung
Benachrichtigungsdienst für Systemereignisse
Benutzerprofildienst
COM+Ereignisystem
DCOM Server Prozessstart
DCHP Client
Diagnoserichtliniendienst
Diagnosesystemhost
DNS Client
Funktionssuche-Ressourcenveröffentlichung
Gruppenrichtliniendienst
Kryptografidienste
Multimediaklassenplaner
Netzwerklistendienst
Netzwerkverbindungen
NLA
Plug&Play
Remoteprozeduraufruf
Server
Shellhardwareerkennung
Sicherheitskontenmanager
Softwarelizenzierung
Windows Driver-Foundation
Windows Audio
Windows Audio-Endpunkterstellung
Windows Ereignisprotokoll
Windows Verwaltungsinstrumentation



Wie kann man in Windows Vista die Benutzerkontensteuerung deaktivieren (die Nachfrage, ob man wirklich diese Aktion ausführen möchte)?

Systemsteuerung -> Benutzerkonten -> Benutzerkontensteuerung ausschalten

Deaktivieren der Hinweismeldung, dass die Sicherheit nicht gewährleistet ist:

Systemsteuerung -> Windows Defender -> Anzeige von Statusinformationen


Erstellt von: Robert Menger (Domaininhaber); letzte Aktualisierung: 06.02.2013
Die Inhalte dieser Seite unterliegen dem Urheberrecht und sind das alleinige Eigentum vom Domaininhaber
current conncted to Server: