PC - Systemanalyse


PC - Systemanalyse

von eda70 » Fr 27. Feb 2009, 13:14
Ich suche ein Tool zur PC-Systemanalyse, dass anzeigt, welches die Schwachstellen der Hardware sind - also bei deren Austausch der größte Performancegewinn zu erwarten ist.
Gibt es so was?

Hias hatte mal von Werten von Festplatten geschieben, die einen drohenden Ausfall / Defekt anzeigen können.
Welche waren das und gibt es ein Tool zum Auslesen?

Beides möglichst für WinXP...

Vielen Dank schon mal!

von dl7ukk » Fr 27. Feb 2009, 13:20
Hi,

google doch mal für HD-Diagnose nach "Self-Monitoring, Analysis and Reporting Technology" kurz S.M.A.R.T.

Ich benutze gerne die UBCD Universal Boot CD oder so. Da sind 'zig PC-Test's drin. Ob das was für Dich ist? (Win??)

von eda70 » Fr 27. Feb 2009, 14:26
dl7ukk hat geschrieben:S.M.A.R.T.
Danke, ja das schein es zu sein. Schade nur, dass USB-Platten so stiefmütterlich behandelt werden.
Da im Heimbereich oft auf USB-HD gesichert wird, wäre diese Analyse hier doppelt wichtig.

dl7ukk hat geschrieben:Ich benutze gerne die UBCD Universal Boot CD oder so. Da sind 'zig PC-Test's drin. Ob das was für Dich ist? (Win??)
Hm, vom Prinzip her egal, ich habe bei solchen Programmen nur noch nie eine Schwachstellenanalyse gesehen.
Wenn mir das Programm anzeigt, mein System hat die und die Performance, weiß ich ja noch nicht, ob durch den Austausch von einer Komponente ein signifikanter Zuwachs erreicht würde.

Bsp. Laptop bringt zusätzlicher Hauptspeicher Performance gewinn?
Doch nur wenn der Prozessor mit mehr Hauptspeicher mehr leisten könnte. Wenn dem nicht so ist wäre ein anderer Prozessor die erste Wahl... (mal davon abgesehen, dass das bei einem Lap nicht so einfach ist...)

Es geht letztlich um die Analyse, wenn Aufrüsten, dann mit welchem Teil anfangen.

von dl7ukk » Fr 27. Feb 2009, 15:14
Hallo,

eda70 hat geschrieben: ... ich habe bei solchen Programmen nur noch nie eine Schwachstellenanalyse gesehen.
Wenn mir das Programm anzeigt, mein System hat die und die Performance, weiß ich ja noch nicht, ob durch den Austausch von einer Komponente ein signifikanter Zuwachs erreicht würde. ....



Ja ich weiss, ich war mir auch nicht sicher ob es Dir nutzen würde. Leider bin ich kein ein PC und/ oder Win Freak. Andererseits sind es oft die kleinen Dinge die das Leben leichter machen. :D

von HiassofT » Fr 27. Feb 2009, 16:03
Hi!

eda70 hat geschrieben:
dl7ukk hat geschrieben:S.M.A.R.T.
Danke, ja das schein es zu sein. Schade nur, dass USB-Platten so stiefmütterlich behandelt werden.
Da im Heimbereich oft auf USB-HD gesichert wird, wäre diese Analyse hier doppelt wichtig.

Ja, das ist blöd. Das liegt in erster Linie an den USB/ATA Bridges. Über USB (mass storage) wird "SCSI" gesprochen und die Bridges setzen nur wenige Kommandos (Read, Write) auf ATA Kommandos um. Einige wenige Bridges haben eine proprietäre Erweiterung mit der direkt ATA Kommandos an das Laufwerk durchgereicht werden können. Aber das ist (bisher) nicht standardisiert...

Kurzum: zZt keine Chance.

Hm, vom Prinzip her egal, ich habe bei solchen Programmen nur noch nie eine Schwachstellenanalyse gesehen.
Wenn mir das Programm anzeigt, mein System hat die und die Performance, weiß ich ja noch nicht, ob durch den Austausch von einer Komponente ein signifikanter Zuwachs erreicht würde.

Bsp. Laptop bringt zusätzlicher Hauptspeicher Performance gewinn?
Doch nur wenn der Prozessor mit mehr Hauptspeicher mehr leisten könnte. Wenn dem nicht so ist wäre ein anderer Prozessor die erste Wahl... (mal davon abgesehen, dass das bei einem Lap nicht so einfach ist...)

Es geht letztlich um die Analyse, wenn Aufrüsten, dann mit welchem Teil anfangen.

Die grundsätzliche Frage ist, was Du unter "Performance" verstehst. Welche Programme verwendest Du, was genau ist langsam? Die ganzen Tools können Dir nur insofern bei der Analyse helfen, als daß sie Dir ein paar technische Eckdaten liefern. Interpretieren musst Du sie dann selber.

Ein paar konkrete Beispiele: Video Rendering/Encoding ist hautpsächlich Prozessorlastig. Die Performance von Grafikkarte und Festplatte ist da zweitrangig. Anders sieht's bei (grösseren) Datenbanken aus: Da brauchst Du in erster Linie genug Hauptspeicher und schnelle Festplatten. Bei Spielen ist oft die Grafikkarte der bremsende Faktor. Es kann aber auch die CPU sein, wenn sie nicht schnell genug die 3D Daten liefern kann langweilt sich die Highend Grafikkarte.

Du kannst auch schon mit den Bordmitteln des Betriebssystems einige Analysen anstellen: Ist die CPU Last auf 100%? Wird viel geswappt? Verbringt das Programm evtl. die meiste Zeit darauf auf die Festplatte zu warten?

Selbst wenn die Analysen eindeutige Ergebnisse liefern (zB zu wenig Hauptspeicher), ist es schwierig abzuschätzen wie sich die Gesamtperformance ändert wenn man zB den Hauptspeicher verdoppelt. Das braucht viel Erfahrung, allgemeine Regeln gibt es dazu kaum - und es hängt wie schon erwähnt stark davon ab welche Programme Du einsetzt.

Eine der Grundregeln ist aber, daß man erstmal sein Betriebssystem "aufräumen" sollte. Mir sind schon viele aktuelle PCs (mit Windows) untergekommen, die schnarchlangsam waren. Einfach aus dem Grund, weil beim Systemstart 10-20 Programme gestartet wurden, die dann dauernd im Hintergrund liefen und RAM und CPU Zeit verbraten haben.

Also: erstmal alles was man nicht unbedingt braucht, bis auf den Virenscanner, aus dem Autostart rauswerfen. Achja, von wegen Virenscanner: McAffee und Norton bremsen extrem. NOD32, Antivir etc. sind da schon viel besser.

Wichtig ist auch die Auswahl des Betriebssystems. Vista zwingt bekanntermassen so ziemlich jeden Rechner in die Knie, auf älteren PCs wirds richtig unerträglich - XP ist da die bessere Wahl.

Unter Linux ist's aber auch nicht viel anders: Gnome und KDE brauchen auch einiges an Ressourcen (RAM und CPU). Gerade eben selbst erlebt: 1.8GHz Pentium 4 mit 1.5GB RAM - Gnome läuft etwas zäh, mit XFCE4 andererseits ist alles OK. Sogar auf einem ca. 700MHz P3 mit 256MB RAM kann man mit XFCE4 recht ordentlich arbeiten. Firefox und OpenOffice hätten zwar gerne etwas mehr RAM, aber es ist erträglich.

so long,

Hias

von Rockford » Fr 27. Feb 2009, 19:00
HiassofT hat geschrieben:...

Unter Linux ist's aber auch nicht viel anders: Gnome und KDE brauchen auch einiges an Ressourcen (RAM und CPU). Gerade eben selbst erlebt: 1.8GHz Pentium 4 mit 1.5GB RAM - Gnome läuft etwas zäh, mit XFCE4 andererseits ist alles OK. Sogar auf einem ca. 700MHz P3 mit 256MB RAM kann man mit XFCE4 recht ordentlich arbeiten. Firefox und OpenOffice hätten zwar gerne etwas mehr RAM, aber es ist erträglich.

so long,

Hias


Hm. Ich arbeite mit einem 1.6GHZ P4 und habe 640MB RAM. Ich kann mit mit Suse Linux 11.0 (und die Paketzusammenstellung bei Suse ist nicht gerade schlank) mit Kernel 2.6.25.20-01 kombiniert mit KDE3.5.10 sehr schnell arbeiten sowohl unter OpenOffice als auch mit emulierten Programmen z.B.Photoshop, wo ich grosse Dateien mit Grafiktablett bearbeite. Auch wenn paralell versch. Speicherfresser offen sind, läuft's noch rund.
Theoretisch müsste der Rechner bei 1,5GB RAM eigentlich flitzen, denn Arbeitsspeicher ist das, was Linuxkernel vorallem brauchen.

Prinzipielle Probleme könnten hier sein:
- Das System nutzt die 1,5 GB nicht aus. Ist mir auch schon passiert, lag an unterschiedlichen Speicherherstellern die ich nachgerüstet hatte. Hat sich nicht vertragen.
-Mehrere Bibliotheken werden gleichzeitig benötigt, Bsp: Wenn man unter Gnome/XFCE Programme öffnet die Bibliotheken für KDE benötigen, werden diese mitgeladen - was unter Umständen nicht unerheblich Platz fordert.
-Grafiktreiber bremst das System aus. Grafikkarte nicht korrekt erkannt/in Xorg nicht richtig konfiguriert, läuft zwar, aber "auf Sparflamme". Es kann auch sein, dass es für die Grafikkarte keinen passenden Treiber in der Standarddistribution gab. Hängt vom Alter und der Treiberbibliothek der Distribution ab.
-Grafikauflösung wird nur bedingt unterstützt, betrifft z.B. Laptops und LCDs.

Wichtig ist auch:
Live-CDs sind immer langsam, wenn's nicht gerade Damnsmalllinux oder Puppy Linux ist.

Kernelupdates/Treiberupdates sind auch wichtig. Ich hatte auch erst Bedenken, von Suse 10.0 (2.4er Kernel+3.4KDE) umsteigen, da ich eben diese Performancebedenken bei den Speicherfressern habe. Erstaunlicherweise läuft es wesentlich schneller, die Verwaltung wurde also stark verbessert.

Und auf älteren Rechnern- so wie meinem- Oberflächengrafikspässe wie den 3D Desktop unter KDE4 nie nutzen.

Im ganz kleine Rahmen geht es auch:
Mein Uraltlaptop (Toshiba mit P1 120MHZ und 50MB RAM) läuft mit Damnsmalllinux, welches mit Fluxbox als Oberfläche prima arbeitet. Ich kann damit noch per DSL ins Internet, und wenn ich nicht gerade Firefox nutze (Der darauf aber abgespeckt auch noch läuft), dann ist es immer noch recht flott. Bei den Anwendungen ist dann natürlich kein Openoffice mehr drin, aber es gibt ja kleinere Alternativen. :D
Gerade auf dem Laptop mit seinem Riesengrafikspeicher von 2MB (!!) hab ich es hautnah gespürt, was es heisst, schon im kleinen Rahmen eine flitschige Grafikobefläche zu haben. Früher hatte ich mit äterem Kernel den REchner mit KDE 1 am laufen. Das konnte schon recht zäh sein.....Staroffice laden so um die 8Minuten... als wenn es von einer Datasette kommt... :wink:

Gruss, Holger

von HiassofT » Fr 27. Feb 2009, 22:00
Hallo Holger!

Rockford hat geschrieben:Theoretisch müsste der Rechner bei 1,5GB RAM eigentlich flitzen, denn Arbeitsspeicher ist das, was Linuxkernel vorallem brauchen.

Ich muss dazu anmerken, daß ich in der Richtung etwas kritisch (und wohl auch recht eigen bin): Ich gehöre zu der Sorte hartgesottener Commandline User, die X11 hauptsächlich dazu benötigen damit sie möglichst viele xterms (parallel) offen haben können.

An grafischen Anwendungen verwende ich hauptsächlich Firefox, PDF-Reader, Image-Viewer, gelegentlich Gimp und OpenOffice. Als Window Manager läuft auf meinem aktuellen Haupt-PC PC (2.67 Core2Duo E6750 mit 4GB RAM) genauso wie auf meinem vorigen Haupt-PC (P3 mit 600MHz und 1GB RAM) der fvwm2. Für sowas wie Desktop Umgebungen habe ich persönlich keine Verwendung.

Wenn ich mal einen Filemanager benötige, nehme ich den Midnight Commander in einem xterm. Mails lese und schreibe ich mit dem mutt und vi.

Bei besagtem P4 gab's aber noch einige andere Gründe wieso ich XFCE4 drauf installiert habe: Die Gnome (und auch KDE) Konfiguration finde ich zu unübersichtlich (mag natürlich auch daran liegen, daß ich mit beiden Umgebungen bisher so gut wie nichts gemacht hatte). Der gconf-editor erinnert mich auch zu stark an den leidigen Registry Editor unter Windows.

In der Grund-Installation von Gnome (unter Debian Lenny) stört mich auch, daß IMO zu viel unnötiges Zeugs mit installiert wird (nein, ich will keinen avahi-daemon im Hintergrund laufen haben). Das lässt sich zwar mit etwas Aufwand in den Griff bekommen, ist aber trotzdem lästig.

Also flog Gnome wieder runter und XFCE4 drauf. Der PC steht übrigens seit Dezember gut 50km weit weg bei meiner Mutter, vorher hatte sie einen Windows PC, mittlerweile verwendet sie ihn für alle täglichen Sachen (Radiosendung mit Audacity schneiden, Mail/Web, Vereinsverwaltung mit OpenOffice Base und Calc, Vereinszeitung Layout mit Scribus etc.). Klappt soweit hervorragend :-)

Prinzipielle Probleme könnten hier sein:
...

Da hast Du natürlich grundsätzlich recht. Aber, keine Angst, der PC ist anständig konfiguriert. Nach über 15 Jahren Erfahrung mit Linux hab' ich das halbwegs im Griff :-)

so long,

Hias

von Rockford » Fr 27. Feb 2009, 23:42
Ah, auch ein commandline User! Ist für mich auch einer der Gründe, warum ich Linux so klasse finde: Mit Shellprogrammierung wiederkehrende Aufgaben abarbeiten, und das auch noch blitzschnell.
Prima z.B. bei MP3 Kodierung...

Die ausufernden Bibliotheken und der unnütze Kram stört mich auch - ist ja bei KDE auch so eine Sache. Nur habe ich mich seit KDE 1 eben daran fest gehangen...Mein Aha-Erlebnis damals als ich von fvwm weg und zu KDE 1 hinkam, war wohl einfach zu prägend :wink:

Gruss, Holger