Zuerst sollte man ggf. Menschen, Instituten und Laboren die so etwas beruflich machen unterstellen, dass sie auch Ahnung von der Materie haben. Höchstwahrscheinlich weitaus mehr wie 98% hier oder in anderen Foren aktive "Auskenner" (ausgenommen SLE *g*, der ist halt eine Leuchte auf dem Gebiet, da gibt es wohl keine 2 Meinungen zu *g*). Letztendlich hängen dort bei den professionellen Testern (Institute/Labore) ganze Existenzen/Arbeitsplätze nur an der Glaubwürdigkeit der Tests.darktwillight hat geschrieben:Wir werden wohl nie eine Einigung hin bekommen, in der Fragen wie
korrekt wird in den Instituten/Laboren Malwaretest betrieben!
Das meine ich ja mit der Gewichtung. Ich gehe davon aus, dass AV-Test/AV-C natürlich weitaus detailliertere Testergebnisse (mit erheblich tieferen Informationen) an die Zeitschriften, Online-Portale usw. gibt, (ist ja bei virusbtn.com auch nicht anders) die es dann nach ihrem ermessen auswerten. Im Falle von chip/pcwelt/pcgh und co. sieht dass dann in der Regel so aus, dass es nur 3 Faktoren gibt die auch gleich gewertet werden: Sicherheit (max 5 Punkte) + Performance (max 5 Punkte) + Bedienbarkeit (max 5 Punkte) = Gesamtpunktzahl = Ergebnis. So kann es nun passieren dass ein Produkt was in Performance 5 Punkte, in Bedienbarkeit 5 Punkte erreicht, aber beim Schutz ne Krücke ist (und ggf. 1-2 Punkte bekommt), dann trotzdem mit 11 bis 12 Punkten auf den oberen Plätzen rangiert und der Kunde dann denkt: Ah toll hab ich nun was tolles gekauft mit 12 Punkten und in Wahrheit wäre er wahrscheinlich mit dem Microsoft-Scanner fast schon besser gefahren (übertrieben gesagt). Oder richtig gute Programme die eine hervorragende Erkennung und Performance haben schlechter abschneiden, nur weil die persönliche Empfindung des Testers sagt dass er die Bedienung nicht gut findet.darktwillight hat geschrieben: Und vor allem wie sind die Testergebnisse zu bewerten?
Interessant wäre jetzt ggf. zB wenn als Beispiel die internen Tests hier ggf. mal monatlich/jährlich zusammengefasst würden (Einzig als Kriterium Erkennung bekannter Schädlinge und ggf. Reaktionszeit bis zur Erkennung). Dann könnte man als Gegenargument vl. mal sagen, also laut internen Tests hat Produkt X oder Y aber eine gute Erkennung in o.g. Bereich und die Jungs reagieren ziemlich schnell auf Schädlinge. Oder was halt AV-Test/AV-C und Co schlecht testen können, Erfahrungen mit Support X oder Y, das wäre teils echt Gold wert (gibt viel zu viele Hersteller die einen grottenschlechten Support haben)!
Die Ergebnisse zB von CB basieren doch auf der Auswertung von AV-Test, AV-C und deren eigener "Tests", dann die höhere Gewichtung von CB dazu (70% Schutz) = logischerweise anderes Ergebnis.darktwillight hat geschrieben: Oder was ist davon zu halten, wenn ein und das selbe Instituten/Laboren im selben Monat einen Test raus bringt. Das einmal auf ihrer Eigenen Internetseite als Offiziellen Test bringt und einmal ein Test in einer Computerzeitschrift mit anderen Testsiegern heraus bringt.
Momentaufnahmen sind eher manche Argumente die aus diversen internen Foren-Tests, Geek-Seiten (Malwaretipps usw.), usw. immer als Gegenargument genommen werden. Oder basieren die internen Foren-Tests auch allesamt auf feste und gleiche Zeiträume, jeweils frisch aufgesetzten gleichen PCs alle "Tester" und haben einen gemeinsamen Standard (natürlich nicht, ist auch faktisch unmöglich). Hat jeder AV/Suite in internen Foren dadurch die gleichen Chancen? Nein ...darktwillight hat geschrieben: Sind es nur Momentaufnahmen, wird unterschiedliche Malware getestet oder wodurch kommt das zustande? Ich finde die Fragen legitim, und finde es schade das die Instituten/Laboren so wenig zur Aufklärung dieser
Fragen tun!
Abgesehen davon das in internen Foren-Tests, Geek-Seiten fast ausschließlich nur zu 100% die jetzige Erkennungsrate (Momentaufnahmen) als Kriterium herangezogen wird, dann aber als Gegenargument eines zeitlich und leistungsmäßig umfangreicheren Tests von AV-Test, AV-C und Co. herangenommen werden soll?
Da sind wir uns einig, aber genau dafür wäre doch genau so ein Test-Labor/Institut wichtig, dass eben ALLE Hersteller die gleiche Hardware, ein frischen Windows oder ähnliches vorfinden. Anders ist das doch gar nicht vergleichbar. Und was in diversen internen Foren-Tests, Geek-Seiten usw. gemacht wird ist alles rein Spekulativ + persönliche Abneigung/Zuneigung + persönliche individuelle Empfindung usw. ...darktwillight hat geschrieben: Im Großen und ganzen machen die großen Hersteller von Antimalware eine Gute Arbeit, aber es wird immer
wieder Abweichungen durch Hard und Software geben.
Das dazu führen wird das machen Sicherheitsprogramme auf dem einen oder anderen PC
nicht so Gut laufen. Das aber wie gesagt nicht an den Herstellern dieser AV/IS liegt!!!
Nicht das mich hier wer falsch versteht, ich bin weiß Gott weder Fan von CB oder sehe die Tests von AV-C/AV-Test und Co. als heiligen Gral an. Auswerten muss es jeder für sich selbst, da jeder seine vorlieben hat und noch viel wichtiger seine eigene Hardware-Kombi, Programminstallationen und Nutzerverhalten hat. Daher finde ich solche einfachen Auswertungen wie teilweise von chip/pcwelt/pcgh und Co mit der o.g. Formel "Sicherheit (max 5 Punkte) + Performance (max 5 Punkte) + Bedienbarkeit (max 5 Punkte) = Gesamtpunktzahl = Ergebnis" einfach irreführend/schlecht. Und interessanterweise hat nun gerade die vielgescholtene CB hier doch tatsächlich mal einen sehr ausführlichen Test gemacht, den ich eigentlich eher von chip/pcwelt/pcgh und Co oder anderen Experten-Seiten erwartet hätte.