Herzlich willkommen bei PC-Sicherheit.net
Du betrachtest derzeit das Forum als Gast und hast damit nur eingeschränkten Zugriff. Um alle Bereiche zusehen und alle Forenfunktionen nutzen zu können ist eine kostenlose Registrierung erforderlich.

Wir würden uns freuen Dich bald bei uns als Mitglied begrüßen zu dürfen.
Viele Grüße vom PC-Sicherheit.net Team

Die besten Antivirus-Programme 2015 im Vergleichs-Test

Hier findet ihr Testergebnisse über Sicherheitssoftware.
Benutzeravatar
Rytoss
Foren Experte
Foren Experte
Beiträge: 1765
Registriert: Di 18. Jun 2013, 11:15
Betriebssystem: Win 10 Pro x64
Browser: Chrome +uBlock +BDTL
Firewall: FB7590|ESET IS
Virenscanner: ESET IS / BD TS 2019
Hat sich bedankt: 357 Mal
Danksagung erhalten: 422 Mal

Re: Die besten Antivirus-Programme 2015 im Vergleichs-Test

#41

Beitrag von Rytoss »

Meine Antworten meine ich Allgemein, sind also im folgenden nicht auf dich (darktwillight) bezogen ... :biggrinn:
darktwillight hat geschrieben:Wir werden wohl nie eine Einigung hin bekommen, in der Fragen wie
korrekt wird in den Instituten/Laboren Malwaretest betrieben!
Zuerst sollte man ggf. Menschen, Instituten und Laboren die so etwas beruflich machen unterstellen, dass sie auch Ahnung von der Materie haben. Höchstwahrscheinlich weitaus mehr wie 98% hier oder in anderen Foren aktive "Auskenner" (ausgenommen SLE *g*, der ist halt eine Leuchte auf dem Gebiet, da gibt es wohl keine 2 Meinungen zu *g*). Letztendlich hängen dort bei den professionellen Testern (Institute/Labore) ganze Existenzen/Arbeitsplätze nur an der Glaubwürdigkeit der Tests.
darktwillight hat geschrieben: Und vor allem wie sind die Testergebnisse zu bewerten?
Das meine ich ja mit der Gewichtung. Ich gehe davon aus, dass AV-Test/AV-C natürlich weitaus detailliertere Testergebnisse (mit erheblich tieferen Informationen) an die Zeitschriften, Online-Portale usw. gibt, (ist ja bei virusbtn.com auch nicht anders) die es dann nach ihrem ermessen auswerten. Im Falle von chip/pcwelt/pcgh und co. sieht dass dann in der Regel so aus, dass es nur 3 Faktoren gibt die auch gleich gewertet werden: Sicherheit (max 5 Punkte) + Performance (max 5 Punkte) + Bedienbarkeit (max 5 Punkte) = Gesamtpunktzahl = Ergebnis. So kann es nun passieren dass ein Produkt was in Performance 5 Punkte, in Bedienbarkeit 5 Punkte erreicht, aber beim Schutz ne Krücke ist (und ggf. 1-2 Punkte bekommt), dann trotzdem mit 11 bis 12 Punkten auf den oberen Plätzen rangiert und der Kunde dann denkt: Ah toll hab ich nun was tolles gekauft mit 12 Punkten und in Wahrheit wäre er wahrscheinlich mit dem Microsoft-Scanner fast schon besser gefahren (übertrieben gesagt). Oder richtig gute Programme die eine hervorragende Erkennung und Performance haben schlechter abschneiden, nur weil die persönliche Empfindung des Testers sagt dass er die Bedienung nicht gut findet.

Interessant wäre jetzt ggf. zB wenn als Beispiel die internen Tests hier ggf. mal monatlich/jährlich zusammengefasst würden (Einzig als Kriterium Erkennung bekannter Schädlinge und ggf. Reaktionszeit bis zur Erkennung). Dann könnte man als Gegenargument vl. mal sagen, also laut internen Tests hat Produkt X oder Y aber eine gute Erkennung in o.g. Bereich und die Jungs reagieren ziemlich schnell auf Schädlinge. Oder was halt AV-Test/AV-C und Co schlecht testen können, Erfahrungen mit Support X oder Y, das wäre teils echt Gold wert (gibt viel zu viele Hersteller die einen grottenschlechten Support haben)!
darktwillight hat geschrieben: Oder was ist davon zu halten, wenn ein und das selbe Instituten/Laboren im selben Monat einen Test raus bringt. Das einmal auf ihrer Eigenen Internetseite als Offiziellen Test bringt und einmal ein Test in einer Computerzeitschrift mit anderen Testsiegern heraus bringt.
Die Ergebnisse zB von CB basieren doch auf der Auswertung von AV-Test, AV-C und deren eigener "Tests", dann die höhere Gewichtung von CB dazu (70% Schutz) = logischerweise anderes Ergebnis.
darktwillight hat geschrieben: Sind es nur Momentaufnahmen, wird unterschiedliche Malware getestet oder wodurch kommt das zustande? Ich finde die Fragen legitim, und finde es schade das die Instituten/Laboren so wenig zur Aufklärung dieser
Fragen tun!
Momentaufnahmen sind eher manche Argumente die aus diversen internen Foren-Tests, Geek-Seiten (Malwaretipps usw.), usw. immer als Gegenargument genommen werden. Oder basieren die internen Foren-Tests auch allesamt auf feste und gleiche Zeiträume, jeweils frisch aufgesetzten gleichen PCs alle "Tester" und haben einen gemeinsamen Standard (natürlich nicht, ist auch faktisch unmöglich). Hat jeder AV/Suite in internen Foren dadurch die gleichen Chancen? Nein ...

Abgesehen davon das in internen Foren-Tests, Geek-Seiten fast ausschließlich nur zu 100% die jetzige Erkennungsrate (Momentaufnahmen) als Kriterium herangezogen wird, dann aber als Gegenargument eines zeitlich und leistungsmäßig umfangreicheren Tests von AV-Test, AV-C und Co. herangenommen werden soll?
darktwillight hat geschrieben: Im Großen und ganzen machen die großen Hersteller von Antimalware eine Gute Arbeit, aber es wird immer
wieder Abweichungen durch Hard und Software geben.
Das dazu führen wird das machen Sicherheitsprogramme auf dem einen oder anderen PC
nicht so Gut laufen. Das aber wie gesagt nicht an den Herstellern dieser AV/IS liegt!!!
Da sind wir uns einig, aber genau dafür wäre doch genau so ein Test-Labor/Institut wichtig, dass eben ALLE Hersteller die gleiche Hardware, ein frischen Windows oder ähnliches vorfinden. Anders ist das doch gar nicht vergleichbar. Und was in diversen internen Foren-Tests, Geek-Seiten usw. gemacht wird ist alles rein Spekulativ + persönliche Abneigung/Zuneigung + persönliche individuelle Empfindung usw. ...

Nicht das mich hier wer falsch versteht, ich bin weiß Gott weder Fan von CB oder sehe die Tests von AV-C/AV-Test und Co. als heiligen Gral an. Auswerten muss es jeder für sich selbst, da jeder seine vorlieben hat und noch viel wichtiger seine eigene Hardware-Kombi, Programminstallationen und Nutzerverhalten hat. Daher finde ich solche einfachen Auswertungen wie teilweise von chip/pcwelt/pcgh und Co mit der o.g. Formel "Sicherheit (max 5 Punkte) + Performance (max 5 Punkte) + Bedienbarkeit (max 5 Punkte) = Gesamtpunktzahl = Ergebnis" einfach irreführend/schlecht. Und interessanterweise hat nun gerade die vielgescholtene CB hier doch tatsächlich mal einen sehr ausführlichen Test gemacht, den ich eigentlich eher von chip/pcwelt/pcgh und Co oder anderen Experten-Seiten erwartet hätte.

ESET Internet Security | BitDefender Total Security
Browser: uBlock Origin + BitDefender TrafficLight | Avast Online Security | Windows Defender Browser Protection
Email: eM Client + Phalanx AntiSpam | Backups: Macrium Reflect | Passwort-Manager: Sticky Password
Gast
Hat sich bedankt: 0
Danksagung erhalten: 0

Re: Die besten Antivirus-Programme 2015 im Vergleichs-Test

#42

Beitrag von Gast »

Diese ganzen Tests von solchen Fachzeitschriften haben für mich null Aussagekraft. Bei AV-C/AV-Test kann man sich schon eher eine Meinung bilden.
Es ist nur immer merkwürdig das solche Themen nur von Usern kommen die nicht im internen Bereich aktiv sind. Achso das sind ja nur Hobby-Tests... :wink:
Benutzeravatar
Rytoss
Foren Experte
Foren Experte
Beiträge: 1765
Registriert: Di 18. Jun 2013, 11:15
Betriebssystem: Win 10 Pro x64
Browser: Chrome +uBlock +BDTL
Firewall: FB7590|ESET IS
Virenscanner: ESET IS / BD TS 2019
Hat sich bedankt: 357 Mal
Danksagung erhalten: 422 Mal

Re: Die besten Antivirus-Programme 2015 im Vergleichs-Test

#43

Beitrag von Rytoss »

silversurfer hat geschrieben:Es ist nur immer merkwürdig das solche Themen nur von Usern kommen die nicht im internen Bereich aktiv sind. Achso das sind ja nur Hobby-Tests... :wink:
Ach, darf ich meine persönliche Meinung nur sagen, wenn ich mich vorher darüber qualifiziere an internen Tests mitzumachen? Habe ich dadurch mehr/weniger Erfahrung, Kompetenz oder Meinungsrechte? Ich glaube nicht ...

Hobby-Tests hast du gesagt. Oder machst du das beruflich? Abgesehen davon wenn du es schon selbst anbietest. Was ist an Hobby-Tests denn falsch oder negativ?

Ich sagte lediglich, dass die internen privaten Tests in der Regel nur dazu dienen können die jetzige aktuelle Erkennung bekannter Schädlinge und ggf. Reaktionszeiten bis zur Erkennung anzuzeigen und damit nur einen kleinen Bruchteil eines kompletten Tests wiederspiegeln können.

Das "Thema" Momentaufnahme kam auch nicht von mir, ist aber im Prinzip das was in internen Foren mit Malwarepacks getestet wird.
Zuletzt geändert von Rytoss am Mi 4. Feb 2015, 14:28, insgesamt 1-mal geändert.

ESET Internet Security | BitDefender Total Security
Browser: uBlock Origin + BitDefender TrafficLight | Avast Online Security | Windows Defender Browser Protection
Email: eM Client + Phalanx AntiSpam | Backups: Macrium Reflect | Passwort-Manager: Sticky Password
Gast
Hat sich bedankt: 0
Danksagung erhalten: 0

Re: Die besten Antivirus-Programme 2015 im Vergleichs-Test

#44

Beitrag von Gast »

@Rytoss

Du kannst natürlich deine persönliche Meinung sagen wo immer du es willst... Nur kann ich das dann ebenso oder !?
Benutzeravatar
Rytoss
Foren Experte
Foren Experte
Beiträge: 1765
Registriert: Di 18. Jun 2013, 11:15
Betriebssystem: Win 10 Pro x64
Browser: Chrome +uBlock +BDTL
Firewall: FB7590|ESET IS
Virenscanner: ESET IS / BD TS 2019
Hat sich bedankt: 357 Mal
Danksagung erhalten: 422 Mal

Re: Die besten Antivirus-Programme 2015 im Vergleichs-Test

#45

Beitrag von Rytoss »

Dann "greif'" mich nicht mit dem persönlichen Argument an, dass ich mich quasi nicht qualifiziert hätte ... So und nun PEACE und BTT

ESET Internet Security | BitDefender Total Security
Browser: uBlock Origin + BitDefender TrafficLight | Avast Online Security | Windows Defender Browser Protection
Email: eM Client + Phalanx AntiSpam | Backups: Macrium Reflect | Passwort-Manager: Sticky Password
noelis
Hat sich bedankt: 0
Danksagung erhalten: 0

Re: Die besten Antivirus-Programme 2015 im Vergleichs-Test

#46

Beitrag von noelis »

Es sind immer wieder die gleichen Themen worüber sich hier die Gemüter erhitzen.... :biggrinn:
1. genügt Windowsdefender
2. wie aussagekräftig sind AV-Test's

Jeder hat seine Meinung dazu.....ich möchte mich zum Punkt 2 nicht mehr äußern, sonst haben wir hier noch ein größeres Chaos. :weg:
Es soll aber bitte nicht so weit gehen, dass man den anderen mit seiner Meinung erschlägt, oder dass hier im gemütlichen Wirtshaus eine Rauferei entsteht... :wink:
Gast
Hat sich bedankt: 0
Danksagung erhalten: 0

Re: Die besten Antivirus-Programme 2015 im Vergleichs-Test

#47

Beitrag von Gast »

OK dann Sorry! @Rytoss. Ich werde mich in Zukunft wieder zurückhalten weil es eben nix bringt...
Benutzeravatar
darktwillight
Foren Gott
Foren Gott
Beiträge: 13420
Registriert: Mo 5. Aug 2013, 00:51
Betriebssystem: Win11.Pro/Zorin17+
Browser: Firefox
Firewall: Windows +
Virenscanner: eset
Hat sich bedankt: 13592 Mal
Danksagung erhalten: 4804 Mal

Re: Die besten Antivirus-Programme 2015 im Vergleichs-Test

#48

Beitrag von darktwillight »

Meine Antworten sind im Allgemein zu verstehen, und nicht auf Dich Persönlich bezogen (Rytoss) :wink:
Rytoss hat geschrieben: Zuerst sollte man ggf. Menschen, Instituten und Laboren die so etwas beruflich machen unterstellen, dass sie auch Ahnung von der Materie haben. Höchstwahrscheinlich weitaus mehr wie 98% hier oder in anderen Foren aktive "Auskenner" (ausgenommen SLE *g*, der ist halt eine Leuchte auf dem Gebiet, da gibt es wohl keine 2 Meinungen zu *g*). Letztendlich hängen dort bei den professionellen Testern (Institute/Labore) ganze Existenzen/Arbeitsplätze nur an der Glaubwürdigkeit der Tests.
1)Davon ist auszugehen, das es so ist!
Rytoss hat geschrieben:Das meine ich ja mit der Gewichtung. Ich gehe davon aus, dass AV-Test/AV-C natürlich weitaus detailliertere Testergebnisse (mit erheblich tieferen Informationen) an die Zeitschriften, Online-Portale usw. gibt, (ist ja bei virusbtn.com auch nicht anders) die es dann nach ihrem ermessen auswerten. Im Falle von chip/pcwelt/pcgh und co. sieht dass dann in der Regel so aus, dass es nur 3 Faktoren gibt die auch gleich gewertet werden: Sicherheit (max 5 Punkte) + Performance (max 5 Punkte) + Bedienbarkeit (max 5 Punkte) = Gesamtpunktzahl = Ergebnis. So kann es nun passieren dass ein Produkt was in Performance 5 Punkte, in Bedienbarkeit 5 Punkte erreicht, aber beim Schutz ne Krücke ist (und ggf. 1-2 Punkte bekommt), dann trotzdem mit 11 bis 12 Punkten auf den oberen Plätzen rangiert und der Kunde dann denkt: Ah toll hab ich nun was tolles gekauft mit 12 Punkten und in Wahrheit wäre er wahrscheinlich mit dem Microsoft-Scanner fast schon besser gefahren (übertrieben gesagt). Oder richtig gute Programme die eine hervorragende Erkennung und Performance haben schlechter abschneiden, nur weil die persönliche Empfindung des Testers sagt dass er die Bedienung nicht gut findet.
2)So ist das! Genau deshalb ist es für einen Normalen User auch so schwer da durch zu blicken.
Und wenn ich schreibe"normaler User", dann meine ich den Computernutzer der in der Regel sich nicht nicht Sicherheitsforen bewegt. Jemand der sich in Sicherheitsforen bewegt, der stellt sich ja schon die Fragen:
"Warum - Wieso- Weshalb".
Rytoss hat geschrieben:Interessant wäre jetzt ggf. zB wenn als Beispiel die internen Tests hier ggf. mal monatlich/jährlich zusammengefasst würden (Einzig als Kriterium Erkennung bekannter Schädlinge und ggf. Reaktionszeit bis zur Erkennung). Dann könnte man als Gegenargument vl. mal sagen, also laut internen Tests hat Produkt X oder Y aber eine gute Erkennung in o.g. Bereich und die Jungs reagieren ziemlich schnell auf Schädlinge. Oder was halt AV-Test/AV-C und Co schlecht testen können, Erfahrungen mit Support X oder Y, das wäre teils echt Gold wert (gibt viel zu viele Hersteller die einen grottenschlechten Support haben)!
Das hatte ich ja im Internen versucht, ich musste aber feststellen das die Ursprungstabellen die ich dafür
erstellt hatte, sich bei dem enormen Zuwachs an Usern und den permanent wechselnden Produkten der User,
sich dafür nicht geeignet hatte! Dazu im Internen, demnächst mehr!
Rytoss hat geschrieben:Die Ergebnisse zB von CB basieren doch auf der Auswertung von AV-Test, AV-C und deren eigener "Tests", dann die höhere Gewichtung von CB dazu (70% Schutz) = logischerweise anderes Ergebnis.
Auch das ist vollkommen Klar! Hier gilt auch meine Aussage (2)
Rytoss hat geschrieben:Momentaufnahmen sind eher manche Argumente die aus diversen internen Foren-Tests, Geek-Seiten (Malwaretipps usw.), usw. immer als Gegenargument genommen werden. Oder basieren die internen Foren-Tests auch allesamt auf feste und gleiche Zeiträume, jeweils frisch aufgesetzten gleichen PCs alle "Tester" und haben einen gemeinsamen Standard (natürlich nicht, ist auch faktisch unmöglich). Hat jeder AV/Suite in internen Foren dadurch die gleichen Chancen? Nein ...
Abgesehen davon das in internen Foren-Tests, Geek-Seiten fast ausschließlich nur zu 100% die jetzige Erkennungsrate (Momentaufnahmen) als Kriterium herangezogen wird, dann aber als Gegenargument eines zeitlich und leistungsmäßig umfangreicheren Tests von AV-Test, AV-C und Co. herangenommen werden soll?
Die Momentaufnahme, ist für mich eine Bezeichnung beim Realtest! Das heißt welche Bedrohungen kommen
Real bei dem meisten Usern die sich im Internet bewegen vor. Wie gut erkennt das Produkt die Bedrohung -
wie gut schützt sie davor.
Von den genannten Gegenargumenten der genannten Beispiele, halte ich persönlich sehr wenig.
Warum, ganz einfach! Was nützt es wenn zwar aktuelle Bedrohungen zum Beispiel zu 100% erkannt werden,
und ältere Bedrohungen nur z.b zu 50%. Ich kann deine Argumentation gut folgen, und stimme ihr zu!
Rytoss hat geschrieben:Da sind wir uns einig, aber genau dafür wäre doch genau so ein Test-Labor/Institut wichtig, dass eben ALLE Hersteller die gleiche Hardware, ein frischen Windows oder ähnliches vorfinden. Anders ist das doch gar nicht vergleichbar. Und was in diversen internen Foren-Tests, Geek-Seiten usw. gemacht wird ist alles rein Spekulativ + persönliche Abneigung/Zuneigung + persönliche individuelle Empfindung usw. ...
Auch hier kann ich nur meine Persönliche Meinung äussern!
Das Test-Labor/Institut wichtig sind kann ich bestätigen, den so ein Test kann in dem Umfang kein Forum leisten.
Das alle Tests die in diversen internen Foren-Tests, Geek-Seiten usw. gemacht wurden,
rein Spekulativ sind und auf persönliche Abneigung/Zuneigung + persönliche individuelle Empfindung usw,
kann ich nicht beurteilen!
Es ist auch nicht mein bestreben, dort meine Persönliche Meinung in einem Test gelten zu machen.
Mir wäre es auch egal, wenn ein Testsieger in einem internen Foren-Test aus Neu Dehli oder sonst wo herkommt!
Worauf mir es ankommt ist, ein vernünftigen Schutz gegen die ganzen Brandbreite der
Gefahren - Datenschutz - Guter Support.
Das was man in internen Foren-Tests eher sehen kann, sind Entwicklungen bei der Erkennung
und für die wenigen die sich trauen unbekanntes Auszuführen, ob ein Schutz Reagiert und wie er reagiert.
Des weiteren Aufklärung durch PUP die mit Schutzprogrammen installiert werden,
wie es zum Beispiel dank durch SLE mit leicht verständlichen Worten gemacht wurde.
Und Aufklärung warum welches Schutz da anders Reagiert,wie ein anderes Schutzverfahren.
Das sind zum Beispiel Sachen die man nicht Tests von Test-Labor/Institut lesen kann.
Und da können internen Foren-Tests helfen ein besseres Verständnis,
zu der ganzen Materie zu bekommen!!!

Und das ist auch meine Hautanliegen in internen Foren-Tests, Sachen zu erfahren die ich noch nicht wusste:
Austausch von Informationen - Diskussion - Gegen Argumente - Informationen und Quellen suchen - Nachdenken -
Persönliche Erkenntnisse zu erweitern - selber zu lernen - anderen die Erkenntnisse zu vermitteln !


Wie andere darüber denken und handeln, darauf habe ich keinen Einfluss!

Im Übrigen Dank an alle User, die sich bemühen ihr Wissen im Internen mit andern zu teilen Claudia-Ernst-SLE....und so weiter
Die Leute sagen immer: Die Zeiten werden schlimmer.
Die Zeiten bleiben immer. Die Leute werden schlimmer.
Joachim Ringelnatz
Benutzeravatar
Rytoss
Foren Experte
Foren Experte
Beiträge: 1765
Registriert: Di 18. Jun 2013, 11:15
Betriebssystem: Win 10 Pro x64
Browser: Chrome +uBlock +BDTL
Firewall: FB7590|ESET IS
Virenscanner: ESET IS / BD TS 2019
Hat sich bedankt: 357 Mal
Danksagung erhalten: 422 Mal

Re: Die besten Antivirus-Programme 2015 im Vergleichs-Test

#49

Beitrag von Rytoss »

Danke, darktwillight :)

Da liegen wir dann doch im Prinzip sehr nahe beisammen (ehm, ... meinungstechnisch *g*). Und "haha" zum ersten Satz :good: :biggrinn:
Zuletzt geändert von Rytoss am Mi 4. Feb 2015, 16:38, insgesamt 2-mal geändert.

ESET Internet Security | BitDefender Total Security
Browser: uBlock Origin + BitDefender TrafficLight | Avast Online Security | Windows Defender Browser Protection
Email: eM Client + Phalanx AntiSpam | Backups: Macrium Reflect | Passwort-Manager: Sticky Password
Benutzeravatar
Claudia
Unverzichtbar
Unverzichtbar
Beiträge: 6782
Registriert: Do 9. Feb 2012, 17:33
Betriebssystem: openSuse-Win 10 Pro
Hat sich bedankt: 3924 Mal
Danksagung erhalten: 6647 Mal

Re: Die besten Antivirus-Programme 2015 im Vergleichs-Test

#50

Beitrag von Claudia »

die "Wahrheit" dürfte in der Mitte liegen.

Klar sind die meisten Testlabors uns Hobbytester überlegen, aber was nützt es einem, wenn kein Standard vereinbart ist, um vergleichen zu können und man persönlich vielleicht auf ganz andere Sachen Wert legt als die Tester?
1: openSuse + Win 22H2
Antworten

Zurück zu „Aktuelle Testergebnisse“