GPU vs. CPU

Re: GPU vs. CPU

ich glaube nicht.
der artikel erwähnt "rudimäntere" sachen nicht und macht mehr panik als sinn ;P.

btw: warum ein "kryptisches" passwort? anstatt 10 komische kryptische zeichen, einen kleinen satz wie zb.: "r0m4n_!$t_d3r_g3!l$t3". kann beliebig mit mehr oder weniger "l33t" zeichen ergänzt werden und ist viel einfacher und viel sicherer als ein sonstiges passwort? (oder überseh ich da was?).

was auch nicht erwähnt wird: bei den allermeisten sachen kann man das passwort nicht beliebig oft eingeben! meistens ist nach 3-5 versuchen erst mal schluss. mindestens eine pause.

bezieht sich wohl hauptsächlich auf's archive knacken, aber ich denke, wie oben erwähnt, mit so einem "satz" als passwort, fährt man sicher ned schlecht. und wenn dann noch ned mal wer weiss, dass da überhaupt was versteckt ist/sein könnte (stegonographie oder wie man's schreibt), gg

das die gpu xtreme rechenleistung hat, und immernoch nicht für viel genutz wird, ist so.
 
Re: GPU vs. CPU

genau! und aus dieser l33t-palette soll man sich ja die passwörter zusammenbasteln! nur schon ein leerzeichen macht sehr viel aus! ich mach jetzt nicht grad nen satz ;)..... wollte nur den vergleich bringen vom pw das in 40 jahren geknackt wird gegen 20 minuten oder so.....;) klar obwohl oft aus technischen gründen brute f0rce gar nicht möglich ist finde ich das ein recht brisantes thema..... und sicher nicht unnötige panikmache. kaum jemand hat genügend sichere pw.....egal für was....


/edit: btw hats mich fast die nerven gekostet bis ich gerafft habe, dass ich hier brute f0rce nicht schreiben kann.... also wenn man plötzlich ein "acces forbidden" kriegt hat man wohl ein wort geschrieben worüber wsich das forum nicht so freut.....
ist das so gaz? haben wir da ne wörtli-blacklist?
 
Re: GPU vs. CPU

Schon sehr krass, wie schnell so ein Passwort geknackt werden kann. Allerdings muss man jetzt nicht gleich Angst haben man werde gehackt. Wenn einer(und damit meine ich ein skillden Hacker) das Ziel hat irgendwo reinzukommen, kommt er auch rein! Nicht mal Regierungscomputer sind sicher und die sind doppelt und xfach geschützt. Das mit dem "Satz" finde ich eine ziemlich gute Idee. Nur muss man sich dann ein System zulegen um nicht zu vergessen, welche Sonderzeichen man benutzt ;).
 
Re: GPU vs. CPU

Zitat von Yodenko;25374:
Wenn einer(und damit meine ich ein skillden Hacker) das Ziel hat irgendwo reinzukommen, kommt er auch rein! Nicht mal Regierungscomputer sind sicher und die sind doppelt und xfach geschützt.

nö. eben nicht. die letzten wochen (lulzsec/anonymous) habens ja eben grad gezeigt, wie scheisse die daten z.T. geschützt waren/sind.
 
Zuletzt von einem Moderator bearbeitet:
Re: GPU vs. CPU

das mit brute f0rce ist ja geil! ?

also ich hab schon lange ein system mit zeichen, die buchstaben ersetzen. das ziehe ich dann überall so durch. funktioniert prima und ich hab überall ein anderes passwort. allerdings hat aber auch wohl niemand wirklich interesse zb meinen gmx-account zu hacken.

edit: verdammt brute f orce geht echt nicht...
 
Re: GPU vs. CPU

Ich dachte mir das passt hier ziemlich gut rein. Auf Computerbase hat einer einen sehr interessanten Artikel verfasst, ob heutzutage die Grafikkarte von der CPU ausgebremst wird.

Limitiert CPU XYZ die Grafikkarte ABC?

Lösungsansatz:
Nehmen wir einmal an CPU XYZ kann in einem Spiel ABC bei maximalen Detail-Settings 300 FPS rechnen.
Dann kann der User ein CPU-Limit forcieren indem er in 640x480 zockt und 1xAA und 1xAF (Abgeschaltetes Anti-Aliasing), also keine Bildqualitäts-Features (die übrigens reine Graka-Features sind, und NULL Prozessorlast verursachen) aktiviert und somit die Graka völlig unterfordert die in diesem Beispiel vielleicht 1000 FPS rendern könnte.
Er kann aber auch die Graka zusammenbrechen lassen indem er in 1920x1080 zockt (oder mit größerem Monitor oder Downsampling) und so viel AA (event. Supersampling) und AF (kostet kaum Leistung) benutzt. Da kann die Graka nur noch 60 FPS rendern.

Und jetzt?
Du siehst jetzt vielleicht wie unmöglich Deine Frage durch das Forum zu beantworten ist?

Die einzige Antwort die es darauf geben kann ist: In der Regel betreibst Du Dein Game (vielleicht auch unbewusst) Graka-Limitiert. Es ist an sich egal wie schnell Deine CPU ist. Es würde sich allerdings anbieten kurz zu testen ob Du schon im CPU-Limit hängst.
 
Zuletzt von einem Moderator bearbeitet:
Re: GPU vs. CPU

Wiedermal was gefunden, was hier reinpasst. Sicherlich gibt es einige von euch die sich schon gefragt haben, was genau die Einstellung "Vsync" bewirkt bei einem Spiel. Ich persönlich habe einfach mal gehört, dass es eigentlich nur bei Benutzung 2er Grafikkarten sinnvoll ist. Nun bin ich wieder mal in einem Youtube Comment darüber gestolpert und hab das Ganze mal gegoogelt. VSync dient dazu, die Bildwiederholfrequenz des Bildschirms (Herz) mit der Bildwiederholrate (fps) des Spiels zu synchronisieren. Allerdings kann dies sehr schnell zu erheblichem Performanceverlust führen... warum ist in diesem Artikel über VSync zu finden.

P.S. Nein es ist nicht tl/tr! Wenn einem das Ganze interessiert, nimmt man sich auch die Zeit diesen Artikel zu lesen! Ansonsten befolgt man einfach meinen Rat und stellt Vsync ab!
 
Re: GPU vs. CPU

Zitat von Yodenko;26654:
Wiedermal was gefunden, was hier reinpasst. Sicherlich gibt es einige von euch die sich schon gefragt haben, was genau die Einstellung "Vsync" bewirkt bei einem Spiel. Ich persönlich habe einfach mal gehört, dass es eigentlich nur bei Benutzung 2er Grafikkarten sinnvoll ist. Nun bin ich wieder mal in einem Youtube Comment darüber gestolpert und hab das Ganze mal gegoogelt. VSync dient dazu, die Bildwiederholfrequenz des Bildschirms (Herz) mit der Bildwiederholrate (fps) des Spiels zu synchronisieren. Allerdings kann dies sehr schnell zu erheblichem Performanceverlust führen... warum ist in diesem Artikel über VSync zu finden.

P.S. Nein es ist nicht tl/tr! Wenn einem das Ganze interessiert, nimmt man sich auch die Zeit diesen Artikel zu lesen! Ansonsten befolgt man einfach meinen Rat und stellt Vsync ab!

TL;DR
 
Zuletzt von einem Moderator bearbeitet:
Re: GPU vs. CPU

PS: @Jo_Da Beziest du dich immer auf 7 Jahre alte berichte, die du irgend wo findest?
Der bericht ist im 2004 veröfentlicht worden.
seid dem sind die Grafikarten ein wenig anderst augebaut.
aber klar das grund prinzib ist noch das selbe.

aber alles ist relatif Bei 2500X1600 Pikel kanst du nicht einfach "vrisch frölich" von 29-132.. FPS rum jogeln und erwarten dass der bildschirm das sauber darstelt.
da können dan vertikale versatz linien entstehen, die man kurz als vlimernde karn kantten erkent.
Darum hab ich es On. denn wenn ich e mer als 30 FPS rechnen kan rechnts mir das, wen diese Stabil sind ist das auch Besser so.
Wen die leistung vür 60FPS reichen dan limitiert es ja auch auf 60, oder auch 120FPS.
somit habe ich weniger Bild feler.
aber klar Benchmark mit aktivem VSync were ein Blödsinn.

Aber er sit auch so wenn ich im immer wider die 30 FPS nicht halten kan es ab und zu nur vür 25 reicht.
dann ist es wieder besser es aus zu schallten.
 
Re: GPU vs. CPU

Ich beziehe mich bei meinem Rat hauptsächlich auf eigene Erfahrung! Diesen Bericht hab ich nur gesucht um das ganze noch zu untermauern. Ich hatte noch nie Probleme mit Bildverschiebung und habe deshalb auch diesen Tipp gegeben. Mag sein, dass sich die Technik weiterentwickelt hat und die Grafikkarten anders aufgebaut sind. Allerdings funktioniert auch ein heutiger Computer im inneren noch genau gleich wie am Anfang. Nämlich mit 0 und 1. Also ist es sicher nicht verkehrt, auch ältere Erklärungen durchzulesen.
 
Re: GPU vs. CPU

Zitat von Yodenko;26707:
Allerdings funktioniert auch ein heutiger Computer im inneren noch genau gleich wie am Anfang. Nämlich mit 0 und 1. Also ist es sicher nicht verkehrt, auch ältere Erklärungen durchzulesen.

Das Auto ist auch immer das gleiche gebliben es hat räder und die drähen nämlich.
1a830fce65714b19bc61efd27e01eefc_1.jpg

So viel, mal zu dem vergleich :sm-rtfm-b:
 
Zuletzt von einem Moderator bearbeitet:
Re: GPU vs. CPU

Zitat von xyroon;26709:
Zitat von Yodenko;26707:
Allerdings funktioniert auch ein heutiger Computer im inneren noch genau gleich wie am Anfang. Nämlich mit 0 und 1. Also ist es sicher nicht verkehrt, auch ältere Erklärungen durchzulesen.

Das Auto ist auch immer das gleiche gebliben es hat räder und die drähen nämlich.
1a830fce65714b19bc61efd27e01eefc_1.jpg

So viel, mal zu dem vergleich :sm-rtfm-b:

Aso ja äh... NE de gib ich dier jetzt no so recht... isch nöd immer dass gliche bliebe! xD
 
Zuletzt von einem Moderator bearbeitet:
Re: GPU vs. CPU

@corerulez: Zum zweiten Mal: Bitte Sprache des Thread-Erstellers übernehmen. In diesem Falle Schriftdeutsch.
 

Similar threads

Latest posts

Members online

No members online now.
Shoutbox
  1. Yodenko Yodenko:
    Egal wie dicht du bist, Göthe war Dichter!
  2. Yodenko Yodenko:
    besser und selber?
  3. oNdsen oNdsen:
    guet und dir?
  4. benserker benserker:
    :)
  5. oNdsen oNdsen:
    😅
  6. AemJaY AemJaY:
    badumtssss!
  7. Yodenko Yodenko:
    done
  8. corerulez corerulez:
    i mean Diablo 4 natürlich, Danke.
  9. corerulez corerulez:
    Grüezi mit de Hand, Kann öpper wo daminrecht het im TS en Diablo3 Channel mit 2-3 Teams erstelle? Wär mega nett, danke!

Discord