Im Grunde und das ganze rein technisch betrachtet bringt eine Erhöhung der Spannung sowohl bei einer CPU als auch einer GPU das gleiche.
Die Lebensdauer sinkt, die Leistungsaufnahme steigt und in der Regel kann mehr Takt (OC) stabil betrieben werden.
Bei letzterem entscheiden vor allem die Chipgüte und Kühlung über das mögliche Endresultat.
Früher war es so, dass die GPUs unter Last auf einem eingestellten Takt und der eingestellten Spannung betrieben wurden, solange die Temperatur passt.
Heute ist das ganze deutlich dynamischer. Dabei entscheiden verschiedene Parameter über den angelegten Takt und die angelegte Spannung.
Dazu zählen PowerTarget/Powerlimit, Temperatur, etc.
Bei AMD Karten (Vega 64/56) stellst du heute einen maximalen Boosttakt sowie eine maximale Spannung ein. Anhand Auslastung, Temperatur und Powerlimit entscheidet die Karte dann, wie viel Takt bei welcher Spannung laufen.
Bei passender Kühlung hohem Powerlimit ist hier bei den nicht LC Modellen viel Potential drin. Der Stromverbrauch steigt dann aber rasant an.
Ich konnte >450 W in Furmark beobachten, wenn das Powerlimit offen war.
Bei nVidia funktioniert das ähnlich. Du hast auch ein Powerlimit und kannst den maximalen Boost sowie die maximale Spannung erhöhen.
Dazu gibt es ein Tool, bei welcher du die einzelnen kleinen Powerstates anpassen kannst.
Die Erfahrung zeigt aber, dass hier sehr oft das Powerlimit schnell limitiert, selbst wenn dieses erhöht wurde.
Sofern das Powerlimit nicht angepasst wurde lohnt es sich meist, sowohl bei AMD und nVidia, die Spannung zu senken.
Dadurch kann die Karte mehr Takt anlegen ohne dieses Limit zu überschreiten und die Performance steigt.
Aber wenn uns deine Hardware nennst können wir dich gerne genauer beraten