<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
<html>
<head>
  <meta content="text/html;charset=ISO-8859-1" http-equiv="Content-Type">
  <title></title>
</head>
<body bgcolor="#ffffff" text="#000000">
I have been overclocking my GeForce 8600 GTS and running the CUDA
client for a couple weeks now. The GPU clock is running at 735 MHz. Mem
clock is set to 2100 MHz. <br>
<br>
No smoke or flames. :-)<br>
<br>
I keep an eye on the GPU temperature and it floats around 57-60C,
depending on the ambient temperature.<br>
<br>
I have a water-cooled Intel Core-2 Quad, overclocked to 2781 MHz in the
<a href="http://idk.serveftp.net/photos/samovar/dsc_0276.jpg">same case</a>
(Gigabyte 3D Mercury) running dnet 24/7/365. CPU temp stays at about
38C with all 4 cores running dnet.<br>
<br>
The 8600 GTS is just factory stock air-cooled.<br>
<br>
The only problem with the CUDA client is that it makes the video
performance pretty miserable, even with normal applications. I have to
pause the client to get any work done. Maybe I need a faster video card
and then throttle back the CUDA client :-)<br>
<br>
SideWinder wrote:
<blockquote cite="mid:4999D173.6050200@kolumbus.fi" type="cite">On
16.2.2009 16:50, bert wrote:
  <br>
  <blockquote type="cite">I guess that means I'm going to overclock my
card then.....lol
    <br>
Impressive numbers SideWinder!
    <br>
  </blockquote>
  <br>
That's probably not advisable, at least unless you have improved
cooling. Dnetc will load the GPU much harder in terms of total
utilization over time periods measured in several minutes, than any
game or benchmark tool for example (excluding stress testers like
S&amp;M). So if you OC the card enough to cause any visible artifacts
in games, it will likely screw up the RC5 decryption calculation also
(at least run it with the "-test" mode command immediately after
running normally for a while).
  <br>
  <br>
Also, expect much reduced electrical life for the card for any serious
OC without improved cooling and running this application. Running CUDA
is very different than trying to barely get 3DMark to pass with a
higher clock and letting it cool between attempts. At least with my
current card, the equilibrium temps with Dnetc running are much higher
than the average temp during 3DMark Vantage (stock cooling, which is a
two slot copper heatpipe HSF). The card is "factory OC'd" by using
select silicon, faster spec memory and a custom HSF, it is guaranteed
(or more accurately, was guaranteed) to run anything at the factory
default clocks, which are higher than nVidia spec for the GPU.
  <br>
  <br>
I have ruined a few cards with too aggressive overclocking, even
without running anything 100% 24/7 over CUDA/Stream.
  <br>
</blockquote>
<br>
</body>
</html>