<FONT face="Default Sans Serif,Verdana,Arial,Helvetica,sans-serif" size=2><div>Has anyone tested scaling of NAMD/CUDA over QLogic or ConnectX QDR interconnects for a large number of IB cards and GPUs?&nbsp; I've listened to John Stone's presentation on VMD and NAMD CUDA acceleration.&nbsp; The consensus I brought away from the presentation was that one QDR per GPU would probably be necessary to scale efficiently.&nbsp; The 60 node, 60 GPU, DDR IB enabled cluster that was used for initial testing was saturating the interconnect.&nbsp; Later tests on the new GT200 based cards show even more performance gains for the GPUs.&nbsp; 1 GPU performing the work of 12 CPUs or 8 CPUs equaling 96 cores were the numbers I saw.&nbsp; So with a ratio of 1gpu/12cores, interconnect performance will be very important.<br>Thanks,<br>Dow<br><div>__________________________________<br>Dow P. Hurst, Research Scientist<br>Department of Chemistry and Biochemistry<br>University of North Carolina at Greensboro<br></div></div></FONT><br />-- 
<br />This message has been scanned for viruses and
<br />dangerous content by
<a href="http://www.mailscanner.info/"><b>MailScanner</b></a>, and is
<br />believed to be clean.