are the slides of this presentation available?<br><br><div class="gmail_quote">2009/2/9 Dow Hurst DPHURST <span dir="ltr">&lt;<a href="mailto:DPHURST@uncg.edu">DPHURST@uncg.edu</a>&gt;</span><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<font face="Default Sans Serif,Verdana,Arial,Helvetica,sans-serif" size="2"><div>Has anyone tested scaling of NAMD/CUDA over QLogic or ConnectX QDR interconnects for a large number of IB cards and GPUs?&nbsp; I&#39;ve listened to John Stone&#39;s presentation on VMD and NAMD CUDA acceleration.&nbsp; The consensus I brought away from the presentation was that one QDR per GPU would probably be necessary to scale efficiently.&nbsp; The 60 node, 60 GPU, DDR IB enabled cluster that was used for initial testing was saturating the interconnect.&nbsp; Later tests on the new GT200 based cards show even more performance gains for the GPUs.&nbsp; 1 GPU performing the work of 12 CPUs or 8 CPUs equaling 96 cores were the numbers I saw.&nbsp; So with a ratio of 1gpu/12cores, interconnect performance will be very important.<br>
Thanks,<br>Dow<br><div>__________________________________<br>Dow P. Hurst, Research Scientist<br>Department of Chemistry and Biochemistry<br>University of North Carolina at Greensboro<br></div></div></font><br>_______________________________________________<br>

Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org">Beowulf@beowulf.org</a><br>
To change your subscription (digest mode or unsubscribe) visit <a href="http://www.beowulf.org/mailman/listinfo/beowulf" target="_blank">http://www.beowulf.org/mailman/listinfo/beowulf</a><br>
<br></blockquote></div><br>
<br />-- 
<br />This message has been scanned for viruses and
<br />dangerous content by
<a href="http://www.mailscanner.info/"><b>MailScanner</b></a>, and is
<br />believed to be clean.