<html><head></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><br><div><div>On Sep 17, 2010, at 9:11 AM, Bill Rankin wrote:</div><br class="Apple-interchange-newline"><blockquote type="cite"><div style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><br><div><div>On Sep 17, 2010, at 7:39 AM, Hearns, John wrote:</div><br class="Apple-interchange-newline"><blockquote type="cite"><div><a href="http://www.theregister.co.uk/2010/09/17/hotzle_on_brawny_and_wimpy_cores">http://www.theregister.co.uk/2010/09/17/hotzle_on_brawny_and_wimpy_cores</a><font class="Apple-style-span"><font class="Apple-style-span" color="#144FAE"><br></font></font></div></blockquote><div><br></div>Interesting article (more of a letter really) - to be honest when I first scanned it I was not sure of what Holzle's actual argument was. &nbsp;To me, he omitted a lot of the details that makes this discussion much less black-and-white (and much more interesting) than he would contend:</div><div><br></div><div>1) He cites Amdahls' law, but leaves out Gustafson's.</div><div><br></div><div>2) Yeah, parallel programming is hard. &nbsp;Deal with it. &nbsp;It's helps me pay my bills.</div><div><br></div><div>3) While I am not a die hard FLOPS/Watt evangelist, he seems to completely ignore the power and cooling cost when discussing infrastructure costs.</div><div><br></div><div>The whole letter just seems like it's full of non-sequiturs and just a general gripe about processor architectures.</div></div></blockquote><br></div><div><br></div><div>This letter of Holzle's is consistent with our experience at SiCortex. &nbsp;The cores we had were far more power efficient than the x86's, but they were slower. &nbsp;Because the interconnect was so fast, generally you could scale up farther than with commodity clusters so that you got better absolute performance and better price-performance, but it was tiring to argue these points over and over again. &nbsp;Especially to customers who weren't paying for their power or infrastructure and didn't really value the low power aspect.</div><div><br></div><div>Holzle's letter doesn't go into enough detail however. &nbsp;One of the other ideas at SiCortex was that a slow core wouldn't affect application performance of codes that were actually limited by the memory system. &nbsp;We noticed many codes running at 1 - 5% of peak performance, spending the rest of their time burning a lot of power waiting for the memory. &nbsp;I think this argument has yet to be tested, because the first generation SC machines didn't actually have a very good memory system. &nbsp;The cores were limited to a single outstanding miss. &nbsp;I think there is a fairly good case to be made that systems with slower, low power cores can get higher average efficiencies (% of peak) than fast cores -- provided that the memory systems are close to equivalent. &nbsp;Everyone is using the same DRAMs.</div><div><br></div><div>Of course this argument doesn't work well if the application is compute bound, or fits in the cache.</div><div><br></div><div>There are lots of alternative ideas in this space. &nbsp;Hyperthreading switches to a different thread when one blocks on the memory, turboboost runs &lt;faster&gt; when the power envelope permits. &nbsp;I recall a paper or two about slowing down cores in a parallel application until the app itself started to run more slowly, etc.</div><div><br></div><div>-L</div><div><br></div><br />-- 
<br />This message has been scanned for viruses and
<br />dangerous content by
<a href="http://www.mailscanner.info/"><b>MailScanner</b></a>, and is
<br />believed to be clean.
</body></html>