Mark,<br>
Would it be feasible to downclock your three nodes? All you physicists
know better than I, that the power draw and heat production are not
linear in GHz. A 1 GHz processor is less than half the cost per tick
than a 2GHz, so if power budget is more urgent for you than time to
completion then that might help; continue running all of your nodes,
but slower. But I&#39;ve never done this myself. OTOH as a mathematician I
don&#39;t have to :-) See <a href="http://xkcd.com/435/">http://xkcd.com/435/</a> (&quot;Purity&quot;)<br>
Peter<br><br><div><span class="gmail_quote">On 7/2/08, <b class="gmail_sendername">Mark Kosmowski</b> &lt;<a href="mailto:mark.kosmowski@gmail.com">mark.kosmowski@gmail.com</a>&gt; wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
I&#39;m in the US.&nbsp;&nbsp;I&#39;m almost, but not quite ready for production runs -<br> still learning the software / computational theory.&nbsp;&nbsp;I&#39;m the first<br> person in the research group (physical chemistry) to try to learn<br>
 plane wave methods of solid state calculation as opposed to isolated<br> atom-centered approximations and periodic atom centered calculations.<br> <br> It is turning out that the package I have spent the most time learning<br>
 is perhaps not the best one for what we are doing.&nbsp;&nbsp;For a variety of<br> reasons, many of which more off-topic than tac nukes and energy<br> efficient washing machines ;) , I&#39;m doing my studies part-time while<br> working full-time in industry.<br>
 <br> I think I have come to a compromise that can keep me in business.<br> Until I have a better understanding of the software and am ready for<br> production runs, I&#39;ll stick to a small system that can be run on one<br>
 node and leave the other two powered down.&nbsp;&nbsp;I&#39;ve also applied for an<br> adjunt instructor position at a local college for some extra cash and<br> good experience.&nbsp;&nbsp;When I&#39;m ready for production runs I can either just<br>
 bite the bullet and pay the electricity bill or seek computer time<br> elsewhere.<br> <br> Thanks for the encouragement,<br> <br> Mark E. Kosmowski<br> <br> On 7/1/08, ariel sabiguero yawelak &lt;<a href="mailto:asabigue@fing.edu.uy">asabigue@fing.edu.uy</a>&gt; wrote:<br>
 &gt; Well Mark, don&#39;t give up!<br> &gt; I am not sure which one is your application domain, but if you require 24x7<br> &gt; computation, then you should not be hosting that at home.<br> &gt; On the other hand, if you are not doing real computation and you just have a<br>
 &gt; testbed at home, maybe for debugging your parallel applications or something<br> &gt; similar, you might be interested in a virtualized solution. Several years<br> &gt; ago, I used to &quot;debug&quot; some neural networks at home, but training sessions<br>
 &gt; (up to two weeks of training) happened at the university.<br> &gt; I would suggest to do something like that.<br> &gt; You can always scale-down your problem in several phases and save the<br> &gt; complete data-set / problem for THE RUN.<br>
 &gt;<br> &gt; You are not being a heretic there, but suffering energy costs ;-)<br> &gt; In more places that you may believe, useful computing nodes are being<br> &gt; replaced just because of energy costs. Even in some application domains you<br>
 &gt; can even loose computational power if you move from 4 nodes into a single<br> &gt; quad-core (i.e. memory bandwidth problems). I know it is very nice to be<br> &gt; able to do everything at home.. but maybe before dropping your studies or<br>
 &gt; working overtime to pay the electricity bill, you might want to reconsider<br> &gt; the fact of collapsing your phisical deploy into a single virtualized<br> &gt; cluster. (or just dispatch several threads/processes in a single system).<br>
 &gt; If you collapse into a single system you have only 1 mainboard, one HDD, one<br> &gt; power source, one processor (physically speaking), .... and you can achieve<br> &gt; almost the performance of 4 systems in one, consuming the power of.... well<br>
 &gt; maybe even less than a single one. I don&#39;t want to go into discussions about<br> &gt; performance gain/loose due to the variation of the hardware architecture.<br> &gt; Invest some bucks (if you haven&#39;t done that yet) in a good power source.<br>
 &gt; Efficiency of OEM unbranded power sources is realy pathetic. may be 45-50%<br> &gt; efficiency, while a good power source might be 75-80% efficient. Use the<br> &gt; energy for computing, not for heating your house.<br>
 &gt; What I mean is that you could consider just collapsing a complete &quot;small&quot;<br> &gt; cluster into single system. If your application is CPU-bound and not I/O<br> &gt; bound, VMware Server could be an option, as it is free software<br>
 &gt; (unfortunately not open, even tough some patches can be done on the<br> &gt; drivers). I think it is not possible to publish benchmarking data about<br> &gt; VMware, but I can tell you that in long timescales, the performance you get<br>
 &gt; in the host OS is similar than the one of the guest OS. There are a lot of<br> &gt; problems related to jitter, from crazy clocks to delays, but if your<br> &gt; application is not sensitive to that, then you are Ok.<br>
 &gt; Maybe this is not a solution, but you can provide more information regarding<br> &gt; your problem before quitting...<br> &gt;<br> &gt; my 2 cents....<br> &gt;<br> &gt; ariel<br> &gt;<br> &gt; Mark Kosmowski escribió:<br>
 &gt;<br> &gt; &gt; At some point there a cost-benefit analysis needs to be performed.&nbsp;&nbsp;If<br> &gt; &gt; my cluster at peak usage only uses 4 Gb RAM per CPU (I live in<br> &gt; &gt; single-core land still and do not yet differentiate between CPU and<br>
 &gt; &gt; core) and my nodes all have 16 Gb per CPU then I am wasting RAM<br> &gt; &gt; resources and would be better off buying new machines and physically<br> &gt; &gt; transferring the RAM to and from them or running more jobs each<br>
 &gt; &gt; distributed across fewer CPUs.&nbsp;&nbsp;Or saving on my electricity bill and<br> &gt; &gt; powering down some nodes.<br> &gt; &gt;<br> &gt; &gt; As heretical as this last sounds, I&#39;m tempted to throw in the towel on<br>
 &gt; &gt; my PhD studies because I can no longer afford the power to run my<br> &gt; &gt; three node cluster at home.&nbsp;&nbsp;Energy costs may end up being the straw<br> &gt; &gt; that breaks this camel&#39;s back.<br> &gt; &gt;<br>
 &gt; &gt; Mark E. Kosmowski<br> &gt; &gt;<br> &gt; &gt;<br> &gt; &gt;<br> &gt; &gt; &gt; From: &quot;Jon Aquilina&quot; &lt;<a href="mailto:eagles051387@gmail.com">eagles051387@gmail.com</a>&gt;<br> &gt; &gt; &gt;<br> &gt; &gt; &gt;<br>
 &gt; &gt;<br> &gt; &gt;<br> &gt; &gt;<br> &gt; &gt; &gt; not sure if this applies to all kinds of senarios that clusters are used<br> &gt; in<br> &gt; &gt; &gt; but isnt the more ram you have the better?<br> &gt; &gt; &gt;<br>
 &gt; &gt; &gt; On 6/30/08, Vincent Diepeveen &lt;<a href="mailto:diep@xs4all.nl">diep@xs4all.nl</a>&gt; wrote:<br> &gt; &gt; &gt;<br> &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt; Toon,<br> &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt; Can you drop a line on how important RAM is for weather forecasting in<br>
 &gt; &gt; &gt; &gt; latest type of calculations you&#39;re performing?<br> &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt; Thanks,<br> &gt; &gt; &gt; &gt; Vincent<br> &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt; On Jun 30, 2008, at 8:20 PM, Toon Moene wrote:<br>
 &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt; Jim Lux wrote:<br> &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt; &gt; Yep.&nbsp;&nbsp;And for good reason.&nbsp;&nbsp;Even a big DoD job is still tiny in<br> &gt; Nvidia&#39;s<br>
 &gt; &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt; &gt; &gt; scale of operations. We face this all the time with NASA work.<br> &gt; &gt; &gt; &gt; &gt; &gt;&nbsp;&nbsp;Semiconductor manufacturers have no real reason to produce<br>
 &gt; special purpose<br> &gt; &gt; &gt; &gt; &gt; &gt; or customized versions of their products for space use, because<br> &gt; they can<br> &gt; &gt; &gt; &gt; &gt; &gt; sell all they can make to the consumer market. More than once,<br>
 &gt; I&#39;ve had a<br> &gt; &gt; &gt; &gt; &gt; &gt; phone call along the lines of this:<br> &gt; &gt; &gt; &gt; &gt; &gt; &quot;Jim: I&#39;m interested in your new ABC321 part.&quot;<br> &gt; &gt; &gt; &gt; &gt; &gt; &quot;Rep: Great. I&#39;ll just send the NDA over and we can talk about<br>
 &gt; it.&quot;<br> &gt; &gt; &gt; &gt; &gt; &gt; &quot;Jim: Great, you have my email and my fax # is...&quot;<br> &gt; &gt; &gt; &gt; &gt; &gt; &quot;Rep: By the way, what sort of volume are you going to be using?&quot;<br>
 &gt; &gt; &gt; &gt; &gt; &gt; &quot;Jim: Oh, 10-12..&quot;<br> &gt; &gt; &gt; &gt; &gt; &gt; &quot;Rep: thousand per week, excellent...&quot;<br> &gt; &gt; &gt; &gt; &gt; &gt; &quot;Jim: No, a dozen pieces, total, lifetime buy, or at best maybe<br>
 &gt; every<br> &gt; &gt; &gt; &gt; &gt; &gt; year.&quot;<br> &gt; &gt; &gt; &gt; &gt; &gt; &quot;Rep: Oh...&lt;dial tone&gt;&quot;<br> &gt; &gt; &gt; &gt; &gt; &gt; {Well, to be fair, it&#39;s not that bad, they don&#39;t hang up on you..<br>
 &gt; &gt; &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt; &gt; Since about a year, it&#39;s been clear to me that weather forecasting<br> &gt; (i.e.,<br> &gt; &gt; &gt; &gt; &gt; running a more or less sophisticated atmospheric model to provide<br>
 &gt; weather<br> &gt; &gt; &gt; &gt; &gt; predictions) is going to be &quot;mainstream&quot; in the sense that every<br> &gt; business<br> &gt; &gt; &gt; &gt; &gt; that needs such forecasts for its operations can simply run them<br>
 &gt; in-house.<br> &gt; &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt; &gt; Case in point:&nbsp;&nbsp;I bought a $1100 HP box (the obvious target group<br> &gt; being<br> &gt; &gt; &gt; &gt; &gt; teenage downloaders) which performs the HIRLAM limited area model<br>
 &gt; *on the<br> &gt; &gt; &gt; &gt; &gt; grid that we used until October 2006* in December last year.<br> &gt; &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt; &gt; It&#39;s about twice as slow as our then-operational 50-CPU Sun Fire<br>
 &gt; 15K.<br> &gt; &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt; &gt; I wonder what effect this will have on CPU developments ...<br> &gt; &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt; &gt; --<br> &gt; &gt; &gt; &gt; &gt; Toon Moene - e-mail: <a href="mailto:toon@moene.indiv.nluug.nl">toon@moene.indiv.nluug.nl</a> - phone: +31 346<br>
 &gt; 214290<br> &gt; &gt; &gt; &gt; &gt; Saturnushof 14, 3738 XG&nbsp;&nbsp;Maartensdijk, The Netherlands<br> &gt; &gt; &gt; &gt; &gt; At home: <a href="http://moene.indiv.nluug.nl/~toon/">http://moene.indiv.nluug.nl/~toon/</a><br>
 &gt; &gt; &gt; &gt; &gt; Progress of GNU Fortran:<br> &gt; <a href="http://gcc.gnu.org/ml/gcc/2008-01/msg00009.html">http://gcc.gnu.org/ml/gcc/2008-01/msg00009.html</a><br> &gt; &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt; &gt;<br>
 &gt; &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt; _______________________________________________<br> &gt; &gt; &gt; &gt; Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org">Beowulf@beowulf.org</a><br> &gt; &gt; &gt; &gt; To change your subscription (digest mode or unsubscribe) visit<br>
 &gt; &gt; &gt; &gt; <a href="http://www.beowulf.org/mailman/listinfo/beowulf">http://www.beowulf.org/mailman/listinfo/beowulf</a><br> &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt; &gt;<br> &gt; &gt; &gt;<br>
 &gt; &gt; &gt; --<br> &gt; &gt; &gt; Jonathan Aquilina<br> &gt; &gt; &gt;<br> &gt; &gt; &gt;<br> &gt; &gt; _______________________________________________<br> &gt; &gt; Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org">Beowulf@beowulf.org</a><br>
 &gt; &gt; To change your subscription (digest mode or unsubscribe) visit<br> &gt; <a href="http://www.beowulf.org/mailman/listinfo/beowulf">http://www.beowulf.org/mailman/listinfo/beowulf</a><br> &gt; &gt;<br> &gt; &gt;<br>
 &gt; &gt;<br> &gt;<br> <br> _______________________________________________<br> Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org">Beowulf@beowulf.org</a><br> To change your subscription (digest mode or unsubscribe) visit <a href="http://www.beowulf.org/mailman/listinfo/beowulf">http://www.beowulf.org/mailman/listinfo/beowulf</a><br>
 </blockquote></div><br>
<br />-- 
<br />This message has been scanned for viruses and
<br />dangerous content by
<a href="http://www.mailscanner.info/"><b>MailScanner</b></a>, and is
<br />believed to be clean.