Hello All,<br><br>Thank you for your detailed responses. Following your line of thought, advice and web links, it seems that it is not difficult to build a small cluster to get started. I explored the photos of the various clusters that have been posted and it seems quite straightforward. <br>
<br>It seems I have been siezed by a mad inspiration to do this...The line of thought is t make a 19 inch rack with aluminum plates on which the mother boards are mounted. <br><br>The plan is first to simply create one using the old computers i have...This can be an experimental one to get going...Thereafter it would make sense to research the right mother boards, cooling and so on...<br>
<br>It seems that I am going to take the plunge next week and wire these three computers on a home grown rack...<br><br>A simple question though...Aluminum plates are used because aluminum is does not conduct electricity. Is this correct?<br>
<br>Also for future reference, I saw a reference to dc-dc converters for power supply. Is it possible to use motherboards that do not guzzle electricity and generate a lot of heat and are yet powerful. It seems that not much more is needed that motherboards, CPUs, memory, harddrives and an ethernet card. For a low energy system, has any one explored ultra low energy consuming and heat generating power solutions that maybe use low wattage DC?<br>
<br><div class="gmail_quote">On Sat, Dec 13, 2008 at 8:50 AM, Mark Hahn <span dir="ltr">&lt;<a href="mailto:hahn@mcmaster.ca">hahn@mcmaster.ca</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
What is 1u?<br>
</blockquote>
<br>
rack-mounted hardware is measured in units called &quot;units&quot; ;)<br>
1U means 1 rack unit: roughly 19&quot; wide and 1.75&quot; high. &nbsp;racks are all<br>
the same width, and rackmount unit consumes some number of units in height.<br>
(rack depth is moderately variable.) &nbsp;(a full rack is generally 42&quot;).<br>
<br>
a 1U server is a basic cluster building block - pretty well suited,<br>
since it&#39;s not much taller than a disk, and fits a motherboard pretty nicely (clearance for dimms if designed properly, a couple optional cards, passive CPU heatsinks.)<div class="Ih2E3d"><br>
<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
What is a blade system?<br>
</blockquote>
<br></div>
it is a computer design that emphasizes an enclosure and fastening mechanism<br>
that firmly locks buyers into a particular vendor&#39;s high-margin line ;)<br>
<br>
in theory, the idea is to factor a traditional server into separate<br>
components, such as shared power supply, unified management, and often<br>
some semi-integrated network/san infrastructure. &nbsp;one of the main original<br>
selling points was power management: that a blade enclosure would have<br>
fewer, more fully loaded, more efficnet PSUs. &nbsp;and/or more reliable. blades are often claimed to have superior managability. &nbsp;both of these factors are very, very arguable, since it&#39;s now routine for 1U servers to have nearly the same PSU efficiency, for instance. &nbsp;and in reality, simple managability interfaces like IPMI are far better (scalably scriptable)<br>

than a too-smart gui per enclosure, especially if you have 100 enclosures...<div class="Ih2E3d"><br>
<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
goes into a good rack in terms of size and matieral (assuming it has to be<br>
insulated)<br>
</blockquote>
<br></div>
ignoring proprietary crap, MB sizes are quite standardized. &nbsp;and since 10 million random computer shops put them together, they&#39;re incredibly<br>
forgiving when it comes to mounting, etc. &nbsp;I&#39;d recommend just glue-gunning<br>
stuff into place, and not worring too much.<div class="Ih2E3d"><br>
<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Anyone using clusters for animation on this list?<br>
</blockquote>
<br></div>
not much, I think. &nbsp;this list is mainly &quot;using commodity clusters to do stuff fairly reminiscent of traditional scientific supercomputing&quot;.<br>
<br>
animation is, in HPC terms, embarassingly parallel and often quite<br>
IO-intensive. &nbsp;both those are somewhat derogatory. &nbsp;all you need to do<br>
an animation farm is some storage, a network, nodes and probably a scheduler or at least task queue-er.<br>
</blockquote></div><br><br clear="all"><br>-- <br>Best regards,<br>arjuna<br><a href="http://www.brahmaforces.com">http://www.brahmaforces.com</a><br>
<br />-- 
<br />This message has been scanned for viruses and
<br />dangerous content by
<a href="http://www.mailscanner.info/"><b>MailScanner</b></a>, and is
<br />believed to be clean.