<br>
<div>
<blockquote class="gmail_quote" style="PADDING-LEFT: 1ex; MARGIN: 0px 0px 0px 0.8ex; BORDER-LEFT: #ccc 1px solid"><br>&gt;&gt; also, I&#39;m sorta amazed people keep selling (and presumably buying)<br>&gt;&gt; dual-port IB cards.&nbsp;&nbsp;doesn&#39;t that get quite expensive, switch-wise?
<br>&gt;<br>&gt; Not defending them but, It could possibly maybe be useful if you have a<br>&gt; stand-alone IB net for, say, storage or something else not mpi. Also, it&#39;s<br>&gt; not like they&#39;re that much more expensive than single port ones...
<br><br>yeah, I can see PHB&#39;s buying redundant fabrics.&nbsp;&nbsp;I&#39;d be more interested in<br>using the higher port-count for FNN or related topologies (assuming switches<br>are cheap, at least at some size...)</blockquote>

<div>&nbsp;</div>
<div>I was wondering if Peter K&#39;s remark generalized: if there are multiple ports, the node has a choice, which may be application dependent. One port for MPI and the other to a disk farm seems clear, but it still isn&#39;t obvious to me that a star topology with few long cables to a huge switch is always better than many short cables with more ports per node but no switches. (I myself don&#39;t have any feel for how much bottleneck a switch is, just topologically it seems scary). 
</div>
<div>&nbsp;</div>
<div>I&#39;d been thinking about overlaying a Flat Neighborhood Network with a Hypercube, so that various sized subclusters could compete to optimize their topology for an application. But what I imagine building for myself this summer is too few nodes and would need too many ports/node for me to try myself anytime soon.
</div>
<div>&nbsp;</div>
<div>Peter</div><br>&nbsp;</div>


!DSPAM:460a8839294931409419350!