<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
<html><head><title></title>
<META http-equiv=Content-Type content="text/html; charset=iso-8859-1">
<meta http-equiv="Content-Style-Type" content="text/css">
<style type="text/css"><!--
body {
  margin: 5px 5px 5px 5px;
  background-color: #ffffff;
}
/* ---------- Text Styles ---------- */
hr { color: #000000}
body, table /* Normal text */
{
 font-size: 9pt;
 font-family: 'Courier New';
 font-style: normal;
 font-weight: normal;
 color: #000000;
 text-decoration: none;
}
span.rvts1 /* Heading */
{
 font-size: 10pt;
 font-family: 'Arial';
 font-weight: bold;
 color: #0000ff;
}
span.rvts2 /* Subheading */
{
 font-size: 10pt;
 font-family: 'Arial';
 font-weight: bold;
 color: #000080;
}
span.rvts3 /* Keywords */
{
 font-size: 10pt;
 font-family: 'Arial';
 font-style: italic;
 color: #800000;
}
a.rvts4, span.rvts4 /* Jump 1 */
{
 font-size: 10pt;
 font-family: 'Arial';
 color: #008000;
 text-decoration: underline;
}
a.rvts5, span.rvts5 /* Jump 2 */
{
 font-size: 10pt;
 font-family: 'Arial';
 color: #008000;
 text-decoration: underline;
}
span.rvts6
{
 font-weight: bold;
 color: #800000;
}
a.rvts7, span.rvts7
{
 color: #0000ff;
 text-decoration: underline;
}
span.rvts8
{
 font-weight: bold;
 color: #800000;
}
span.rvts9
{
 font-weight: bold;
 color: #800080;
}
/* ---------- Para Styles ---------- */
p,ul,ol /* Paragraph Style */
{
 text-align: left;
 text-indent: 0px;
 padding: 0px 0px 0px 0px;
 margin: 0px 0px 0px 0px;
}
.rvps1 /* Centered */
{
 text-align: center;
}
--></style>
</head>
<body>

<p>Hallo Håkon,</p>
<p><br></p>
<p>Freitag, 25. April 2008, meintest Du:</p>
<p><br></p>
<p><span class=rvts6>HB&gt; Hi Jan,</span></p>
<p><br></p>
<p><span class=rvts6>HB&gt; At Wed, 23 Apr 2008 20:37:06 +0200, Jan Heichler &lt;</span><a class=rvts7 href="mailto:jan.heichler@gmx.net">jan.heichler@gmx.net</a><span class=rvts8>&gt; wrote:</span></p>
<p><span class=rvts9>&gt;&gt; &gt;From what i saw OpenMPI has several advantages:</span></p>
<p><br></p>
<p><span class=rvts9>&gt;&gt;- better performance on MultiCore Systems&nbsp;</span></p>
<p><span class=rvts9>&gt;&gt;because of good shared-memory-implementation</span></p>
<p><br></p>
<p><br></p>
<p><span class=rvts6>HB&gt; A couple of months ago, I conducted a thorough&nbsp;</span></p>
<p><span class=rvts6>HB&gt; study on intra-node performance of different MPIs&nbsp;</span></p>
<p><span class=rvts6>HB&gt; on Intel Woodcrest and Clovertown systems. I&nbsp;</span></p>
<p><span class=rvts6>HB&gt; systematically tested pnt-to-pnt performance&nbsp;</span></p>
<p><span class=rvts6>HB&gt; between processes on a) the same die on the same&nbsp;</span></p>
<p><span class=rvts6>HB&gt; socket (sdss), b) different dies on same socket&nbsp;</span></p>
<p><span class=rvts6>HB&gt; (ddss) (not on Woodcrest of course) and c)&nbsp;</span></p>
<p><span class=rvts6>HB&gt; different dies on different sockets (ddds). I&nbsp;</span></p>
<p><span class=rvts6>HB&gt; also measured the message rate using all 4 / 8&nbsp;</span></p>
<p><span class=rvts6>HB&gt; cores on the node. The pnt-to-pnt benchmarks used&nbsp;</span></p>
<p><span class=rvts6>HB&gt; was ping-ping, ping-pong (Scali&#8217;s `bandwidth´ and osu_latency+osu_bandwidth).</span></p>
<p><br></p>
<p><span class=rvts6>HB&gt; I evaluated Scali MPI Connect 5.5 (SMC), SMC 5.6,&nbsp;</span></p>
<p><span class=rvts6>HB&gt; HP MPI 2.0.2.2, MVAPICH 0.9.9, MVAPICH2 0.9.8, Open MPI 1.1.1.</span></p>
<p><br></p>
<p><span class=rvts6>HB&gt; Of these, Open MPI was the slowest for all&nbsp;</span></p>
<p><span class=rvts6>HB&gt; benchmarks and all machines, upto 10 times slower than SMC 5.6.</span></p>
<p><br></p>
<p><br></p>
<p>You are not gonna share these benchmark results with us, right? Would be very interesting to see that!</p>
<p><br></p>
<p><span class=rvts6>HB&gt; Now since Open MPI 1.1.1 is quite old, I just&nbsp;</span></p>
<p><span class=rvts6>HB&gt; redid the message rate measurement on an X5355&nbsp;</span></p>
<p><span class=rvts6>HB&gt; (Clovertown, 2.66GHz). On an 8-byte message size,&nbsp;</span></p>
<p><span class=rvts6>HB&gt; OpenMPI 1.2.2 achieves 5.5 million messages per&nbsp;</span></p>
<p><span class=rvts6>HB&gt; seconds, whereas SMC 5.6.2 reaches 16.9 million&nbsp;</span></p>
<p><span class=rvts6>HB&gt; messages per second (using all 8 cores on the node, i.e., 8 MPI processes).</span></p>
<p><br></p>
<p><span class=rvts6>HB&gt; Comparing OpenMPI 1.2.2 with SMC 5.6.1 on&nbsp;</span></p>
<p><span class=rvts6>HB&gt; ping-ping latency (usec) on an 8-byte payload yields:</span></p>
<p><br></p>
<p><span class=rvts6>HB&gt; mapping OpenMPI &nbsp; SMC</span></p>
<p><span class=rvts6>HB&gt; sdss &nbsp; &nbsp; &nbsp; 0.95 &nbsp;0.18</span></p>
<p><span class=rvts6>HB&gt; ddss &nbsp; &nbsp; &nbsp; 1.18 &nbsp;0.12</span></p>
<p><span class=rvts6>HB&gt; ddds &nbsp; &nbsp; &nbsp; 1.03 &nbsp;0.12</span></p>
<p><br></p>
<p>Impressive. But i never doubted that commercial MPIs are faster.&nbsp;</p>
<p><br></p>
<p><span class=rvts6>HB&gt; So, Jan, I would be very curios to see any documentation of your claim above!</span></p>
<p><br></p>
<p>I did a benchmark of a customer application on a 8 node DualSocket DualCore Opteron cluster - unfortunately i can't remember the name.&nbsp;</p>
<p><br></p>
<p>I used OpenMPI 1.2 , mpich 1.2.7p1, mvapich 0.97-something and Intel MPI 3.0 IIRC.</p>
<p><br></p>
<p>I don't have the detailed data available but from my memory:</p>
<p><br></p>
<p>Latency was worst for mpich (just TCP/IP ;-) ), then IntelMPI, then OpenMPI and mvapich the fastest.&nbsp;</p>
<p>On a single machine mpich was the worst, then mvapich and then OpenMPI - IntelMPI was the fastest.&nbsp;</p>
<p><br></p>
<p>Difference between mvapich and OpenMPI was quite big - Intel just had a small advantage over OpenMPI.&nbsp;</p>
<p><br></p>
<p><br></p>
<p>Since this was not low-level i don't know which communication pattern the Application used but it seemed to me that the shared memory configuration on OpenMPI and Intel MPI was far better than on the other two.&nbsp;</p>
<p><br></p>
<p>Cheers,</p>
<p>Jan</p>


!DSPAM:48147a8e257361691722815!

</body></html>