<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
<html>
<head>
  <meta http-equiv="Content-Type" content="text/html;charset=ISO-8859-1">
  <title></title>
</head>
<body text="#000000" bgcolor="#ffffff">
Hi <br>
<br>
What is the CLASS you are using ?<br>
<br>
One point is how the OpenMP version leads with memory, in relation to&nbsp;
MPI version <br>
<br>
I have two&nbsp; sugestions<br>
<br>
&nbsp;I will be a good ideia to try to use the Intel compiler and<br>
Why not download and run the multi-zone NAS benchmarks ? <br>
It can give a complete view of the "problem"<br>
<br>
They have :<br>
<blockquote type="cite">&nbsp;&nbsp; NPB3.2-MZ-SER:&nbsp; a serial version<br>
&nbsp;&nbsp; NPB3.2-MZ-MPI:&nbsp; a hybrid MPI + OpenMP version<br>
&nbsp;&nbsp; NPB3.2-MZ-SMP:&nbsp; a hybrid SMP + OpenMP version<br>
</blockquote>
I run in a very small clusters 4 core 2 duo,&nbsp; using Intel compilers and
it seens <br>
and for the CLASS=C&nbsp; I get this numbers for the MPI version and MPI+
OpenMP<br>
with one (Hibrid(1))and two (Hibrib(2)) threads<br>
<blockquote type="cite"><br>
N. Processors&nbsp; -&nbsp;&nbsp;&nbsp;&nbsp; MPI &nbsp; &nbsp; -&nbsp; Hibrid (1)&nbsp; -&nbsp; Hibrid (2)<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 1&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; -&nbsp; 2496.59 &nbsp; - &nbsp;&nbsp;&nbsp;&nbsp;&nbsp; *&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; - 1682.07 <br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 2&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; -&nbsp; 1085.58 &nbsp; - &nbsp;&nbsp;&nbsp;&nbsp;&nbsp; *&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; -&nbsp; 846.82&nbsp; <br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 4 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; -&nbsp;&nbsp;&nbsp; 624.69&nbsp;&nbsp; -&nbsp;&nbsp; 674.28&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; - &nbsp; 498.65 <br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 8 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; -&nbsp;&nbsp;&nbsp; 447.7&nbsp;&nbsp;&nbsp;&nbsp; - &nbsp; 467.79 &nbsp;&nbsp;&nbsp;&nbsp; - &nbsp; * &nbsp;&nbsp;&nbsp;&nbsp; <br>
  <br>
</blockquote>
Unfortunate they dont have a version with only OpenMP&nbsp; I and I dont
know if the results with one MPI process and several threads cam be
usefull.<br>
<br>
Notice that the benchmarks are different LU version from the NPB2.0 <br>
they change the "memory acess" .<br>
<br>
<br>
Renato<br>
<br>
<br>
Douglas Eadline wrote:<br>
<blockquote type="cite"
 cite="mid46345.192.168.1.1.1197224363.squirrel@mail.eadline.org">
  <pre wrap="">I like answering these types of questions with numbers,
so in my Sept 2007 Linux magazine column (which should
be showing up on the website soon) I did the following.

Downloaded the latest NAS benchmarks written in both
OpenMP and MPI. Ran them both on an 8 core Clovertown
(dual socket) system (multiple times) and reported
the following results:

Test      OpenMP              MPI
       gcc/gfortran 4.2    LAM 7.1.2
------------------------------------
CG         790.6             739.1
EP         166.5             162.8
FT        3535.9            2090.8
IS          51.1             122.5
LU        5620.5            5168.8
MG        1616.0            2046.2

My conclusion, it was a draw of sorts.
The article was basically looking at the
lazy assumption that threads (OpenMP) are
always better than MPI on a SMP  machine.

I'm going to re-run the tests using Harpertowns
real soon, maybe try other compilers and MPI
versions. It is easy to do. You can get the code here:

<a class="moz-txt-link-freetext" href="http://www.nas.nasa.gov/Resources/Software/npb.html">http://www.nas.nasa.gov/Resources/Software/npb.html</a>

--
Doug









  </pre>
  <blockquote type="cite">
    <pre wrap="">On this list there is almost unanimous agreement that MPI is the way to go
for parallelism and that combining multi-threading (MT) and
message-passing
(MP) is not even worth it, just sticking to MP is all that is necessary.

However, in real-life most are talking and investing in MT while very few
are interested in MP. I also just read on the blog of Arch Robison " TBB
perhaps gives up a little performance short of optimal so you don't have
to
write message-passing " (here:
<a class="moz-txt-link-freetext" href="http://softwareblogs.intel.com/2007/11/17/supercomputing-07-computer-environment-and-evolution/">http://softwareblogs.intel.com/2007/11/17/supercomputing-07-computer-environment-and-evolution/</a>
 )

How come there is almost unanimous agreement in the beowulf-community
while
the rest is almost unanimous convinced of the opposite ? Are we just
tapping
ourselves on the back or is MP not sufficiently dissiminated or ... ?

toon



_______________________________________________
Beowulf mailing list, <a class="moz-txt-link-abbreviated" href="mailto:Beowulf@beowulf.org">Beowulf@beowulf.org</a>
To change your subscription (digest mode or unsubscribe) visit
<a class="moz-txt-link-freetext" href="http://www.beowulf.org/mailman/listinfo/beowulf">http://www.beowulf.org/mailman/listinfo/beowulf</a>


!DSPAM:4759a800241507095717635!

    </pre>
  </blockquote>
  <pre wrap=""><!---->

--
Doug
_______________________________________________
Beowulf mailing list, <a class="moz-txt-link-abbreviated" href="mailto:Beowulf@beowulf.org">Beowulf@beowulf.org</a>
To change your subscription (digest mode or unsubscribe) visit <a class="moz-txt-link-freetext" href="http://www.beowulf.org/mailman/listinfo/beowulf">http://www.beowulf.org/mailman/listinfo/beowulf</a>

  </pre>
</blockquote>

!DSPAM:475dcecc58181465223968!

</body>
</html>