<br><font size=2><tt>beowulf-bounces@beowulf.org wrote on 12/13/2007 06:50:28
PM:<br>
<br>
&gt; This reminds me of a similar issue I had. &nbsp;What approaches do
you <br>
&gt; take for large dense matrix multiplication in MPI, when the matrices<br>
&gt; are too large to fit into cluster memory? &nbsp;If I hack up something
to<br>
&gt; cache intermediate results to disk, the IO seems to drag everything
<br>
&gt; to a halt and I'm looking for a better solution. &nbsp;I'd like to
use <br>
&gt; some libraries like PETSc, but how would you work around memory <br>
&gt; limitations like this (short of building a bigger cluster)? <br>
&gt; <br>
</tt></font>
<br><font size=2><tt>Dear Peter, </tt></font>
<br>
<br><font size=2><tt>There are many algorithms for Matrix operations that
depend on the properties of the matrix and the operation.</tt></font>
<br><font size=2><tt>You can easily add writing to a tmpfs RAM disk filesystem
to speed methods that involve reading and writing of temporary files. &nbsp;<br>
</tt></font>
<br><font size=2><tt>So what I do now is take those old Fortran codes that
read and write files and keep the intermediate result files in ramdisk.
</tt></font>
<br><font size=2><tt><br>
</tt></font><font size=2 face="sans-serif">------<br>
Sincerely,<br>
<br>
 &nbsp; Tom Pierce<br>
 &nbsp; </font>
<br>

!DSPAM:47662a923971246014193!