Shankar,<br><br>The HaloProfiler runs in parallel by splitting up the list of halos evenly among processors, so shared vs. distributed memory doesn't really matter here.  When in doubt, I recommend using as many cpus per node as you can.  This applies to any application, since you are usually being billed for the number of nodes you are using time the number of cpus, regardless of whether you are using the full number of cpus per node.  Of course, there is the possibility that you will run out of memory.  If that happens, reduce the number of cpus and try again and so on.  There's really no right answer here, since it depends on the size of the simulation and the amount of memory on the machine.<br>
<br>This is one of those cases where you just need to experiment.<br><br>Britton<br><br><div class="gmail_quote">On Mon, Dec 7, 2009 at 12:39 PM, Agarwal, Shankar <span dir="ltr"><<a href="mailto:sagarwal@ku.edu">sagarwal@ku.edu</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Hi,<br>
<br>
I have about 40,000 halos (using Hop_Finder). And I want to run Halo_profiler on it. Since the number of halos is so large, I would like to use...<br>
<br>
mpirun -np <cpus> halo_profiler.py --parallel<br>
<br>
<br>
Steele-purdue has 8cpus per node. The 8 cpus have shared memory. But the nodes do not share memory. I want to know would I be better off using just 8 cpus (on 1 node) or should I use more nodes, considering I have 40,000 halos.<br>

<br>
regards<br>
shankar<br>
_______________________________________________<br>
yt-users mailing list<br>
<a href="mailto:yt-users@lists.spacepope.org">yt-users@lists.spacepope.org</a><br>
<a href="http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org" target="_blank">http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org</a><br>
</blockquote></div><br>