Ah yes, I think that answers our question.<div>We were worried that all the particles were read in by each processor (which I told him I don't think it did, or it would have crashed my smaller 800 cube long ago), but I wanted to get the answer from pros.</div>
<div><br></div><div>Thanks!</div><div><div><br></div><div>From</div><div>G.S.<br><br><div class="gmail_quote">On Tue, Oct 18, 2011 at 4:21 PM, Stephen Skory <span dir="ltr"><<a href="mailto:s@skory.us">s@skory.us</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">Geoffrey,<br>
<div class="im"><br>
> "Is the particle IO in YT that calls h5py spawned by multiple processors or is it doing it serially?"<br>
<br>
</div>For your purposes, h5py is only used to *write* particle data to disk<br>
after the halos have been found (if you are saving them to disk, which<br>
you must do explicitly, of course). And in this case, it will open up<br>
one file using h5py per MPI task.<br>
<br>
I'm guessing that they're actually concerned about reading particle<br>
data, because that is more disk intensive. This is done with functions<br>
written in C that read the data, not h5py. Here each MPI task does its<br>
own reading of data, and may open up multiple files to retrieve the<br>
particle data it needs depending on the layouts of grids in the<br>
.cpuNNNN files.<br>
<br>
Does that help?<br>
<font color="#888888"><br>
--<br>
Stephen Skory<br>
<a href="mailto:s@skory.us">s@skory.us</a><br>
<a href="http://stephenskory.com/" target="_blank">http://stephenskory.com/</a><br>
<a href="tel:510.621.3687" value="+15106213687">510.621.3687</a> (google voice)<br>
_______________________________________________<br>
Yt-dev mailing list<br>
<a href="mailto:Yt-dev@lists.spacepope.org">Yt-dev@lists.spacepope.org</a><br>
<a href="http://lists.spacepope.org/listinfo.cgi/yt-dev-spacepope.org" target="_blank">http://lists.spacepope.org/listinfo.cgi/yt-dev-spacepope.org</a><br>
</font></blockquote></div><br></div></div>