<div dir="ltr">Thanks for your help!</div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Jul 13, 2015 at 3:01 PM, Matthew Turk <span dir="ltr"><<a href="mailto:matthewturk@gmail.com" target="_blank">matthewturk@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><p dir="ltr">Yup, it does. Nice detective work!</p><div class="HOEnZb"><div class="h5">
<br><div class="gmail_quote"><div dir="ltr">On Mon, Jul 13, 2015, 8:58 AM Britton Smith <<a href="mailto:brittonsmith@gmail.com" target="_blank">brittonsmith@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Your tip led me to the right answer.  The call to parallel_objects was happening in the derived quantity, where each processor is being made into its own comm where it is rank 0.  The issue is that they then try to identify fields and incorrectly think of themselves as rank 0 for choosing which grids to look at.  If I simply as ds.index right after creating the dataset, the problem goes away.  This should probably just be added to the bottom of the __init__ for EnzoDatasetInMemory.  Does that sound right?</div><div dir="ltr"><div><br></div><div>Britton</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Jul 13, 2015 at 2:38 PM, Matthew Turk <span dir="ltr"><<a href="mailto:matthewturk@gmail.com" target="_blank">matthewturk@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><p dir="ltr">That sounds like a new communicator got pushed to the top of the stack when it should not have been, perhaps in a rogue parallel_objects call.</p><div><div>
<br><div class="gmail_quote"><div dir="ltr">On Mon, Jul 13, 2015, 8:35 AM Britton Smith <<a href="mailto:brittonsmith@gmail.com" target="_blank">brittonsmith@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi again,<div><br></div><div>Maybe this is a clue.  In _generate_random_grids, self.comm.rank is 0 for all processors, which would explain why N-1 cores are trying to get grids that don't belong to them.  Interestingly, <a href="http://mylog.info" target="_blank">mylog.info</a> prints out the correct rank for each of them.</div></div><div dir="ltr"><div><br></div><div>Britton</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Jul 13, 2015 at 2:21 PM, Britton Smith <span dir="ltr"><<a href="mailto:brittonsmith@gmail.com" target="_blank">brittonsmith@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi Matt,<div><br></div><div>Thanks for your help.  Adjust by grid._id_offset did not work, but I can that what is happening is that all processors are trying to call _read_field_names using grid 1, when only processor 0 owns that grid.  I will look into why now, but if you have any intuition where to check next, that would be awesome.</div><div><br></div><div>Thanks,</div><div>Britton</div></div><div><div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Jul 13, 2015 at 1:51 PM, Matthew Turk <span dir="ltr"><<a href="mailto:matthewturk@gmail.com" target="_blank">matthewturk@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Britton,<br>
<br>
What looks suspicious to me is the way it's using <a href="http://grid.id" rel="noreferrer" target="_blank">grid.id</a>.  This might<br>
lead to an off-by-one error.  Can you try it with<br>
grid.id-grid._id_offset and see if that clears it up?<br>
<div><div><br>
On Mon, Jul 13, 2015 at 7:42 AM, Britton Smith <<a href="mailto:brittonsmith@gmail.com" target="_blank">brittonsmith@gmail.com</a>> wrote:<br>
> Hi all,<br>
><br>
> I've recently been trying to use yt's inline analysis functionality with<br>
> Enzo and am having some difficultly getting it to work in parallel.  I am<br>
> using the development tip of yt.  In serial, everything works fine, but in<br>
> parallel, I get the following error:<br>
> <a href="http://paste.yt-project.org/show/5694/" rel="noreferrer" target="_blank">http://paste.yt-project.org/show/5694/</a><br>
><br>
> It seems that the issue is that yt is not correctly identifying which grids<br>
> are available on a given processory for the EnzoDatasetInMemory object.<br>
> Does anyone have an idea of how to fix this?  Has anyone else seen this?<br>
><br>
> For reference, my user_script is just this:<br>
><br>
> import yt<br>
> from yt.frontends.enzo.api import EnzoDatasetInMemory<br>
><br>
> def main():<br>
>     ds = EnzoDatasetInMemory()<br>
>     ad = ds.all_data()<br>
>     print ad.quantities.total_quantity("cell_mass")<br>
><br>
> Thanks for any help,<br>
><br>
> Britton<br>
><br>
</div></div>> _______________________________________________<br>
> yt-users mailing list<br>
> <a href="mailto:yt-users@lists.spacepope.org" target="_blank">yt-users@lists.spacepope.org</a><br>
> <a href="http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org" rel="noreferrer" target="_blank">http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org</a><br>
><br>
_______________________________________________<br>
yt-users mailing list<br>
<a href="mailto:yt-users@lists.spacepope.org" target="_blank">yt-users@lists.spacepope.org</a><br>
<a href="http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org" rel="noreferrer" target="_blank">http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org</a><br>
</blockquote></div><br></div>
</div></div></blockquote></div><br></div>
_______________________________________________<br>
yt-users mailing list<br>
<a href="mailto:yt-users@lists.spacepope.org" target="_blank">yt-users@lists.spacepope.org</a><br>
<a href="http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org" rel="noreferrer" target="_blank">http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org</a><br>
</blockquote></div>
</div></div><br>_______________________________________________<br>
yt-users mailing list<br>
<a href="mailto:yt-users@lists.spacepope.org" target="_blank">yt-users@lists.spacepope.org</a><br>
<a href="http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org" rel="noreferrer" target="_blank">http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org</a><br>
<br></blockquote></div><br></div>
_______________________________________________<br>
yt-users mailing list<br>
<a href="mailto:yt-users@lists.spacepope.org" target="_blank">yt-users@lists.spacepope.org</a><br>
<a href="http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org" rel="noreferrer" target="_blank">http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org</a><br>
</blockquote></div>
</div></div><br>_______________________________________________<br>
yt-users mailing list<br>
<a href="mailto:yt-users@lists.spacepope.org">yt-users@lists.spacepope.org</a><br>
<a href="http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org" rel="noreferrer" target="_blank">http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org</a><br>
<br></blockquote></div><br></div>