<div dir="ltr">Thanks Nathan.  That helps!  I didn't realize, though in hindsight it seems obvious, that yt would still need to load all of the file to select out based on the field.  I'll play around with geometry cuts and if that doesn't work I'll send an example of the relevant sections of the script.</div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Nov 26, 2014 at 8:33 PM, Nathan Goldbaum <span dir="ltr"><<a href="mailto:nathan12343@gmail.com" target="_blank">nathan12343@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi Adam,<div><br></div><div>I don't work with datasets that large, but I know others have in the past.</div><div><br></div><div>It's hard to say exactly what's going wrong here without seeing how you construct the cut_region.  Would you mind sharing your script?<br><div><br></div><div>One explanation for the behavior you're seeing comes from the fact that cut_regions are defined in terms of other fields, and those fields will need to be loaded off disk before the data you are interested in can be selected. If you're not already doing so, defining the cut_region in terms of a geometric object that covers a small fraction of the domain will probably be more memory efficient.</div><div><br></div><div>Failing that, if you have a cluster available, you should be able to split the memory load over multiple compute nodes by running yt in parallel.</div><div><br></div><div>Hope that helps, please let us know if you have further questions.</div><div><br></div><div>-Nathan</div></div><div class="gmail_extra"><br><div class="gmail_quote"><div><div class="h5">On Wed, Nov 26, 2014 at 4:49 PM, Adam Jacobs <span dir="ltr"><<a href="mailto:adam.jacobs@stonybrook.edu" target="_blank">adam.jacobs@stonybrook.edu</a>></span> wrote:<br></div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="h5"><div dir="ltr">Is it unreasonable for me to expect yt on a workstation with 4x3GHz cores and ~20 GB of RAM to be able to handle a ~100 GB dataset?  I'm trying to select out a subset of the dataset using cut_region(), but still seem to run into hanging or running out of RAM.  For example, when I try to do a write_out() on the cut region yt sucks up all 20 GB of RAM and I have to kill it.  Is there a preferred method for loading in a subset of data?  I don't need near the full 100 GB of data.<br><br>I'm using yt dev and looking at BoxLib/Maestro data.<span><font color="#888888"><br clear="all"><div><br></div>-- <br><div><div dir="ltr"><div>Adam Jacobs</div><div>Department of Physics and Astronomy, PhD Candidate</div><div>Stony Brook University<br><br><a href="http://astro.sunysb.edu/amjacobs/" target="_blank">http://astro.sunysb.edu/amjacobs/</a></div></div></div>
</font></span></div>
<br></div></div>_______________________________________________<br>
yt-users mailing list<br>
<a href="mailto:yt-users@lists.spacepope.org" target="_blank">yt-users@lists.spacepope.org</a><br>
<a href="http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org" target="_blank">http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org</a><br>
<br></blockquote></div><br></div></div>
<br>_______________________________________________<br>
yt-users mailing list<br>
<a href="mailto:yt-users@lists.spacepope.org">yt-users@lists.spacepope.org</a><br>
<a href="http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org" target="_blank">http://lists.spacepope.org/listinfo.cgi/yt-users-spacepope.org</a><br>
<br></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature"><div dir="ltr"><div>Adam Jacobs</div><div>Department of Physics and Astronomy, PhD Candidate</div><div>Stony Brook University<br><br><a href="http://astro.sunysb.edu/amjacobs/" target="_blank">http://astro.sunysb.edu/amjacobs/</a></div></div></div>
</div>