Hello yt users,<br><br>I'm trying to volume render an Orion simulation with about 6,000 grids and 100 million cells, and I think I'm running out of memory. I don't know if this is large compared to other simulations people have volume rendered before, but if I set the width of my field of view to be 0.02 pc (20 times smaller than the entire domain), the following code works fine. If I set it to 0.04 pc or anything larger, the code segfaults, which I assume means I'm running out of memory. This happens no matter how many cores I run on - running in parallel seems to be speed up the calculation, but not increase the size of the domain I can render. Am I doing something wrong? Or do I just need to find a machine with more memory to do this on? The one I'm using now has 3 gigs per core, which strikes me as pretty solid. I'm using the trunk version of yt-2.0. Here's the script for reference: <br>
<br><div style="margin-left: 40px;">from yt.mods import *<br><br>pf = load("plt01120")<br><br>dd = pf.h.all_data()<br>mi, ma = na.log10(dd.quantities["Extrema"]("Density")[0])<br>mi -= 0.1 ; ma += 0.1 # To allow a bit of room at the edges                                                                                                               <br>
<br>tf = ColorTransferFunction((mi, ma))<br>tf.add_layers(8, w=0.01)<br>c = na.array([0.0,0.0,0.0])<br>L = na.array([1.0, 1.0, 1.0])<br>W = 6.17e+16 # 0.02 pc                                                                                                                                                    <br>
<br>N = 512<br><br>cam = Camera(c, L, W, (N,N), tf, pf=pf)<br>fn = "%s_image.png" % pf<br><br>cam.snapshot(fn)<br><br></div>Thanks,<br>Andrew Myers<br><div style="margin-left: 40px;"><br></div><br>