<div dir="ltr"><div>Dear yt users,</div><div><br></div><div>I am trying to read some AMR data and convert them into 3D array. The test code:</div><div>######################### BEGIN ######################### <br></div><div><div>import yt</div><div>from time import time</div><div>yt.enable_parallelism()</div><div><br></div><div>ds = yt.load("flash_hdf5_plt_cnt_0000")</div><div>tstart = time()</div><div>cg = ds.covering_grid(level=ds.max_level, left_edge=ds.domain_left_edge, dims=ds.domain_dimensions*2**ds.max_level)</div><div>cg['dens']</div><div><br></div><div>if yt_isroot(): print "It takes {0}s".format(time()-tstart)</div></div><div>######################### END ######################### </div><div><br></div><div>I tried to run to serial or parallel on an interactive session on stampede:</div><div> ######################### BEGIN ######################### </div><div>[yclu@ test]$ ls</div><div>flash_hdf5_plt_cnt_0000  test.py</div><div>[yclu@ test]$ python test.py</div><div>It takes 34.0571820736s</div><div>[yclu@ test]$ export OMP_NUM_THREADS=68</div><div>[yclu@ test]$ python test.py           </div><div>It takes 33.1969199181s</div><div>[yclu@ test]$ export OMP_NUM_THREADS=1 </div><div>[yclu@ test]$ mpirun -np 68 python test.py</div><div>It takes 58.0391800404s</div><div>######################### END ######################### <br></div><div><br></div><div>The time does not seem to be reduced by parallelism. And multi-process seem to have huge communication overhead. Is there a way to increase the speed by parallelism? </div><div><br></div><div>Thanks,</div><div>Yingchao</div><div><br></div></div>