<div dir="ltr">Hi Catherine,<div><br></div><div>It sounds like this is an implementation issue.  This email list is for discussion of the MPI standard itself.  While many of us have a great deal of implementation expertise, you are likely to get the best response from the user list associated with the implementation you are using:</div><div><br></div><div>MPICH <<a href="mailto:discuss@mpich.org">discuss@mpich.org</a>><br></div><div>Open-MPI <<a href="mailto:users@lists.open-mpi.org">users@lists.open-mpi.org</a>><br></div><div>MVAPICH2 <<a href="mailto:mvapich-discuss@cse.ohio-state.edu">mvapich-discuss@cse.ohio-state.edu</a>></div><div><br></div><div>If you are using Cray MPI, you'll need to contact Cray support, perhaps via the staff that support your Cray machine locally.  For Intel MPI, start with <a href="https://software.intel.com/en-us/forums/intel-clusters-and-hpc-technology/">https://software.intel.com/en-us/forums/intel-clusters-and-hpc-technology/</a>.  I don't know about SGI or NEC support, unfortunately.  You may also have good luck with StackOverflow - there are quite a few MPI experts there.</div><div><br></div><div>I'll note that most of the implementations of MPI I/O are based on ROMIO, which is part of MPICH, so you might want to start with the MPICH user list.</div><div><br></div><div>Best,</div><div><br></div><div>Jeff</div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Jul 10, 2018 at 11:01 AM, Catherine Jenifer Rajam Rajendran <span dir="ltr"><<a href="mailto:catrajen@iu.edu" target="_blank">catrajen@iu.edu</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>Hi All,</div><div><br></div><div>I am trying to write in the same binary file using MPI. I set the offset for each process in the beginning as per the rank. Then the following code snippet in C runs. All MPI process executes and computes the value and it writes to the exact offset as set.</div><div><br></div><div>The problem I am facing is, say, out of 32 Process, one process is executed in 2 hours. Rest of the process keeps running for more than 24 hours, The thing is, it computes the values as expected but it takes so much time. It seems like a deadlock situation, each process waits for some resource. But, I am not sharing/communicating between the processes. I am just using MPI_File_write_at to write at a specific location in the binary file. </div><div><br></div><div>I need to mention that each process computes huge amount of data so storing it temporarily seemed inappropriate. I want to write the output in single file as number of processes is increased depending on input data. Number of computations are evenly distributed to all process. So, why does process takes different time interval to finish its job?!</div><div><br></div><div>for(i=1;i<=limit;i++)</div><div>{</div><div>    for(j=i+1;j<=limit;j++)</div><div>    {</div><div>        if(my_rank == step%num_cpus)</div><div>        {</div><div>            Calc = Calculation();</div><div>            buf[0] = (double)Calc;</div><div>            MPI_File_write_at(outFile, OUT_ofst, buf, 1, MPI_DOUBLE, &status);</div><div>            Calc = 0.0;</div><div>            OUT_ofst += num_cpus*MPI_File_write_at(<wbr>sizeof(double));</div><div>            count++;</div><div>        }</div><div>        step++;</div><div>    }</div><div>}</div><div><br></div><div>I am new to MPI and I guess people must have had similar issues while executing in MPI. Can anyone help me out please! I can provide more details if needed.</div><div><br></div><div>Thanks,</div><div>Catherine</div></div>
<br>______________________________<wbr>_________________<br>
mpi-forum mailing list<br>
<a href="mailto:mpi-forum@lists.mpi-forum.org">mpi-forum@lists.mpi-forum.org</a><br>
<a href="https://lists.mpi-forum.org/mailman/listinfo/mpi-forum" rel="noreferrer" target="_blank">https://lists.mpi-forum.org/<wbr>mailman/listinfo/mpi-forum</a><br>
<br></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature" data-smartmail="gmail_signature">Jeff Hammond<br><a href="mailto:jeff.science@gmail.com" target="_blank">jeff.science@gmail.com</a><br><a href="http://jeffhammond.github.io/" target="_blank">http://jeffhammond.github.io/</a></div>
</div>