<div dir="ltr">Maybe there's a loophole that I'm forgetting?</div><div class="gmail_extra"><br><br><div class="gmail_quote">On Mon, Mar 10, 2014 at 9:43 PM, Jeff Hammond <span dir="ltr"><<a href="mailto:jeff.science@gmail.com" target="_blank">jeff.science@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><div>How the hell can I do GA or SHMEM then? Roll my own mutexes and commit perf-suicide?</div><div><br>
</div><div>Jeff <br><br>Sent from my iPhone</div><div><div class="h5"><div><br>On Mar 10, 2014, at 8:32 PM, Jim Dinan <<a href="mailto:james.dinan@gmail.com" target="_blank">james.dinan@gmail.com</a>> wrote:<br><br>
</div><blockquote type="cite"><div><div dir="ltr">You can't use replace and sum concurrently at a given target address.<br><div class="gmail_extra"><br></div><div class="gmail_extra"> ~Jim.<br><br><div class="gmail_quote">
On Mon, Mar 10, 2014 at 4:30 PM, Jeff Hammond <span dir="ltr"><<a href="mailto:jeff.science@gmail.com" target="_blank">jeff.science@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Given the following, how do I use MPI_NO_OP, MPI_REPLACE and MPI_SUM<br>
in accumulate/atomic operations in a standard-compliant way?<br>
<br>
accumulate_ops — if set to same_op, the implementation will assume<br>
that all concurrent accumulate calls to the same target address will<br>
use the same operation. If set to same_op_no_op, then the<br>
implementation will assume that all concurrent accumulate calls to the<br>
same target address will use the same operation or MPI_NO_OP. This can<br>
eliminate the need to protect access for certain operation types where<br>
the hardware can guarantee atomicity. The default is same_op_no_op.<br>
<br>
We discuss this before and the resolution was not satisfying to me.<br>
<br>
Thanks,<br>
<br>
Jeff<br>
<span><font color="#888888"><br>
--<br>
Jeff Hammond<br>
<a href="mailto:jeff.science@gmail.com" target="_blank">jeff.science@gmail.com</a><br>
_______________________________________________<br>
mpiwg-rma mailing list<br>
<a href="mailto:mpiwg-rma@lists.mpi-forum.org" target="_blank">mpiwg-rma@lists.mpi-forum.org</a><br>
<a href="http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-rma" target="_blank">http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-rma</a></font></span></blockquote></div><br></div></div>
</div></blockquote><blockquote type="cite"><div><span>_______________________________________________</span><br><span>mpiwg-rma mailing list</span><br><span><a href="mailto:mpiwg-rma@lists.mpi-forum.org" target="_blank">mpiwg-rma@lists.mpi-forum.org</a></span><br>
<span><a href="http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-rma" target="_blank">http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-rma</a></span></div></blockquote></div></div></div><br>_______________________________________________<br>

mpiwg-rma mailing list<br>
<a href="mailto:mpiwg-rma@lists.mpi-forum.org">mpiwg-rma@lists.mpi-forum.org</a><br>
<a href="http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-rma" target="_blank">http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-rma</a><br></blockquote></div><br></div>