<div dir="ltr">Hi Rajeev,<div><br></div><div>Re-pasting:</div><div><br></div><div>---8<---</div><div><span style="font-family:arial,sans-serif;font-size:13px">pg 437, ln 28: "Distinct access epochs for win at the same process must be disjoint."</span><br style="font-family:arial,sans-serif;font-size:13px">
</div><div><span style="font-family:arial,sans-serif;font-size:13px">---8<---</span></div><div><span style="font-family:arial,sans-serif;font-size:13px"><br></span></div><div>I think it's still ok (sorry Jeff, I think this is the same thing you were just saying).  That sentence states that one cannot have more than a single access epoch per target concurrently.  I don't think it means that one cannot have concurrent epochs.</div>
<div><br></div><div> ~Jim.</div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Mon, Aug 19, 2013 at 4:49 PM, Rajeev Thakur <span dir="ltr"><<a href="mailto:thakur@mcs.anl.gov" target="_blank">thakur@mcs.anl.gov</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Those are two access epochs on the same rank (say rank 0), as defined by the paragraph above that sentence (pg 437, ln 28).<br>

<div class="HOEnZb"><div class="h5"><br>
On Aug 19, 2013, at 2:52 PM, Jeff Hammond wrote:<br>
<br>
> you mean lock at those ranks, not by those ranks?  those aren't conflicting so i don't see the issue.  maybe i am a dolt though.<br>
><br>
> jeff<br>
><br>
><br>
> On Mon, Aug 19, 2013 at 2:44 PM, Rajeev Thakur <<a href="mailto:thakur@mcs.anl.gov">thakur@mcs.anl.gov</a>> wrote:<br>
> Did we make any change in MPI 3.0 to allow nesting of MPI_Win_lock calls? For example,<br>
><br>
> Win_lock(rank 1)<br>
>     Win_lock(rank 2)<br>
><br>
>     Win_unlock(rank 2)<br>
> Win_unlock(rank 1)<br>
><br>
> I can't find the text we added or deleted to allow this.<br>
><br>
> But I do see text that disallows this:<br>
> pg 437, ln 28: "Distinct access epochs for win at the same process must be disjoint."<br>
><br>
> Rajeev<br>
><br>
><br>
> _______________________________________________<br>
> mpi3-rma mailing list<br>
> <a href="mailto:mpi3-rma@lists.mpi-forum.org">mpi3-rma@lists.mpi-forum.org</a><br>
> <a href="http://lists.mpi-forum.org/mailman/listinfo.cgi/mpi3-rma" target="_blank">http://lists.mpi-forum.org/mailman/listinfo.cgi/mpi3-rma</a><br>
><br>
><br>
><br>
> --<br>
> Jeff Hammond<br>
> <a href="mailto:jeff.science@gmail.com">jeff.science@gmail.com</a><br>
> _______________________________________________<br>
> mpi3-rma mailing list<br>
> <a href="mailto:mpi3-rma@lists.mpi-forum.org">mpi3-rma@lists.mpi-forum.org</a><br>
> <a href="http://lists.mpi-forum.org/mailman/listinfo.cgi/mpi3-rma" target="_blank">http://lists.mpi-forum.org/mailman/listinfo.cgi/mpi3-rma</a><br>
<br>
<br>
_______________________________________________<br>
mpi3-rma mailing list<br>
<a href="mailto:mpi3-rma@lists.mpi-forum.org">mpi3-rma@lists.mpi-forum.org</a><br>
<a href="http://lists.mpi-forum.org/mailman/listinfo.cgi/mpi3-rma" target="_blank">http://lists.mpi-forum.org/mailman/listinfo.cgi/mpi3-rma</a><br>
</div></div></blockquote></div><br></div>