<div dir="ltr"><font face="arial, helvetica, sans-serif">Eek, yes, the "public and private copies are <i>identical</i>" text on pg 436 and elsewhere does not convey what we intended.  What we probably should have said is something like "public and private copies are stored in the same location."</font></div>
<div class="gmail_extra"><br><br><div class="gmail_quote">On Fri, Aug 2, 2013 at 12:22 PM, Pavan Balaji <span dir="ltr"><<a href="mailto:balaji@mcs.anl.gov" target="_blank">balaji@mcs.anl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Jim,<br>
<br>
This is a good way to reason about UNIFIED, but it's not exactly what the MPI standard states.  It says that the public window is the same as the private window and not that they'll eventually be the same.  We could change it to say something like this, though.<br>

<br>
 -- Pavan<div class="im"><br>
<br>
On 08/01/2013 09:33 AM, Jim Dinan wrote:<br>
</div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="im">
Let's make sure we are using the right language -- Unified does not<br>
guarantee that "public win == private win".  It guarantees that they are<br>
*eventually* the same, not immediately and always the same.  It is<br>
completely allowable for processes to have inconsistent views of the<br>
window (because there are cached copies of the data and buffered<br>
reads/writes).  The question we are debating is whether it is a<br>
reasonable semantic that those inconsistent views become eventually<br>
consistent without additional MPI calls by target processes.  And, if we<br>
choose to keep the "eventual" semantic that we currently have, whether<br>
any ordering imposed by other processes should be observed by the target<br>
process in load/store operations, provided that process performs no<br>
window synchronization calls.<br>
<br>
  ~Jim.<br>
<br>
<br>
On Wed, Jul 31, 2013 at 7:30 PM, Pavan Balaji <<a href="mailto:balaji@mcs.anl.gov" target="_blank">balaji@mcs.anl.gov</a><br></div><div><div class="h5">
<mailto:<a href="mailto:balaji@mcs.anl.gov" target="_blank">balaji@mcs.anl.gov</a>>> wrote:<br>
<br>
<br>
    On 07/31/2013 12:58 PM, Sur, Sayantan wrote:<br>
<br>
            On 07/31/2013 12:00 PM, Jim Dinan wrote:<br>
<br>
                I would bet that past Jim suggested striking the<br>
                polling/eventually visibile clause and relying on window<br>
                synchronization to see updates. :)<br>
<br>
<br>
            Yup, so did past, present, and future Pavan.  IMO, that's a<br>
            useless<br>
            guarantee.<br>
<br>
                The downside to this is that libraries like SHMEM that<br>
                rely on<br>
                passive progress and polling, would not be implementable<br>
                on top<br>
                of Unified.<br>
<br>
<br>
            It's pretty useless even for SHMEM, since the user doesn't know<br>
            when the data is valid.  You could poll on a byte for it to<br>
            turn to<br>
            one, but at that point you only know about that one byte and<br>
            nothing else.<br>
<br>
<br>
        Past Sayantan had missed this discussion, but present Sayantan does<br>
        agree that "eventually" as defined is useless. But he is also<br>
        confused by the guarantee given by MPI_Win_flush, that when the call<br>
        returns, all previously issued RMA ops are complete locally and<br>
        remotely + UNIFIED (public win == private win).<br>
<br>
<br>
    Unfortunately, that part slipped the checks of the folks who<br>
    believed you need a WIN_SYNC.  So the standard is inconsistent.  We<br>
    have now made a full circle and gotten back to where this email<br>
    thread started :-).<br>
<br>
<br>
    --<br>
    Pavan Balaji<br>
    <a href="http://www.mcs.anl.gov/~balaji" target="_blank">http://www.mcs.anl.gov/~balaji</a><br></div></div>
    ______________________________<u></u>___________________<br>
    mpi3-rma mailing list<br>
    <a href="mailto:mpi3-rma@lists.mpi-forum.org" target="_blank">mpi3-rma@lists.mpi-forum.org</a> <mailto:<a href="mailto:mpi3-rma@lists.mpi-forum.org" target="_blank">mpi3-rma@lists.mpi-<u></u>forum.org</a>><br>
    <a href="http://lists.mpi-forum.org/__mailman/listinfo.cgi/mpi3-rma" target="_blank">http://lists.mpi-forum.org/__<u></u>mailman/listinfo.cgi/mpi3-rma</a><br>
    <<a href="http://lists.mpi-forum.org/mailman/listinfo.cgi/mpi3-rma" target="_blank">http://lists.mpi-forum.org/<u></u>mailman/listinfo.cgi/mpi3-rma</a>><div class="im"><br>
<br>
<br>
<br>
<br>
______________________________<u></u>_________________<br>
mpi3-rma mailing list<br>
<a href="mailto:mpi3-rma@lists.mpi-forum.org" target="_blank">mpi3-rma@lists.mpi-forum.org</a><br>
<a href="http://lists.mpi-forum.org/mailman/listinfo.cgi/mpi3-rma" target="_blank">http://lists.mpi-forum.org/<u></u>mailman/listinfo.cgi/mpi3-rma</a><br>
<br>
</div></blockquote><div class="HOEnZb"><div class="h5">
<br>
-- <br>
Pavan Balaji<br>
<a href="http://www.mcs.anl.gov/~balaji" target="_blank">http://www.mcs.anl.gov/~balaji</a><br>
</div></div></blockquote></div><br></div>