<html><head><meta http-equiv="Content-Type" content="text/html charset=windows-1252"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;">Why not simply use MPI_Win_create_dynamic, attach the separate memory regions, and use that MPI_Win?  Adding an option for a collective memory allocator would make this almost equivalent, and wouldn’t add additional overhead beyond what is already requried.<div><div><br></div><div>Bill</div><div><br><div apple-content-edited="true">
<span class="Apple-style-span" style="border-collapse: separate; color: rgb(0, 0, 0); font-family: Helvetica; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: normal; orphans: 2; text-align: -webkit-auto; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-border-horizontal-spacing: 0px; -webkit-border-vertical-spacing: 0px; -webkit-text-decorations-in-effect: none; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px;  "><span class="Apple-style-span" style="border-collapse: separate; color: rgb(0, 0, 0); font-family: Helvetica; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: normal; orphans: 2; text-align: -webkit-auto; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-border-horizontal-spacing: 0px; -webkit-border-vertical-spacing: 0px; -webkit-text-decorations-in-effect: none; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px;  "><div style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><span class="Apple-style-span" style="border-collapse: separate; color: rgb(0, 0, 0); font-family: Helvetica; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: normal; orphans: 2; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-border-horizontal-spacing: 0px; -webkit-border-vertical-spacing: 0px; -webkit-text-decorations-in-effect: none; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px;  "><div style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><div style="font-size: 12px; ">William Gropp</div><div style="font-size: 12px; ">Director, Parallel Computing Institute</div></div></span><span class="Apple-style-span" style="font-size: 12px; ">Thomas M. Siebel Chair in Computer Science</span><span class="Apple-style-span" style="border-collapse: separate; color: rgb(0, 0, 0); font-family: Helvetica; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: normal; orphans: 2; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-border-horizontal-spacing: 0px; -webkit-border-vertical-spacing: 0px; -webkit-text-decorations-in-effect: none; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px;  "><div style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><div><div style="font-size: 12px; ">University of Illinois Urbana-Champaign</div></div><div><br></div></div></span><br class="Apple-interchange-newline"></div></span><br class="Apple-interchange-newline"></span><br class="Apple-interchange-newline">
</div>
<br><div><div>On Aug 8, 2014, at 9:18 AM, Rolf Rabenseifner <<a href="mailto:rabenseifner@hlrs.de">rabenseifner@hlrs.de</a>> wrote:</div><br class="Apple-interchange-newline"><blockquote type="cite">Jim,<br><br>your topic "Reducing Synchronization Overhead Through Bundled<br>Communication" may get also help if we would be able to <br>combine several window handles to one superset window handle.<br><br>If you have several windows for different buffers, but<br>only one synchronization pattern, e.g. MPI_Win_fince<br>then currently you must call MPI_Win_fence seperately <br>for each window handle.<br><br>I would propose:<br><br>MPI_Win_combine (/*IN*/  int count, <br>                 /*IN*/  MPI_Win *win,<br>                 /*IN*/  MPI_Comm comm, <br>                 /*OUT*/ MPI_Win *win_combined)<br><br>The process group of comm must contain the process groups of all win.<br>The resulting window handle win_combined can be used only <br>in RMA synchronization calls and other helper routines, <br>but not for dynamic window allocation nor for any<br>RMA communication routine.<br>Collective synchronization routines must be called by all processes <br>of comm.<br>The semantics of an RMA synchronization call using win_combined<br>is defined as if the calls were seperately issued for <br>each window handle of the array win. If group handles<br>are part of the argument list of the synchronization call<br>then the appropriate subset is used for each window handle in win.<br><br>What do you think about this idea for MPI-4.0?<br><br>Best regards<br>Rolf <br><br>----- Original Message -----<br><blockquote type="cite">From: "Jim Dinan" <<a href="mailto:james.dinan@gmail.com">james.dinan@gmail.com</a>><br>To: "MPI WG Remote Memory Access working group" <<a href="mailto:mpiwg-rma@lists.mpi-forum.org">mpiwg-rma@lists.mpi-forum.org</a>><br>Sent: Thursday, August 7, 2014 4:08:32 PM<br>Subject: [mpiwg-rma] RMA Notification<br><br><br><br>Hi All,<br><br><br>I have added a new proposal for an RMA notification extension: <br><a href="https://svn.mpi-forum.org/trac/mpi-forum-web/ticket/439">https://svn.mpi-forum.org/trac/mpi-forum-web/ticket/439</a><br><br><br>I would like to bring this forward for the RMA WG to consider as an<br>MPI-4 extension.<br><br><br>Cheers,<br> ~Jim.<br>_______________________________________________<br>mpiwg-rma mailing list<br>mpiwg-rma@lists.mpi-forum.org<br>http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-rma<br></blockquote><br>-- <br>Dr. Rolf Rabenseifner . . . . . . . . . .. email <a href="mailto:rabenseifner@hlrs.de">rabenseifner@hlrs.de</a><br>High Performance Computing Center (HLRS) . phone ++49(0)711/685-65530<br>University of Stuttgart . . . . . . . . .. fax ++49(0)711 / 685-65832<br>Head of Dpmt Parallel Computing . . . <a href="http://www.hlrs.de/people/rabenseifner">www.hlrs.de/people/rabenseifner</a><br>Nobelstr. 19, D-70550 Stuttgart, Germany . . . . (Office: Room 1.307)<br>_______________________________________________<br>mpiwg-rma mailing list<br><a href="mailto:mpiwg-rma@lists.mpi-forum.org">mpiwg-rma@lists.mpi-forum.org</a><br>http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-rma</blockquote></div><br></div></div></body></html>