<html><head></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><br><div><br><div>Begin forwarded message:</div><br class="Apple-interchange-newline"><blockquote type="cite"><div style="margin-top: 0px; margin-right: 0px; margin-bottom: 0px; margin-left: 0px;"><span style="font-family:'Helvetica'; font-size:medium; color:rgba(0, 0, 0, 1.0);"><b>From: </b></span><span style="font-family:'Helvetica'; font-size:medium;">Douglas Miller <<a href="mailto:dougmill@us.ibm.com">dougmill@us.ibm.com</a>><br></span></div><div style="margin-top: 0px; margin-right: 0px; margin-bottom: 0px; margin-left: 0px;"><span style="font-family:'Helvetica'; font-size:medium; color:rgba(0, 0, 0, 1.0);"><b>Subject: </b></span><span style="font-family:'Helvetica'; font-size:medium;"><b>Re: [Mpi3-hybridpm] tickets 310 313 317</b><br></span></div><div style="margin-top: 0px; margin-right: 0px; margin-bottom: 0px; margin-left: 0px;"><span style="font-family:'Helvetica'; font-size:medium; color:rgba(0, 0, 0, 1.0);"><b>Date: </b></span><span style="font-family:'Helvetica'; font-size:medium;">February 24, 2012 4:17:46 PM EST<br></span></div><div style="margin-top: 0px; margin-right: 0px; margin-bottom: 0px; margin-left: 0px;"><span style="font-family:'Helvetica'; font-size:medium; color:rgba(0, 0, 0, 1.0);"><b>To: </b></span><span style="font-family:'Helvetica'; font-size:medium;"><a href="mailto:mpi3-hybridpm@lists.mpi-forum.org">mpi3-hybridpm@lists.mpi-forum.org</a><br></span></div><div style="margin-top: 0px; margin-right: 0px; margin-bottom: 0px; margin-left: 0px;"><span style="font-family:'Helvetica'; font-size:medium; color:rgba(0, 0, 0, 1.0);"><b>Reply-To: </b></span><span style="font-family:'Helvetica'; font-size:medium;"><a href="mailto:mpi3-hybridpm@lists.mpi-forum.org">mpi3-hybridpm@lists.mpi-forum.org</a><br></span></div><br><div><p><font size="2" face="sans-serif">Last time we discussed these, I thought there were going to be some minor changes made. Unfortunately, these revised texts seem to have significant changes, and are farther from what I was comfortable with. We don't seem to be converging on a target. Here's what I've been thinking:</font><br>
<br>
<font size="2" face="sans-serif">* One MPI_INIT (or MPI_INIT_THREAD) and one MPI_FINALIZE per OS process. After MPI_INIT*, all MPI Processes are initialized.</font><br>
<br></p></div></blockquote><div>You have this in my proposal. However, I don't prohibit one MPI_Init call per MPI process.</div><br><blockquote type="cite"><div><p>
<font size="2" face="sans-serif">* Every thread is associated with one MPI Process by default. Which MPI Process is implementation defined. A call to MPI_COMM_RANK on MPI_COMM_WORLD will tell which. (sub-communicators might return MPI_PROC_NULL)</font><br></p></div></blockquote><div>You have this in my proposal if you use MPI_THREAD_MULTIPLE</div><br><blockquote type="cite"><div><p>
<br>
<font size="2" face="sans-serif">* changing associated is permitted with MPI_THREAD_ATTACH (not sure I'm comfortable with the abstract "index" version of this, I like (MPI_COMM, rank) more)</font><br>
<br></p></div></blockquote><div>If we are sure we can get  in the standard the ability to migrate a thread from one MPI process to another, then your approach is fine. But, if we are not sure that this will pass, then I prefer to push for a new level of thread support. Whether threads are attached by default in this case or not is something I can go either way. With the interface I propose, threads need not be attached to any MPI process, which I think is an advantage. In an environment, such as OpenMP, with dynamic  thread support, where threads come and go, I doubt that it makes much sense to attach threads to MPI processes by default; the user will want to control which thread is attached to which MPI process.</div><br><blockquote type="cite"><div><p>
<font size="2" face="sans-serif">* No new thread levels. Specify that thread level is relative to the MPI Process. I'm OK with requiring that multiple MPI processes requires thread level > MPI_THREAD_SINGLE, although I'm not sure it is necessary.</font><br></p></div></blockquote><div><br></div></div><div><br></div><div><div>Thread level is relative to address space -- otherwise how can you have only one MPI_INIT_THREAD call per address space?</div><div><br></div><blockquote type="cite"><div><p>
<br>
<font size="2" face="sans-serif">MPI_COMM_SPLIT_TYPE is fine as-is, I think.</font><br>
<br>
<br></p></div></blockquote><div><br></div><div><br></div><blockquote type="cite"><div><p>
<br>
<font size="2" face="sans-serif">_______________________________________________<br>
Douglas Miller                  BlueGene Messaging Development<br>
IBM Corp., Rochester, MN USA                     Bldg 030-2 A401<br>
<a href="mailto:dougmill@us.ibm.com">dougmill@us.ibm.com</a>               Douglas Miller/Rochester/IBM</font><br>
<br>
<img width="16" height="16" border="0" alt="Inactive hide details for Marc Snir ---02/22/2012 09:12:08 AM---Marc Snir <snir@mcs.anl.gov>" id="d16b36b3-addf-422c-a48a-fb6568968275" apple-width="yes" apple-height="yes" src="cid:1__=09BBF33DDFE290F88f9e8a93df938@us.ibm.com"><font size="2" color="#424282" face="sans-serif">Marc Snir ---02/22/2012 09:12:08 AM---Marc Snir <<a href="mailto:snir@mcs.anl.gov">snir@mcs.anl.gov</a>></font><br>
<br>

<table width="100%" border="0" cellspacing="0" cellpadding="0">
<tbody><tr valign="top"><td style="background-image:url(cid:2__=09BBF33DDFE290F88f9e8a93df938@us.ibm.com); background-repeat: no-repeat; " width="40%">
<ul style="padding-left: 72pt"><font size="1" face="sans-serif"><b>Marc Snir <<a href="mailto:snir@mcs.anl.gov">snir@mcs.anl.gov</a>></b></font><font size="1" face="sans-serif"> </font><br>
<font size="1" face="sans-serif">Sent by: <a href="mailto:mpi3-hybridpm-bounces@lists.mpi-forum.org">mpi3-hybridpm-bounces@lists.mpi-forum.org</a></font>
<p><font size="1" face="sans-serif">02/22/2012 09:07 AM</font>
<table border="1">
<tbody><tr valign="top"><td width="168" bgcolor="#FFFFFF"><div align="center"><font size="1" face="sans-serif">Please respond to<br>
<a href="mailto:mpi3-hybridpm@lists.mpi-forum.org">mpi3-hybridpm@lists.mpi-forum.org</a></font></div></td></tr>
</tbody></table>
</p></ul>
</td><td width="60%">
<table width="100%" border="0" cellspacing="0" cellpadding="0">
<tbody><tr valign="top"><td width="1%"><img width="16" height="1" border="0" alt="" id="849ebb73-f72d-4b53-bb6b-abcf8386d1b8" apple-width="yes" apple-height="yes" src="cid:3__=09BBF33DDFE290F88f9e8a93df938@us.ibm.com"><br>
<div align="right"><font size="1" face="sans-serif">To</font></div></td><td width="100%"><img width="16" height="1" border="0" alt="" id="14711cb2-5297-48b2-9ebe-6d5570cc32e6" apple-width="yes" apple-height="yes" src="cid:3__=09BBF33DDFE290F88f9e8a93df938@us.ibm.com"><br>

<ul style="padding-left: 7pt"><font size="1" face="sans-serif"><a href="mailto:mpi3-hybridpm@lists.mpi-forum.org">mpi3-hybridpm@lists.mpi-forum.org</a>, </font></ul>
</td></tr>

<tr valign="top"><td width="1%"><img width="16" height="1" border="0" alt="" id="3e081dc7-e65e-4aee-8b28-7a7445ab7fd7" apple-width="yes" apple-height="yes" src="cid:3__=09BBF33DDFE290F88f9e8a93df938@us.ibm.com"><br>
<div align="right"><font size="1" face="sans-serif">cc</font></div></td><td width="100%"><img width="16" height="1" border="0" alt="" id="4b45fae4-784a-4d56-becb-38310ede3db8" apple-width="yes" apple-height="yes" src="cid:3__=09BBF33DDFE290F88f9e8a93df938@us.ibm.com"><br>
</td></tr>

<tr valign="top"><td width="1%"><img width="16" height="1" border="0" alt="" id="9f604cf7-a39e-44b9-b92e-e79b8e237bec" apple-width="yes" apple-height="yes" src="cid:3__=09BBF33DDFE290F88f9e8a93df938@us.ibm.com"><br>
<div align="right"><font size="1" face="sans-serif">Subject</font></div></td><td width="100%"><img width="16" height="1" border="0" alt="" id="d85c9ffc-b2e9-4c33-b4c1-3edf427452fa" apple-width="yes" apple-height="yes" src="cid:3__=09BBF33DDFE290F88f9e8a93df938@us.ibm.com"><br>

<ul style="padding-left: 7pt"><font size="1" face="sans-serif">[Mpi3-hybridpm] tickets 310 313 317</font></ul>
</td></tr>
</tbody></table>

<table border="0" cellspacing="0" cellpadding="0">
<tbody><tr valign="top"><td width="58"><img width="16" height="1" border="0" alt="" id="72383fb4-e32e-4858-a489-a8ec944276ab" apple-width="yes" apple-height="yes" src="cid:3__=09BBF33DDFE290F88f9e8a93df938@us.ibm.com"></td><td width="336"><img width="16" height="1" border="0" alt="" id="7a08d795-3ae3-43ba-839c-26f6caf78ca4" apple-width="yes" apple-height="yes" src="cid:3__=09BBF33DDFE290F88f9e8a93df938@us.ibm.com"></td></tr>
</tbody></table>
</td></tr>
</tbody></table>
<br>
<tt><font size="2">I posted text for each of them. Text for ticket 311 is now part of text for ticket 310. Please read and comment.<br>
<br>
<br>
<br>
_______________________________________________<br>
Mpi3-hybridpm mailing list<br>
<a href="mailto:Mpi3-hybridpm@lists.mpi-forum.org">Mpi3-hybridpm@lists.mpi-forum.org</a><br>
</font></tt><tt><font size="2"><a href="http://lists.mpi-forum.org/mailman/listinfo.cgi/mpi3-hybridpm">http://lists.mpi-forum.org/mailman/listinfo.cgi/mpi3-hybridpm</a></font></tt><tt><font size="2"><br>
<br>
</font></tt><br>
</p></div>
_______________________________________________<br>Mpi3-hybridpm mailing list<br><a href="mailto:Mpi3-hybridpm@lists.mpi-forum.org">Mpi3-hybridpm@lists.mpi-forum.org</a><br><a href="http://lists.mpi-forum.org/mailman/listinfo.cgi/mpi3-hybridpm">http://lists.mpi-forum.org/mailman/listinfo.cgi/mpi3-hybridpm</a></blockquote></div><br></body></html>