<html><body>
<p>Just proof reading again...<br>
<br>
Page 11 lines 32-34, this paragraph still says "Advice to implementers" twice.<br>
<br>
Page 12 lines 3-4, missing close-paren at "async-signal-safe".<br>
<br>
Page 12 lines 46-48, I think MPI_THREAD_FUNNELED should have the same note about excepting helper threads calls? I think it can still be allowed, or might be desirable, to use helper threads in this case?<br>
<br>
Page 14 lines 42.5-48, the wording sounds a little soft, as if the only goal is to pass the linking phase. should it additionally say something like "must return a meaningful and accurate value"?<br>
<br>
Pages 16-17, should we add an "advice to users" to recommend/remind that all communications between JOIN and LEAVE be self-completing? What I mean is that if a thread does an MPI_ISEND between JOIN and LEAVE, that is also does an MPI_WAIT (or equiv.) on that ISEND before LEAVE? Since JOIN and LEAVE have no knowledge of requests, etc, isn't that prudent or even necessary?<br>
<br>
Page 17, section 12.5 Shared Memory. Rather than be collective, could these calls reflect the API of something like shm_open() whereby they have a "key" parameter that uniquely identifies the segment of shared memory? Our experience with DCMF (where we did all shmem allocations in a ordered, synchronized "collective" manner) was that it is fraught with problems and restrictions. We're moving to using an API that takes a string "key" so that we need not force such semantics. Are there any OS shmem APIs that require ordered, collective allocation? I know UPC does not use a "key", but wouldn't this allow for better implementations? Are there platforms where these semantics would NOT work? [probably a topic for our meeting]<br>
<br>
[also another topic for the meeting] Should we say something about how to get a communicator of appropriate ranks for shmem allocation? Many platforms do not support global shared memory (only shmem local to a node), and I don't think there are any MPI mechanisms for testing or selecting ranks that are node-local.<br>
<br>
Thanks, Pavan, for doing this integration, by the way.<br>
Myself, I don't know LaTeX and can't afford the learning curve right now, so you're really helping out.<br>
<br>
_______________________________________________<br>
Douglas Miller                  BlueGene Messaging Development<br>
IBM Corp., Rochester, MN USA                     Bldg 030-2 A410<br>
dougmill@us.ibm.com               Douglas Miller/Rochester/IBM<br>
<br>
<img width="16" height="16" src="cid:1__=09BBFD5DDFD0140C8f9e8a93df938@us.ibm.com" border="0" alt="Inactive hide details for Pavan Balaji ---10/30/2010 07:37:24 PM---On 10/30/2010 01:49 PM, Bronis R. de Supinski wrote:"><font color="#424282">Pavan Balaji ---10/30/2010 07:37:24 PM---On 10/30/2010 01:49 PM, Bronis R. de Supinski wrote:</font><br>
<br>

<table width="100%" border="0" cellspacing="0" cellpadding="0">
<tr valign="top"><td style="background-image:url(cid:2__=09BBFD5DDFD0140C8f9e8a93df938@us.ibm.com); background-repeat: no-repeat; " width="40%">
<ul>
<ul>
<ul>
<ul><b><font size="2">Pavan Balaji <balaji@mcs.anl.gov></font></b><font size="2"> </font><br>
<font size="2">Sent by: mpi3-hybridpm-bounces@lists.mpi-forum.org</font>
<p><font size="2">10/30/2010 07:36 PM</font>
<table border="1">
<tr valign="top"><td width="168" bgcolor="#FFFFFF"><div align="center"><font size="2">Please respond to<br>
mpi3-hybridpm@lists.mpi-forum.org</font></div></td></tr>
</table>
</ul>
</ul>
</ul>
</ul>
</td><td width="60%">
<table width="100%" border="0" cellspacing="0" cellpadding="0">
<tr valign="top"><td width="1%"><img width="58" height="1" src="cid:3__=09BBFD5DDFD0140C8f9e8a93df938@us.ibm.com" border="0" alt=""><br>
<div align="right"><font size="2">To</font></div></td><td width="100%"><img width="1" height="1" src="cid:3__=09BBFD5DDFD0140C8f9e8a93df938@us.ibm.com" border="0" alt=""><br>
<font size="2">"Bronis R. de Supinski" <bronis@llnl.gov>, mpi3-hybridpm@lists.mpi-forum.org</font></td></tr>

<tr valign="top"><td width="1%"><img width="58" height="1" src="cid:3__=09BBFD5DDFD0140C8f9e8a93df938@us.ibm.com" border="0" alt=""><br>
<div align="right"><font size="2">cc</font></div></td><td width="100%"><img width="1" height="1" src="cid:3__=09BBFD5DDFD0140C8f9e8a93df938@us.ibm.com" border="0" alt=""><br>
</td></tr>

<tr valign="top"><td width="1%"><img width="58" height="1" src="cid:3__=09BBFD5DDFD0140C8f9e8a93df938@us.ibm.com" border="0" alt=""><br>
<div align="right"><font size="2">Subject</font></div></td><td width="100%"><img width="1" height="1" src="cid:3__=09BBFD5DDFD0140C8f9e8a93df938@us.ibm.com" border="0" alt=""><br>
<font size="2">Re: [Mpi3-hybridpm] External interfaces chapter updates</font></td></tr>
</table>

<table border="0" cellspacing="0" cellpadding="0">
<tr valign="top"><td width="58"><img width="1" height="1" src="cid:3__=09BBFD5DDFD0140C8f9e8a93df938@us.ibm.com" border="0" alt=""></td><td width="336"><img width="1" height="1" src="cid:3__=09BBFD5DDFD0140C8f9e8a93df938@us.ibm.com" border="0" alt=""></td></tr>
</table>
</td></tr>
</table>
<br>
<tt><br>
On 10/30/2010 01:49 PM, Bronis R. de Supinski wrote:<br>
>> I think it's time for us to start dumping in text into the chapter and<br>
>> start discussing the exact wording. I've included the helper threads and<br>
>> shared memory extensions proposals into the chapter and uploaded it to<br>
>> the wiki<br>
>> (</tt><tt><a href="https://svn.mpi-forum.org/trac/mpi-forum-web/attachment/wiki/MPI3Hybrid/ei-2-v0.1.pdf">https://svn.mpi-forum.org/trac/mpi-forum-web/attachment/wiki/MPI3Hybrid/ei-2-v0.1.pdf</a></tt><tt>).<br>
>> Please take a look at it and let me know your comments.<br>
><br>
> I'll try to make a detailed reading next week. In the<br>
<br>
I had initially incorrectly uploaded a change with respect to the <br>
MPI_THREAD_SERIALIZED semantics which we decided to drop last time. I've <br>
now uploaded v0.2 of the document with this correction as well as the <br>
other changes suggested by Bronis.<br>
<br>
  -- Pavan<br>
<br>
-- <br>
Pavan Balaji<br>
</tt><tt><a href="http://www.mcs.anl.gov/~balaji">http://www.mcs.anl.gov/~balaji</a></tt><tt><br>
_______________________________________________<br>
Mpi3-hybridpm mailing list<br>
Mpi3-hybridpm@lists.mpi-forum.org<br>
</tt><tt><a href="http://lists.mpi-forum.org/mailman/listinfo.cgi/mpi3-hybridpm">http://lists.mpi-forum.org/mailman/listinfo.cgi/mpi3-hybridpm</a></tt><tt><br>
</tt><br>
</body></html>