<div dir="ltr">That's fine by me.</div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Dec 15, 2014 at 6:17 PM, Balaji, Pavan <span dir="ltr"><<a href="mailto:balaji@anl.gov" target="_blank">balaji@anl.gov</a>></span> wrote:<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
I think people assumed it wasn't happening because there wasn't any email till very late.  Unfortunately, the next call is during the holidays.  Shall we cancel that call and meet again in January?<br>
<br>
  -- Pavan<br>
<div><div class="h5"><br>
> On Dec 15, 2014, at 11:12 AM, Jim Dinan <<a href="mailto:james.dinan@gmail.com">james.dinan@gmail.com</a>> wrote:<br>
><br>
> Also, the PDF with feedback is now attached the trac ticket #380.<br>
><br>
> On Mon, Dec 15, 2014 at 12:06 PM, Jim Dinan <<a href="mailto:james.dinan@gmail.com">james.dinan@gmail.com</a>> wrote:<br>
> I'm on the bridge if anyone wants to discuss.  Otherwise, I'll drop by quarter past the hour.<br>
><br>
> On Mon, Dec 15, 2014 at 11:07 AM, Jim Dinan <<a href="mailto:james.dinan@gmail.com">james.dinan@gmail.com</a>> wrote:<br>
> I have not yet produced a new version of the proposal with the changes incorporated, but they are all captured in the attached PDF.  I'm happy to meet to review these, if folks want to.  One item that bears discussion is the change that would cause MPI_Group_compare operations to result in MPI_ALIASED when the group arguments belong to different processes.<br>
><br>
>  ~Jim.<br>
><br>
> On Sun, Dec 14, 2014 at 7:05 AM, Balaji, Pavan <<a href="mailto:balaji@anl.gov">balaji@anl.gov</a>> wrote:<br>
> Jim,<br>
><br>
> Do you want to discuss the changes suggested at the Forum for the endpoints reading at the call on Monday, or do you need more time?<br>
><br>
> Since that's the only agenda item for now, we'll cancel the call if you are not ready yet.<br>
><br>
> There was some reasonable interest in the independent communicators proposal.  At least enough to encourage me to pursue it.  I'm going to take it offline for a bit to work on it and get some implementation experience before bringing it back up again.<br>
><br>
> Thanks,<br>
><br>
>   -- Pavan<br>
><br>
> Sent from my iPhone<br>
> _______________________________________________<br>
> mpiwg-hybridpm mailing list<br>
> <a href="mailto:mpiwg-hybridpm@lists.mpi-forum.org">mpiwg-hybridpm@lists.mpi-forum.org</a><br>
> <a href="http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-hybridpm" target="_blank">http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-hybridpm</a><br>
> _______________________________________________<br>
> mpiwg-hybridpm mailing list<br>
> <a href="mailto:mpiwg-hybridpm@lists.mpi-forum.org">mpiwg-hybridpm@lists.mpi-forum.org</a><br>
> <a href="http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-hybridpm" target="_blank">http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-hybridpm</a><br>
<br>
</div></div>--<br>
Pavan Balaji  ✉️<br>
<a href="http://www.mcs.anl.gov/~balaji" target="_blank">http://www.mcs.anl.gov/~balaji</a><br>
<div class="HOEnZb"><div class="h5"><br>
_______________________________________________<br>
mpiwg-hybridpm mailing list<br>
<a href="mailto:mpiwg-hybridpm@lists.mpi-forum.org">mpiwg-hybridpm@lists.mpi-forum.org</a><br>
<a href="http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-hybridpm" target="_blank">http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-hybridpm</a></div></div></blockquote></div></div>