On Sat, Dec 8, 2012 at 11:12 AM, Torsten Hoefler <span dir="ltr"><<a href="mailto:htor@illinois.edu" target="_blank">htor@illinois.edu</a>></span> wrote:<br><div class="gmail_extra"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

Hi all,<br>
<br>
We discussed the neighborhood reductions at the last Forum and the straw<br>
vote if we should include them in the next revision was:<br>
<br>
 - yes: 18<br>
 - no: 0<br>
 - abstain: 3<br>
<br>
I addressed all the issues in the draft that were brought up at the<br>
Forum. The new draft is now at <a href="http://www.unixer.de/sec/topol.pdf" target="_blank">http://www.unixer.de/sec/topol.pdf</a> . Look<br>
for ticket "XXX".<br></blockquote><div><br></div><div>The other interfaces for MPI_Ineighbor_reduce do not contain the "I" (page 40, line 25 and 30); MPI_Ineighbor_reducev </div><div> does not have the "v" (page 41, line 26 and 31).</div>
<div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

<br>
One open question remains: would a single send buffer for<br>
neighbor_reduce suffice or do we need one buffer per destination<br>
process? The second case could always be done with neighbor_reducev<br>
(with small additional costs). This questions is more to the potential<br>
users (Jed etc.).<br></blockquote><div><br></div><div>My understanding of Neighbor_reducev is that I send different sizes to each neighbor, but receive the same size from every neighbor (reducing into exactly one buffer). That isn't really a useful operation in domain decomposed methods. The useful operation is that I reduce different sized received buffers into different (but sometimes overlapping) parts of my local buffer.</div>
<div><br></div><div>The single send buffer (with different datatype arguments) imposes no restriction and is natural.</div></div></div>