<span class="Apple-style-span" style="font-family: arial, sans-serif; font-size: 13px; border-collapse: collapse; ">I was also talking about this.<div><br></div><div>BGP has a DMA-driven 3D torus network.  The DMA operates by inserting message descriptors into injection FIFOs, of which there are a finite number built into the HW.  The DMA will process the head (and only the head) element in each FIFO all together.  Because large messages will block subsequent ones, you must use at least 6 FIFOs to achieve the maximum bandwidth on the 6 outbound links.  There can also be small message latency problem if a large message is blocking small messages to other nodes.  The point is, using more FIFOs is generally better.</div>
<div><br></div><div>Let's assume that there are 32 FIFOs per node, and that using 6 per process or endpoint is considered optimal (both are actually higher in actuality, but it isn't too important).  If we were to allow users to create up to 8 endpoints per node, it would only be possible to allocate 4 FIFOs for each endpoint.  Doing this in all cases would slow the single-threaded case, which will probably be more common for quite some time.</div>
<div><br></div><div><br></div><div>Thanks,</div><div>Joe Ratterman</div><font color="#888888"><div><a href="mailto:jratt@us.ibm.com" target="_blank" style="color: rgb(0, 0, 204); ">jratt@us.ibm.com</a></div></font><div></div>
</span><div><br></div><br><div class="gmail_quote">On Wed, Feb 17, 2010 at 3:17 AM, Pavan Balaji <span dir="ltr"><<a href="mailto:balaji@mcs.anl.gov">balaji@mcs.anl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<br>
I wanted to follow up on some of the discussion in the telecon yesterday.<br>
<br>
Someone from IBM (Brian?) pointed out that how they initialize their<br>
communication hardware on BG/P depends on how many endpoints need to be<br>
created. Can you elaborate on this? Does initializing the hardware with<br>
more endpoints have a performance impact, or use more memory? If not,<br>
can't this be initialized with the maximum number of endpoints (this<br>
information will be available at MPI_Init time)?<br>
<br>
Not allowing any communication calls between the two phases of the split<br>
initialization might be restrictive for users used to the MPI-2.2 kind<br>
of semantics.<br>
<br>
Thanks,<br>
<font color="#888888"><br>
 -- Pavan<br>
</font><div><div></div><div class="h5"><br>
On 02/16/2010 09:23 PM, Pavan Balaji wrote:<br>
> Folks,<br>
><br>
> The minutes for today's telecon are available here:<br>
> <a href="https://svn.mpi-forum.org/trac/mpi-forum-web/wiki/MPI3Hybrid/notes-2010-02-16" target="_blank">https://svn.mpi-forum.org/trac/mpi-forum-web/wiki/MPI3Hybrid/notes-2010-02-16</a><br>
><br>
> Doug: can you upload your helper threads document (current version) to<br>
> the wiki and add a link on the notes page? Also, it might be useful to<br>
> version it, so we can follow any changes to it more easily.<br>
><br>
> Thanks,<br>
><br>
>  -- Pavan<br>
><br>
> On 02/15/2010 02:23 PM, Pavan Balaji wrote:<br>
>> Folks,<br>
>><br>
>> This is a reminder for the telecon tomorrow. The primary agenda item is<br>
>> continue discussion on Marc's proposal.<br>
>><br>
>> Doug: do you have more notes/details on the helper threads stuff? If<br>
>> yes, we should try to make some progress on that as well.<br>
>><br>
>> I'm also hoping to talk about small items that were discussed earlier,<br>
>> but we never decided one way or the other (depending on time available).<br>
>><br>
>> Telecon information is available on the hybrid wiki.<br>
>><br>
>> Thanks,<br>
>><br>
>>  -- Pavan<br>
>><br>
><br>
<br>
--<br>
Pavan Balaji<br>
<a href="http://www.mcs.anl.gov/~balaji" target="_blank">http://www.mcs.anl.gov/~balaji</a><br>
_______________________________________________<br>
Mpi3-hybridpm mailing list<br>
<a href="mailto:Mpi3-hybridpm@lists.mpi-forum.org">Mpi3-hybridpm@lists.mpi-forum.org</a><br>
<a href="http://lists.mpi-forum.org/mailman/listinfo.cgi/mpi3-hybridpm" target="_blank">http://lists.mpi-forum.org/mailman/listinfo.cgi/mpi3-hybridpm</a><br>
</div></div></blockquote></div><br>